Subido por FRANK Q. LENIZ

TEMAS DE ÁLGEBRA LINEAL PARA A - Álvarez López Alberto Augusto 2700

Anuncio
Temas de Álgebra lineal para
Administración y Dirección
de Empresas
Alberto A. Álvarez López
Emilio Prieto Sáez
UNIVERSIDAD NACIONAL DE EDUCACIÓN A DISTANCIA
TEMAS DE ÁLGEBRA LINEAL PARA ADMINISTRACIÓN Y DIRECCIÓN
DE EMPRESAS
Quedan rigurosamente prohibidas, sin la
autorización escrita de los titulares del
Copyright, bajo las sanciones establecidas
en las leyes, la reproducción total o
parcial de esta obra por cualquier medio
o procedimiento, comprendidos la reprografía
y el tratamiento informático, y la distribución
de ejemplares de ella mediante alquiler
o préstamos públicos..
© Universidad Nacional de Educación a Distancia
Madrid 2014
www.uned.es/publicaciones
© Alberto Augusto Álvarez López
Emilio Prieto Sáez
Ilustración de cubierta: María Álvarez Alonso, Inés Álvarez Alonso
ISBN electrónico: 978-84-362-6941-3
Edición digital: noviembre de 2014
Para María e Inés
A. A.
Índice
Presentación
I
Sistemas de ecuaciones lineales
Esquema
Presentación delcapítulo
1.
Introducciónalossistemasdeecuacioneslineales
2.
Definiciones y propiedades.
3.
Discusiónyresolucióndeunsistemadeecuacioneslineales
.
.
.
.
.
.
.
.
.
.
.
.
.
. 48
.
. 119
Recapitulación I
II
Matrices
Esquema
Presentación delcapítulo
1.
Definición de matriz .
.
.
.
.
.
.
.
.
.
2.
Operaciones con matrices .
.
.
.
.
.
.
.
.
.
.
.
.
.
. 127
3.
Transformaciones elementales de una matriz .
.
.
.
.
.
.
. 149
4.
Rango de una matriz .
.
.
.
.
.
.
.
.
.
.
.
.
. 158
5.
Inversa de una matriz cuadrada .
.
.
.
.
.
.
.
.
.
.
.
. 174
6.
Traspuesta de una matriz .
.
.
.
.
.
.
.
.
.
.
.
.
.
. 188
7.
Otros temas sobre matrices
.
.
.
.
.
.
.
.
.
.
.
.
.
. 199
.
.
.
.
.
.
.
.
Recapitulación II
III Vectores
Esquema
Presentación delcapítulo
1.
Vectores
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 239
2.
Subespacios vectoriales .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 265
3.
Independencia lineal .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 281
Recapitulación III
Bibliografía
.
.
.
.
PRESENTACIÓN
En los capítulos que comprende este texto se exponen los instrumentos
matemáticos básicos del Álgebra Lineal.
A quién va dirigido este texto
Este manual está dirigido, principalmente,
a los estudiantes de la asignatura de Matemáticas I del Grado de Administración y Dirección de Empresas en la UNED. Está escrito pensando en estudiantes a distancia, los cuales deben tener a mano la información más
completa posible sobre la asignatura. Pero, precisamente por este motivo,
pensamos que podría ser útil también para estudiantes presenciales que
necesiten algún libro en el que consultar estos temas.
Contextualización de la asignatura en la materia
En el plan de estudios
actual, la asignatura de Matemáticas I, que es la primera de la materia de
Matemáticas en el Grado de ADE, se estudia en el primer cuatrimestre de
primer curso. Habrá dos asignaturas más: la siguiente —Matemáticas II —,
en el primer cuatrimestre de segundo curso; la tercera y última —Matemáticas III —, en el primer cuatrimestre de tercer curso.
En lo que a contenidos se refiere, la asignatura de Matemáticas I es una
presentación de los conceptos y las técnicas básicos del Álgebra Lineal. Las
siguientes asignaturas estarán dedicadas a presentar contenidos de Análisis Matemático, con funciones de una y varias variables, incluyendo integración, y de otros temas como los Sistemas Dinámicos. Los contenidos de
Matemáticas I son, pues, necesarios para el estudio de las restantes asignaturas de Matemáticas, aunque también encuentran aplicación directa en
otras materias del Grado.
Estructura del texto
Este texto tiene tres capítulos. Todos están dedica-
dos a desarrollar con detalle cuestiones propias del Álgebra Lineal: sistemas
de ecuaciones lineales, matrices y vectores.
PRESENTACIÓN
En el Curso Virtual, el alumno encontrará más temas de Álgebra Lineal
que también están incluidos en la materia de la asignatura, como aplicaciones lineales y matrices positivas, entre otros.
Requisitos previos
Los contenidos de Matemáticas habituales de un Ba-
chillerato o equivalente (con orientación a ciencias o ingeniería) son más que
suficientes para poder abordar esta asignatura. También son perfectamente
adecuados los contenidos de la asignatura de Matemáticas1 del Curso de
Acceso Directo a la Universidad, para Mayores de 25 Años, que imparte la
propia UNED.
Si un alumno no cumple de entrada este requisito, podría serle útil, por
ejemplo, acceder a los cursos 0 que la misma UNED ofrece. En todo caso,
la materia de este libro empieza casi “desde cero”. En las primeras páginas
del primer capítulo se habla de sistemas de ecuaciones lineales de dos ecuaciones y dos incógnitas, que todos lo alumnos habrán estudiado en Educación Secundaria o similar; a partir de ahí se complica la materia, desde
luego, pero se suponen muy pocos elementos más como conocidos por el
lector.
Cómo leer este texto
Cada uno de los capítulos empieza con una breve
introducción, que presenta y resume el contenido del capítulo.
Tras la introducción, el cuerpo principal del capítulo incluye todo el material exigido. Está dividido en secciones, por lo general amplias, cada una
rematada por una lista de ejercicios. Los contenidos están presentados en
forma de parágrafos, unidades —por lo general— de no muchas líneas que
recogen un aspecto concreto del contenido, o un ejemplo corto, o un concepto simple. Cada parágrafo está numerado, lo que permite su posterior
referencia con comodidad (con ayuda del signo §), y se pretende que pueda
ser leído fácilmente de un tirón. Esta estructura da al lector idea de cómo
son los pasos mínimos que debe ir dando para comprender la materia. 2
De cuando en cuando, el lector encontrará partes del texto en letra de
cuerpo menor, y separadas del resto con dos líneas horizontales de puntos.
Lo que entre estas dos líneas de puntos figura (a dos columnas) es algo que
1 Hasta
el curso 2008–2009, esta asignatura se llamaba Matemáticas Especiales
2
Estrictamente hablando, la palabra parágrafo es sinónima de la palabra párrafo. Aquí
usamos esta en su sentido habitual (unidad de texto escrito que comienza con una letra
mayúscula al principio del renglón y termina con un punto y aparte), y nos permitimos
utilizar aquella en un sentido ligeramente diferente (unidad de texto numerada, compuesta
por uno o más párrafos, donde se trata un único asunto muy concreto).
PRESENTACIÓN
podemos considerar más dificil (muchas veces demostraciones de resultados), o que es de carácter complementario, y por ello puede omitirse en una
primera lectura: esta omisión no hará perderse al lactor nada esencial para
seguir la lectura del texto principal. No obstante, la lectura de todo, también de estas partes (en una segunda vuelta si acaso), es recomendable para
una comprensión de la materia lo más completa posible. En particular, y a
pesar de que no suelen exigirse en los exámenes, las demostraciones de los
resultados son instructivas en sí mismas: en ellas se bordan los hilos finos
de la materia.
Finalmente, cada capítulo termina con una recapitulación de todo lo
visto en su desarrollo, tanto definiciones como resultados. Estas recapitulaciones pueden ser muy útiles como “fichas” de consulta rápida y referencia.
La parte práctica de la materia está ampliamente desarrollada no solo en
la miriada de ejemplos desarrollados en los distintos parágrafos del texto,
sino también en los ejercicios, que —como se ha apuntado— se proponen
al final de cada sección. Estos ejercicios son básicamente de dos tipos: algunos, los más, buscan que el lector se ejercite en alguna técnica; otros, los
menos, proponen al lector la demostración de algún resultado adicional o
el desarrollo de algún método alternativo para algo. Los segundos, aunque
no están tipográficamente distinguidos de los demás, se pueden considerar, a modo de Actividades Complementarias, para ampliar formación. No
se incluyen soluciones de los ejercicios y problemas propuestos, con el fin
de que sirvan de punto de partida para el trabajo del alumno en el Curso
Virtual de la asignatura. En este mismo Curso Virtual, el alumno encontrará
una lista de cuestiones con varias opciones posibles como respuesta (lo que
habitualmente se denomina preguntas de “tipo test”). Estas cuestiones están
pensadas como material de autoevaluación.
Sobre los autores
Los autores, los profesores Emilio Prieto Sáez y Al-
berto A. Álvarez López, llevan trabajando muchos años en asignaturas de
la materia de Matemáticas para la Economía y la Administración y Dirección de Empresas, con la metodología a distancia, y son autores, tanto por
separado como en colaboración, de varios manuales sobre estos temas.
Agradecimientos
Los autores queremos dejar constancia de nuestro sin-
cero agradecimiento, por su ayuda y sus sugerencias, a los tutores y compañeros de los equipos docentes de las asignaturas del Departamento de
Economía Aplicada Cuantitativa II de la UNED, así como a los alumnos, con
cuyas preguntas y comentarios a lo largo de los años hemos podido ha-
PRESENTACIÓN
cernos idea de sus dificultades y de aquellos aspectos en los que debemos
intentar mejorar. No enfatizaremos nunca bastante el reconocmiento a tutores y alumnos, sobre todo en estos últimos cuatro cursos —primeros de
andadura de la asignatura de Matemáticas I —: sus comentarios, sugerencias
y aun quejas (y en algún caso alabanzas) nos han marcado las direcciones
en las que intentar mejorar. En particular, no queremos aquí dejar de hacer
mención de la labor, todos estos años, de nuestro compañero el tutor Juan
Antonio Ortega Lumbreras.
También queremos reconocer los comentarios que nos han hecho llegar
los compañeros de otras asignaturas del Grado: gracias a ellos hemos podido tener más claro lo que los alumnos necesitan de esta materia para las
asignaturas futuras, y hemos podido apreciar qué contenidos podrían ser
incluso superfluos.
Un reconocimiento muy especial merecen nuestros compañeros —y amigos— Tomás Prieto Rumeau, Mónica Buendía Capellá y Javier Sanz Pérez, a los cuales nunca dejaremos de agradecer todas sus observaciones,
comentarios, y conversaciones sobre la materia de este texto. Su ayuda ha
sido —y es— imprescindible. Muchos de los aciertos que pueda tener el libro
son suyos; los errores, hay que temer que quedarán varios, son de nuestra
exclusiva responsabilidad. A todos, como decimos, muchas gracias.
Los autores
Madrid, octubre de 2014
Capítulo I
SISTEMAS DE ECUACIONES
LINEALES
I. SISTEMAS DE ECUACIONES LINEALES
ESQUEMA
Presentación delcapítulo
1. Introducciónalossistemasdeecuaciones
lineales
1. Repasodelosmétodosescolares
2. Métodos de eliminación de Gauss y de
Gauss–Jordan
3. Introducción a las matrices . . . . . . . . 30
4. Sistemas de ecuaciones con infinitas soluciones y sistemas de ecuaciones sin
EjerciciosI.1
2. Definiciones y propiedades
48
1. Ecuaciones lineales. Sistemas de ecuaciones lineales . . . . . . . . . . . . . . 48
Ecuación lineal • Solución de una ecuación
lineal•Operaciones conecuacioneslineales
• Sistemas de ecuaciones lineales • Solución
de un sistema de ecuaciones lineales.Sistemas
equivalentes
2. Representación matricial de un sistema de
ecuaciones lineales . . . . . . . . . . . . 61
Definicióndematriz.Matricesdefinidasapar-tirde
unsistemadeecuacioneslineales•
Transformacioneselementalesporfilasdeuna
matriz•Matrizescalonada•Matrizescalonada
reducida
EjerciciosI.2
3. Discusión yresolución de unsistema de
ecuacioneslineales
1. Un método para discutir y resolver un sis Planteamientodelmétodo•Sistemasincompatibles • Sistemas compatibles determinados •
Sistemascompatiblesindeterminados
2. 3. Resultadosadicionalesimportantes
Invarianza del número de pivotes al escalonar una
matriz
• Unicidad de la forma escalonada
reducida
4. Ejemplos de discusión y resolución de sistemasdeecuacioneslineales
EjerciciosI.3
Recapitulación I
PRESENTACIÓN DEL CAPÍTULO
PRESENTACIÓN DEL CAPÍTULO
Muchos modelos del mundo de la Economía y la Empresa (entendiendo por
tales descripciones simplificadas de ciertos aspectos de la realidad económica o empresarial) son lineales. Básicamente, esto significa que las magnitudes estudiadas por el modelo están relacionadas entre sí por ecuaciones
lineales.
Las ecuaciones lineales son las más sencillas de todas. Sin duda, el lector las ha manejado en su etapa escolar. Estamos hablando de ecuaciones
como 2x + 3 = 5 (con una sola incógnita) o 3x + 2y = 1 (con dos incógnitas). Este es nuestro punto de partida: las ecuaciones lineales —con una
o más incógnitas—, o más precisamente: los sistemas de ecuaciones lineales, que no son más que listas de varias ecuaciones lineales consideradas
simultáneamente.
La primera sección de este capítulo recuerda al lector los métodos que
nos enseñaron en nuestra Educación Secundaria (o equivalente) para resolver sistemas de dos ecuaciones lineales y dos incógnitas; nos referimos a
los métodos de reducción, sustitución e igualación. Estos métodos, en particular el de reducción, se tratan de generalizar a sistemas de más ecuaciones
y más incógnitas, y ello da lugar a los métodos de eliminación (el de Gauss
y el de Gauss–Jordan). En este punto, surge de forma “natural” el concepto
de matriz como una forma de ganar operatividad y comodidad a la hora de
desarrollar tales métodos. Termina la sección con un “guiño” a sistemas de
infinitas soluciones y a sistemas sin solución, todo dentro del contexto de
los métodos de eliminación. Esta primera sección es introductoria: tan solo
pretende motivar y presentar al lector distintos elementos de los sistemas
de ecuaciones lineales.
La segunda sección, sin dar por sabido nada de la primera, detalla los
conceptos vistos en esta última: ecuación lineal, sistemas de ecuaciones lineales, solución, sistemas equivalentes, etc. En particular, incluye todo lo
necesario sobre matrices para poder ofrecer después un método práctico
sencillo de resolución de un sistema de ecuaciones lineales: básicamente,
transformaciones elementales, matriz escalonada y matriz escalonada reducida.
Finalmente, la tercera sección propiamente detalla un método práctico
para discutir y resolver un sistema de ecuaciones lineales (dado un sistema,
se distingue entre discutirlo —averiguar si admite solución o no, y en caso
afirmativo cuántas— y resolverlo —calcular efectivamente las soluciones
I. SISTEMAS DE ECUACIONES LINEALES
cuando existen—). El método es esencialmente el de eliminación de Gauss–
Jordan) (introducido en la primera sección), llevado a cabo con ayuda de
las matrices que se definen a partir de un sistema. La sección incluye un
apartado dedicado a los sistemas homogéneos, y termina con ejemplos de
discusión y resolución de sistemas en los que figuran parámetros (es decir,
variables —diferentes de las incógnitas— que pueden tomar distintos valores, según los cuales el sistema puede ser de una clase u otra, o puede tener
una solución u otra).
I.1. INTRODUCCIÓN A LOS SISTEMAS DE ECUACIONES LINEALES
I.1 INTRODUCCIÓN A LOS SISTEMAS DE
ECUACIONES LINEALES
1. Repaso de los métodos escolares
A modo de punto de partida, en este apartado recordamos los métodos
escolares para resolver sistemas de dos ecuaciones y dos incógnitas: sustitución, reducción e igualación.
1
Un sistema de ecuaciones
lineales. Repaso de
nomenclatura
El lector habrá visto, en Educación Secundaria o en un nivel educa-
tivo similar, sistemas de ecuaciones lineales sencillos. Por ejemplo:
⎧
⎨ 4x − 2y = 8
⎩ 3x + y = 1.
(1)
Y el lector recordará algunos detalles de nomenclatura relacionados con
los sistemas. Las letras x y y designan las incógnitas del sistema. Los
números que acompañan a las incógnitas (4 y −2 en la primera ecuación,
y 3 y 1 en la segunda) son los coeficientes del sistema. Los números que,
en los segundos miembros, figuran sin acompañar a las incógnitas (8 en la
primera ecuación y 1 en la segunda) son los términos independientes.
El sistema de ecuaciones lineales (1) es un sistema de dos ecuaciones
y dos incógnitas. Nótese que las incógnitas aparecen escritas en el mismo
orden en ambas ecuaciones.
2
¿Qué buscamos a partir de un sistema de ecuaciones lineales como
el (1)? Buscamos números que, escritos en lugar de las incógnitas x y y,
nos proporcionen igualdades, una por cada ecuación.
¿Qué ocurre si, por ejemplo, sustituimos x por 2 y y por 0? Que obtenemos lo siguiente:
⎧
⎨4 · 2 − 2 · 0 = 8
⎩3 · 2 +
0 = 6 ≠ 1.
Es decir, una igualdad a partir de la primera ecuación, pero no a partir de
la segunda. Como no hemos obtenido una igualdad a partir de todas y
cada una de las ecuaciones, los números 2 y 0, como sustitutos de x y y,
respectivamente, no nos sirven.
Otro ejemplo: ¿y si sustituimos x y y por 3 y 1, respectivamente? Esta
vez no llegamos a ninguna igualdad: 4 · 3 − 2 · 1 = 10 ≠ 8 y 3 · 3 + 1 = 7 ≠ 1.
Con mayor razón que antes, si cabe, tampoco nos valen estos números.
I. SISTEMAS DE ECUACIONES LINEALES
El lector nos permitirá, por el momento, que digamos que los números
buscados son x = 1 y y = −2. En efecto, si en el sistema de ecuaciones
lineales (1) sustituimos x y y por 1 y −2, respectivamente, obtenemos:
⎧
⎨ 4 · 1 − 2 · (−2) = 8
⎩3 · 1 +
(−2) = 1,
que ahora sí son igualdades, una a partir de cada ecuación.
Solución del sistema de
ecuaciones lineales
Se dice que los números x = 1 y y = −2 son una solución del sistema de
ecuaciones lineales (1). Cuando las incógnitas están dadas en un orden fijo
(aquí están escritas en el orden x, y en ambas ecuaciones), es más cómodo
y compacto llamar solución al par ordenado (1, −2). El primer elemento
del par ordenado (lo que se llama la primera componente del par) nos da
el número que debemos escribir en el lugar de la primera incógnita (que
es la incógnita x en este caso); el segundo elemento del par (su segunda
componente) nos da el número que debemos escribir en vez de la segunda
incógnita (la incógnita y).
De acuerdo con los ejemplos vistos, podemos afirmar que los pares ordenados (2, 0) y (3, 1) no son una solución del sistema de ecuaciones lineales (1).
Acontece, de hecho, que el par ordenado (1, −2) es la única solución
del sistema de ecuaciones lineales (1). Veremos inmediatamente un método
sistemático para obtenerla.
3
Hemos afirmado que el par (1, −2) es la solución del sistema de
ecuaciones lineales (1). Pero ¿cómo podemos obtenerla efectivamente? Lo
preguntamos de otra forma: ¿cómo podemos resolver el sistema?
En nuestra época colegial (o quizá del instituto) nos enseñaron tres métodos para resolver sistemas de ecuaciones lineales: sustitución, igualación y
Método de sustitución
reducción. Recordemos primero el de sustitución.
La idea es esta: se despeja en una ecuación una de las incógnitas, y se
sustituye lo obtenido en la otra ecuación, lo que nos lleva a una ecuación con
solo una incógnita. Con el sistema de ecuaciones lineales (1), esto se concreta así. En la primera ecuación, por ejemplo, despejamos la incógnita y:
¿Ayuda? Se tiene: 4x −8 = 2y,
de donde:
y=
4x − 8
4
8
= x−
2
2
2
= 2x − 4.
de 4x − 2y = 8 obtenemos: y = 2x − 4.
Sustituimos lo obtenido en la segunda ecuación; es decir, en esta ecuación
escribimos 2x − 4 en lugar de y:
de 3x + y = 1 obtenemos: 3x + (2x − 4) = 1.
I.1. INTRODUCCIÓN A LOS SISTEMAS DE ECUACIONES LINEALES
De la última ecuación obtenida resulta: 5x − 4 = 1, o bien: 5x = 5, de
donde: x = 5/5 = 1. Y ahora que ya sabemos que x es igual a 1, lo sustituimos en la expresión despejada de y:
y = 2x − 4 = 2 · 1 − 4 = −2.
Hemos obtenido la solución que adelantamos en el parágrafo anterior: x = 1
y y = −2; esto es, hemos obtenido como solución el par ordenado (1, −2).
4
Método de reducción (o
eliminación)
Resolvamos ahora el sistema de ecuaciones lineales (1) con el méto-
do de reducción (también llamado de eliminación). La idea es “operar” con
las ecuaciones del sistema de forma que se obtenga como resultado una
ecuación en la que alguna de las incógnitas haya “desaparecido” —con lo
que se “reduce” el número de incógnitas—. Por operar con las ecuaciones se
entiende multiplicarlas por algún número y sumarlas o restarlas miembro
a miembro; por desaparecer o eliminar una incógnita en una ecuación se
entiende propiamente que su coeficiente correspondiente se hace nulo.
En el sistema de ecuaciones lineales (1), podemos eliminar, por ejemplo,
la primera incógnita multiplicando la primera ecuación por −3/4 y sumando
la ecuación obtenida a la segunda ecuación del sistema. Tras la multiplicación por −3/4, la primera ecuación se transforma en:
−
3
3
· (4x − 2y) = − · 8,
4
4
o bien
− 3x +
3
y = −6
2
(nótese que se multiplican por el número ambos miembros de la ecuación).
Ahora sumamos, miembro a miembro, la ecuación obtenida y la segunda del
sistema:
+
3
y = −6
2
3x + y = 1
−3x +
5
y = −5.
2
En esta última ecuación ya no figura la primera incógnita (su coeficiente es
Hemos hablado de tres métodos escolares: sustitución,
igualación y reducción. Pero,
¿no desarrollamos el de igualación? Sí: cf. ejercicio 2.
nulo). Su solución es: y = −2. Finalmente, sustituimos este valor de y
en cualquiera de las dos ecuaciones originales para obtener el valor de la
primera incógnita; por ejemplo, en la primera: 4x − 2(−2) = 8, lo que nos
lleva a: 4x + 4 = 8, de donde x = 1. Obtenemos, por supuesto, la solución
que ya conocemos: (1, −2).
I. SISTEMAS DE ECUACIONES LINEALES
2. Métodos de eliminación de Gauss y de Gauss–
Jordan
En este apartado mostramos cómo se pueden generalizar a sistemas de tres
ecuaciones y tres incógnitas los métodos de sustitución y reducción repasados en el apartado anterior. También se introduce el concepto de sistemas
equivalentes.
5
Nuestro interés es resolver sistemas de ecuaciones lineales más
generales, de cualquier número de incógnitas y de cualquier número de
ecuaciones. ¿Habrá alguna forma de generalizar los métodos vistos en el
apartado anterior, que nos han ayudado con un sistema de dos ecuaciones
y dos incógnitas?
Veamos. Consideremos el siguiente sistema de ecuaciones lineales, de
tres ecuaciones y tres incógnitas:
⎧
⎪
x+ y +z = 0
⎪
⎪
⎨
2x + y − z = 3
⎪
⎪
⎪
⎩ −x + 2y + z = −2.
Método de sustitución
para un sistema con tres
ecuaciones y tres incógnitas
(2)
Resolvámoslo por el método de sustitución. La idea básica sigue siendo la
misma: despejamos una de las incógnitas en una de las tres ecuaciones y
sustituimos lo obtenido en las otras dos.
En la tercera ecuación, por ejemplo, podemos despejar la incógnita x:
de −x + 2y + z = −2 obtenemos: x = 2y + z + 2,
y sustituir esta igualdad en las otras dos ecuaciones:
⎧
⎧
⎨ (2y + z + 2) + y + z = 0
⎨ 3y + 2z = −2
o bien
⎩ 2(2y + z + 2) + y − z = 3,
⎩ 5y + z = −1.
Hemos llegado así a un sistema de ecuaciones lineales con una ecuación
y una incógnita menos (ahora las incógnitas son y y z), que podemos resolver directamente por sustitución como hicimos con el sistema de dos
ecuaciones y dos incógnitas del § 3 (cf. p. 20). Verbigracia, despejamos en
la primera ecuación la incógnita y:
2
2
de 3y + 2z = −2 obtenemos: y = − z − ,
3
3
y sustituimos el resultado en la segunda:
2
2
5 − z−
+ z = −1 o bien
3
3
−
7
7
z= ,
3
3
I.1. INTRODUCCIÓN A LOS SISTEMAS DE ECUACIONES LINEALES
de donde: z = −1. Ahora recordamos la igualdad en la que hemos despejado y:
2
2
2
2
y = − z − = − (−1) − = 0,
3
3
3
3
y finalmente recordamos la igualdad en la que, al principio, hemos despejado x:
x = 2y + z + 2 = 2 · 0 + (−1) + 2 = 1.
La solución que obtenemos para el sistema de ecuaciones lineales (2) es,
pues, esta: (1, 0, −1). Nótese que la escribimos en formato de terna de
números, que es lo análogo, para tres números, del par ordenado. Una terna
tiene tres componentes: primera, segunda y tercera; en la terna (1, 0, −1) de
este ejemplo se corresponden, respectivamente, con los valores en la solución de las incógnitas x, y y z.
El método de sustitución es sencillo, pero puede resultar pesado en
cuanto aumenta el número de ecuaciones e incógnitas (salvo que el sistema
esté escrito de alguna forma adecuada). Será más facil desarrollar una teoría
general de los sistemas de ecuaciones lineales a partir de otros métodos,
como el de reducción.
Método de reducción
para un sistema con tres
ecuaciones y tres incógnitas
6
Tratemos de resolver el sistema de ecuaciones lineales (2) por re-
ducción. La idea que subyace es la misma que vimos en el § 4 (cf. p. 21):
operar entre las ecuaciones con el fin de eliminar incógnitas. Pero debemos llevar un orden, con la intención de asegurarnos que obtenemos alguna ecuación con solo una incógnita; esta incógnita será fácil de despejar,
y permitirá a su vez despejar las dos restantes.
Lo que se hace es lo siguiente:
• en primer lugar, y operando con la primera ecuación, se sustituyen las
ecuaciones segunda y tercera por otras en las que no figure la incógnita x;
• en segundo lugar, y operando con la nueva segunda ecuación, se sustituye la nueva tercera ecuación por otra en la que tampoco figure la
incógnita y;
• finalmente, la última ecuación obtenida permite despejar inmediatamente la incógnita z, y una sencilla sustitución lleva a obtener el valor
de las restantes incógnitas, primero y, y finalmente x.
Veámoslo. ¿Qué significa la frase “operando con la primera ecuación, se
sustituye la segunda ecuación por otra en la que no figure la incógnita x ”?
Significa sumar a la segunda ecuación algún múltiplo de la primera de forma
que el resultado sea una ecuación sin incógnita x; esta ecuación obtenida
I. SISTEMAS DE ECUACIONES LINEALES
será la nueva segunda ecuación. Para saber cómo hacer esta operación,
debemos fijarnos en los coeficientes de la incógnita x en ambas ecuaciones:
en la primera, tal coeficiente es igual a 1; en la segunda, igual a 2. Si multiplicamos la primera ecuación por −2 y sumamos el resultado a la segunda
ecuación, eliminaremos la incógnita x. El cálculo es este:
La ecuación x + y + z = 0 multiplicada por −2 es:
+
−2x − 2y − 2z = 0.
−2x − 2y − 2z = 0
2x + y − z = 3
−y − 3z = 3.
La ecuación obtenida: −y − 3z = 3, efectivamente no presenta incógnita x.
Llevamos ahora a cabo una operación análoga con la tercera ecuación:
operando con la primera, tratamos de sustituirla por otra en la que no figure
la incógnita x. Simplemente sumando ambas ecuaciones lo conseguimos:
+
x+ y+ z=
0
−x + 2y + z = −2
3y + 2z = −2.
Hemos obtenido dos ecuaciones nuevas: −y + 3z = 3 y 3y + 2z = −2.
¿Cuál es el siguiente paso? Según lo dicho al principio, operando con la
primera de estas nuevas ecuaciones, debemos sustituir la segunda por otra
en la que no figure la incógnita y. ¿Se atreve el lector a calcularlo solo?
Nosotros lo haremos, por supuesto, pero no inmediatamente. Antes de
proceder, debemos parar un momento a analizar con detalle los cálculos
que hemos efectuado. Pasamos al parágrafo siguiente.
7
De acuerdo con los cálculos llevados a cabo en el parágrafo ante-
rior, podemos decir que hemos obtenido, a partir del sistema de ecuaciones
lineales (2), este otro sistema:
⎧
⎪
⎪
⎪x + y + z = 0
⎨
−y − 3z = 3
⎪
⎪
⎪
⎩
3y + 2z = −2.
(3)
La primera ecuación es la misma en ambos sistemas, y las dos restantes
del segundo se han obtenido a partir de las ecuaciones del primero con la
ayuda de una operación especial entre ecuaciones: sumar a una ecuación
un múltiplo de otra. Como estas manipulaciones transforman igualdades
en igualdades, toda combinación de valores de x, y, z que satisfaga las
I.1. INTRODUCCIÓN A LOS SISTEMAS DE ECUACIONES LINEALES
ecuaciones del sistema (2) también satisface las ecuaciones del sistema (3).
Es decir: toda solución del sistema (2) también es solución del sistema (3).
Por otra parte, la operación de sumar a una ecuación un múltiplo de
otra es reversible: podemos recuperar las ecuaciones del sistema (2) a partir
de las del sistema (3). Por ejemplo, la segunda ecuación del sistema (2) se
puede obtener sumando a la segunda ecuación del sistema (3) su primera
¿Puede comprobarlo el lector?
multiplicada por 2. De esta forma, también acontece que toda solución del
sistema (3) es a su vez solución del sistema (2). En consecuencia, ambos
sistemas tienen las mismas soluciones.
Sistemas equivalentes
Se dice que dos sistemas de ecuaciones lineales son equivalentes si toda
solución de uno también es solución del otro. Los sistemas de ecuaciones
lineales (2) y (3) son, pues, equivalentes.1
Además de la operación de sumar a una ecuación un múltiplo de otra,
también haremos uso más adelante de otros dos tipos de operaciones reversibles entre ecuaciones: multiplicar una ecuación por un número no nulo
(ambos miembros de la ecuación se multiplican por el número) e intercambiar dos ecuaciones. Si un sistema se puede obtener de otro mediante la
aplicación de alguna o algunas de estas operaciones entre ecuaciones, ambos sistemas resultan entonces equivalentes.
Nótese que, al considerar el sistema de ecuaciones (3) en vez del sistema (2), estamos considerando un sistema de ecuaciones equivalente —con
las mismas soluciones, por tanto— pero más simple (en tanto en todas sus
ecuaciones, salvo en la primera, no figura la incógnita x). La idea básica del
método de reducción puede entonces ser formulada así: sustituir el sistema
original por otro equivalente que sea más simple y fácil de resolver.
Método de reducción
para un sistema con tres
ecuaciones y tres incógnitas
(continuación)
8
Continuemos con la resolución por reducción del sistema de ecua-
ciones lineales (2). Hemos eliminado la incógnita x en sus dos últimas
ecuaciones, y hemos obtenido con ello el sistema equivalente (3).
Bus-
camos ahora (recordemos lo apuntado al principio del § 6) eliminar la incógnita y en la última ecuación del sistema (3), y para conseguirlo sumamos
a esta ecuación algún múltiplo de la segunda.
Es decir, sumamos a la
ecuación 3y + 2z = −2 algún múltiplo de la ecuación −y − 3z = 3 de forma
que desaparezca la incógnita y. El múltiplo adecuado se obtiene multipli1 Nótese
que la equivalencia de sistemas de ecuaciones lineales es transitiva: si un sistema
es equivalente a otro, y este último es a su vez equivalente a un tercero, el primero y el
tercero también son equivalentes.
I. SISTEMAS DE ECUACIONES LINEALES
cando por 3. Los cálculos son estos:
La ecuación −y − 3z = 3 multiplicada por 3 es:
+
−3y − 9z = 9.
−3y − 9z =
9
3y + 2z = −2
−7z =
7.
Finalmente, si sustituimos en el sistema de ecuaciones (3) su tercera
ecuación por la que acabamos de obtener, tenemos un sistema nuevo:
⎧
⎪
x+ y+ z=0
⎪
⎪
⎨
−y − 3z = 3
⎪
⎪
⎪
⎩
−7z = 7,
(4)
el cual resulta entonces equivalente al sistema (3) y por ende al (2). El sistema de ecuaciones (4) está escrito de una forma que facilita su resolución: cada ecuación tiene menos incógnitas que su precedente. De la tercera
ecuación obtenemos: z = −1, que sustituido en la segunda nos lleva a:
−y − 3 · (−1) = 3,
de donde:
y = 0;
y al escribir en la primera ecuación estos valores obtenidos de y y z resulta:
x + 0 + (−1) = 0,
de donde: x = 1.
El sistema de ecuaciones (4) tiene por solución, pues, la terna (1, 0, −1). En
virtud de ser equivalentes, esta es también la solución de los sistemas (3)
y (2). Por supuesto, vemos confirmado el resultado que obtuvimos al resolver el sistema (2) por sustitución (cf. § 5, p. 22).
Método de reducción: cuando
se reduce todavía más. . .
9
En el proceso de resolución por reducción del sistema de ecua-
ciones (2), hemos llegado al sistema (4), equivalente al original y fácil de
resolver. Pero podríamos haber seguido con el proceso de simplificación
hasta otro sistema todavía más sencillo. Lo que podemos hacer a partir del
sistema (4) es lo siguiente: en primer lugar, buscamos que el primer coeficiente no nulo de cada ecuación sea igual a 1; en segundo lugar, eliminamos
todos los restantes coeficientes de cada ecuación.
Lo primero lo conseguimos multiplicando cada ecuación por un número
(no nulo) adecuado: con la primera ecuación no hay que hacer nada; con la
segunda, multiplicamos por −1; con la tercera, multiplicamos por −1/7. El
resultado es este sistema:
⎧
⎪
x+ y+ z= 0
⎪
⎪
⎨
y + 3z = −3
⎪
⎪
⎪
⎩
z = −1,
(5)
I.1. INTRODUCCIÓN A LOS SISTEMAS DE ECUACIONES LINEALES
que efectivamente tiene igual a 1 el primer coeficiente no nulo de cada
ecuación.
Para el segundo paso, en el sistema (5) eliminamos la incógnita z de
las dos primeras ecuaciones con la ayuda de la tercera, y eliminamos después la incógnita y de la primera ecuación con la ayuda de la segunda.
Lo conseguimos haciendo uso de la ya conocida operación de sumar a una
ecuación un múltiplo adecuado de otra. Por ejemplo, sumando a la segunda
ecuación la tercera multiplicada previamente por −3, obtenemos:
+
y + 3z = −3
−3z =
3
=
0,
y
lo que nos da una nueva segunda ecuación sin la incógnita z. De forma
similar, sumando a la primera ecuación la tercera multiplicada por −1 eliminamos la incógnita z también en la primera ecuación: x + y = 1. Y,
finalmente, una última operación entre las nuevas ecuaciones primera y se¡Vea el lector cómo!
gunda (es decir, entre x + y = 1 y y = 0) nos elimina la incógnita y de la
primera. Llegamos así al siguiente sistema de ecuaciones:
⎧
⎪
x
⎪
⎪
⎨
⎪
⎪
⎪
⎩
y
=
1
=
0
(6)
z = −1.
Para obtener el sistema (6), además de la operación de sumar a una
ecuación un múltiplo de otra, hemos hecho uso de otra operación con ecuaciones: multiplicar una ecuación por un número no nulo.
Ya sabemos
(cf. § 7, p. 24) que estas operaciones entre ecuaciones nos transforman un
sistema de ecuaciones en otro equivalente. El sistema de ecuaciones (6) es,
pues, equivalente al (4), y por ende al sistema original, el (2). Y la solución
del sistema (6) salta a la vista: por supuesto, es la terna (1, 0, −1).
10
En un sistema de ecuaciones, además de sumar a una ecuación un
múltiplo de otra, o de multiplicar una ecuación por un número no nulo, hay
otro tipo de operación entre ecuaciones que permite obtener sistemas de
ecuaciones equivalentes. La hemos citado —en el § 7 (cf. p. 24)—, pero no
la hemos utilizado todavía. Se trata del intercambio de ecuaciones. Veamos
un ejemplo.
Resolvamos por reducción o eliminación el siguiente sistema de tres
I. SISTEMAS DE ECUACIONES LINEALES
ecuaciones y tres incógnitas:
⎧
⎪
⎪
⎪
⎨
x2 − x3 = 2
x1 + x2 + x3 = 2
⎪
⎪
⎪
⎩ x − x − x = 0.
1
2
3
(7)
(Nótese que las incógnitas están escritas ahora como x1 , x2 , x3 , en vez de x,
y, z; esta notación que ahora estrenamos es bastante habitual, sobre todo
cuando se tratan los sistemas más generales.) Como antes, a partir de este
sistema intentamos escribir otro equivalente en el que cada ecuación tenga
menos incógnitas que su precedente.
Intercambio de ecuaciones
Empezamos precisamente con un intercambio de ecuaciones, para que
en la primera ecuación figure la incógnita x1 . Tras permutar entre sí las
ecuaciones primera y segunda, obtenemos:
⎧
⎪
⎪
⎪ x1 + x2 + x3 = 2
⎨
x2 − x3 = 2
⎪
⎪
⎪
⎩ x − x − x = 0.
1
2
3
En este sistema, la segunda ecuación ya no tiene la incógnita x1 ; eliminemos esta incógnita también de la tercera ecuación, lo cual conseguimos
sumando a esta ecuación la primera multiplicada por −1 (o restando a la
x1 − x2 − x3 =
+
0
−x1 − x2 − x3 = −2
−2x2 − 2x3 = −2
tercera ecuación la primera, si queremos):
⎧
⎪
x + x2 + x3 = 2
⎪
⎪
⎨ 1
x2 − x3 = 2
⎪
⎪
⎪
⎩
−2x2 − 2x3 = −2.
(Nótese que esta operación solo afecta a la tercera ecuación: las restantes
no se alteran; en particular, la primera ecuación se multiplica por −1 solo a
efectos de la operación: no permanece multiplicada por −1 en el sistema.)
Continuamos con la eliminación de la incógnita x2 en la tercera ecuación; lo
−2x2 − 2x3 = −2
+
2x2 − 2x3 =
4
−4x3 =
2
logramos sumando a esta ecuación la segunda multiplicada por 2:
⎧
⎪
x + x2 + x3 = 2
⎪
⎪
⎨ 1
x2 − x3 = 2
⎪
⎪
⎪
⎩
−4x = 2.
(8)
3
Y este último sistema es como el (4), en el sentido de que cada una de las
ecuaciones tiene menos incógnitas que su ecuación precedente.
Así escrito, ya sabemos que el sistema de ecuaciones (8) resulta fácil de
resolver. De la tercera ecuación, obtenemos que x3 = −1/2, que sustituido
I.1. INTRODUCCIÓN A LOS SISTEMAS DE ECUACIONES LINEALES
en la segunda nos lleva a: x2 − (−1/2) = 2, de donde: x2 = 3/2; sustituido
todo a su vez en la primera ecuación nos permite escribir:
x1 +
1
3
− = 2,
2
2
de lo que x1 = 1. La solución del sistema de ecuaciones (8) es entonces la
terna (1, 3/2, −1/2). Y esta es también la solución del sistema original, el (7),
pues las operaciones que nos han permitido obtener un sistema a partir del
otro, incluida la del intercambio de ecuaciones, transforman un sistema de
ecuaciones en otro equivalente.
Continuación del ejemplo del
parágrafo anterior. . .
11
¿Continuamos con la reducción del sistema (8), de manera análoga
a como procedimos en el § 9 (cf. p. 26)?
En un primer paso, debemos conseguir que el primer coeficiente no nulo
de cada ecuación sea igual a 1; para ello solo tenemos que multiplicar la
última ecuación por −1/4:
⎧
⎪
2
⎪
⎪ x1 + x2 + x3 =
⎨
2
x2 − x3 =
⎪
⎪
⎪
⎩
x3 = −1/2.
A continuación, eliminamos la incógnita x3 de las ecuaciones segunda y
primera, en ambos casos con la ayuda de la tercera ecuación. Lo primero
lo coseguimos sumando directamente a la segunda ecuación la tercera; lo
segundo lo logramos sumando a la primera ecuación la tercera multiplicada
por −1. El resultado es:
⎧
⎪
x + x2
⎪
⎪
⎨ 1
x2
⎪
⎪
⎪
⎩
=
5/2
=
3/2
x3 = −1/2.
Finalmente, eliminamos la incógnita x2 de la primera ecuación con ayuda
de la segunda; restamos esta a aquella:
⎧
⎪
=
1
⎪
⎪ x1
⎨
= 3/2
x2
⎪
⎪
⎪
⎩
x3 = −1/2.
(9)
Vemos confirmada la solución ya conocida: (1, 3/2, −1/2).
Algo de nomenclatura:
12
El método de reducción que hemos desarrollado para el sistema de
ecuaciones lineales (2) en los § 6, 7 y 8, o para el sistema de ecuaciones
I. SISTEMAS DE ECUACIONES LINEALES
• Método de eliminación
de GAUSS
lineales (7) en el § 10, se suele denominar método de eliminación de GAUSS.
Requiere, como hemos visto, transformar el sistema de ecuaciones que nos
dan en otro equivalente con la característica de que cada ecuación tiene
menos incógnitas que su precedente; luego, este nuevo sistema se resuelve
por sustitución hacia atrás: primero se calcula el valor de la última incógnita
a partir de la última ecuación, después el de la penúltima incógnita con la
penúltima ecuación, y así sucesivamente (recordemos que se calculaban en
el orden z, y y x, o bien en el orden x3 , x2 y x1 ).
Por otra parte, el método de reducción que “iba más allá”, que lleva el sistema de ecuaciones (2) al (6) o el sistema de ecuaciones (7) al (9) (cf. § 9 y 11,
respectivamente) es habitualmente conocido como método de eliminación
• Método de eliminación
de GAUSS–JORDAN
de GAUSS–JORDAN. Empieza como el método de Gauss: llevando el sistema
de ecuaciones dado a uno en el que cada ecuación tiene menos incógnitas que su precedente; pero, en vez de resolver este sistema, se continúa
manipulando: se busca que el primer coeficiente no nulo de cada ecuación
sea igual a 1, y también que sean nulos todos los coeficientes restantes. El
sistema así obtenido está tan simplificado que su solución salta a la vista.
3. Introducción a las matrices
En este apartado, presentamos las matrices, las cuales nos permitirán escribir de forma cómoda y sintética los sistemas de ecuaciones lineales y
nos facilitarán el desarrollo de su resolución. Nos limitamos a los conceptos sobre ellas de que haremos uso para sistemas (básicamente, matriz escalonada, matriz escalonada reducida y transformación elemental). En el
Capítulo II, estudiaremos las matrices de nuevo con mayor profundidad y
detalle.
13
Como hemos visto, los métodos de eliminación con los que esta-
mos trabajando requieren llevar a cabo tres tipos de operaciones entre las
ecuaciones de un sistema —intercambiar dos ecuaciones, multiplicar una
ecuación por un número no nulo, o sumar a una ecuación un múltiplo de
otra—, pero estas operaciones entre ecuaciones suponen en definitiva operaciones entre los coeficientes y los términos independientes del sistema.
Cuando transformamos un sistema de ecuaciones en otro equivalente (en
virtud de alguna de estas operaciones entre ecuaciones), ¿no sería entonces
más cómodo escribir, de alguna forma, solamente los coeficientes y los términos independientes, evitando escribir las incógnitas mismas e incluso los
signos de igualdad? Sí. Veamos cómo.
I.1. INTRODUCCIÓN A LOS SISTEMAS DE ECUACIONES LINEALES
Podemos ganar operatividad y comodidad si simplificamos la representación de un sistema escribiendo sus coeficientes y términos independientes
en una suerte de tablas rectangulares. Por ejemplo, para el sistema de ecuaRecordemos el sistema (2):
⎧
⎪
x+ y +z =0
⎪
⎪
⎨
2x + y − z = 3
⎪
⎪
⎪
⎩ −x + 2y + z = −2.
ciones lineales (2), podemos escribir sus coeficientes tabulados, así:
⎛
⎞
1 1
1
⎜
⎟
⎝ 2 1 −1 ⎠ .
−1 2
1
(10)
(Esta tabla es lo más parecido a lo que queda si, en el sistema (2), nos
quedamos solo con los coeficientes, “borrando” las incógnitas, los signos
de igualdad y los términos independientes —y añadimos unos confortables
paréntesis—.)
Una tabla como la escrita en (10) es un ejemplo de un objeto matemático
Matriz
denominado matriz. Los números que se escriben en una matriz se denominan términos de la matriz. Podemos notar, por ejemplo, que los términos de
la primera fila de la matriz (la de arriba), leídos de izquierda a derecha, son
precisamente los coeficientes que acompañan a las incógnitas x, y y z en la
primera ecuación del sistema: 1, 1 y 1, respectivamente. Asimismo, los términos de la primera columna (la de la izquierda), leídos de arriba abajo, son
los coeficientes que acompañan a la primera incógnita en las ecuaciones primera, segunda y tercera: 1, 2 y −1, respectivamente. Cada fila de la matriz
se corresponde con una ecuación, y cada columna con una incógnita.
14
La matriz que hemos escrito en (10) es la llamada matriz de coefi-
Matriz de coeficientes (o
matriz asociada)
cientes (o matriz asociada) del sistema de ecuaciones lineales (2). Pero la
Matriz ampliada
de ecuaciones. Estos se incorporan en la llamada matriz ampliada del sis-
matriz de coeficientes no incluye los términos independientes del sistema
tema, resultante de adjuntar a la matriz de coeficientes una columna más
(a la derecha) con los términos independientes. La matriz ampliada del sistema de ecuaciones lineales (2) es:
⎛
1 1
⎜
⎝ 2 1
−1 2
1
−1
1
⎞
0
⎟
3⎠.
−2
Podría pensarse que no vale la pena tener registro de la matriz de coeficientes de un sistema y que sería suficiente considerar exclusivamente la
matriz ampliada, dado que esta contiene toda la información que sobre el
sistema proporciona aquella. Sin embargo, como veremos, la matriz de coeficientes por sí misma juega un papel muy importante en el estudio de los
sistemas de ecuaciones lineales.
I. SISTEMAS DE ECUACIONES LINEALES
15
Las matrices se denotan habitualmente con letras mayúsculas. La
matriz de coeficientes de un sistema se suele designar con la letra A (si no
Notación para la matriz de
coeficientes y para la matriz
ampliada
está empleada en otra cosa), y la ampliada se puede denotar con la misma
letra que la de coeficientes pero coronada por un acento circunflejo: A.
Asimismo, resulta útil escribir en la matriz ampliada de un sistema una
raya vertical que separe la columna de los términos independientes de las
demás, con el fin de enfatizarla. Por ejemplo, para el sistema de ecuaciones
lineales (2) podemos escribir:
⎛
1
⎜
A=⎝ 2
−1
1
1
2
⎞
1
⎟
−1 ⎠
1
⎛
y
1
=⎜
A
⎝ 2
−1
1
1
2
1
−1
1
⎞
0
⎟
3⎠.
−2
Otro ejemplo. Para el sistema de ecuaciones (7), su matriz de coeficientes
Recordemos el
⎧
⎪
x2
⎪
⎪
⎨
x1 + x2
⎪
⎪
⎪
⎩x −x
1
2
sistema (7):
y su matriz ampliada son, respectivamente, estas:
⎛
− x3 = 2
0
⎜
D = ⎝1
1
+ x3 = 2
− x3 = 0.
1
1
−1
⎞
−1
⎟
1⎠
−1
⎛
0
=⎜
D
⎝1
1
y
1
1
−1
−1
1
−1
⎞
2
⎟
2⎠.
0
Nótese que hemos elegido la letra D para denotar la matriz de coeficientes,
lo que hace que designemos la ampliada por D.
16
Acabamos de ver cómo representar un sistema de ecuaciones linea-
les con la ayuda de las matrices. En particular, la matriz ampliada de un sistema recoge tanto sus coeficientes como los términos independientes. Pero,
¿qué transformación se ejecuta en la matriz ampliada de un sistema cuando
en este efectuamos una operación entre ecuaciones de las que hemos visto?
Empecemos viendo el efecto de un intercambio de ecuaciones. En el § 10
(cf. p. 27) trabajamos con el sistema de ecuaciones lineales (7), y lo primero
que hacíamos con él era intercambiar sus ecuaciones primera y segunda.
El sistema (7) y su transformado con esta permutación de ecuaciones son,
respectivamente, estos dos:
⎧
⎪
x2 − x3 = 2
⎪
⎪
⎨
x1 + x2 + x3 = 2
⎪
⎪
⎪
⎩x − x − x = 0
1
2
3
y
⎧
⎪
x + x2 + x3 = 2
⎪
⎪
⎨ 1
x2 − x3 = 2
⎪
⎪
⎪
⎩ x − x − x = 0.
1
2
3
Y sus matrices ampliadas correspondientes son, respectivamente, estas:
⎛
0
⎜
⎝1
1
1
1
−1
−1
1
−1
⎞
2
⎟
2⎠
0
⎛
y
1
⎜
⎝0
1
1
1
−1
1
−1
−1
⎞
2
⎟
2⎠.
0
I.1. INTRODUCCIÓN A LOS SISTEMAS DE ECUACIONES LINEALES
Intercambiar dos filas
¿Qué ha ocurrido en las matrices? Simplemente se han permutado sus filas
primera y segunda.
El intercambio de ecuaciones en un sistema toma la forma, pues, de un
intercambio de filas en la matriz ampliada (y por supuesto también en la de
coeficientes, si solo nos fijamos en ella). Aunque veremos estas transformaciones de matrices con detalle más adelante, es instructivo ahora introducir
su notación. La transformación de “permutar entre sí las filas primera y
segunda” se denota así: F1 ↔ F2 , de forma que se escribe:
⎛
⎞
⎞
⎛
1
1
1 2
0
1 −1 2
⎟ F1 ↔F2 ⎜
⎟
⎜
1 −1 2 ⎠ .
1
1 2 ⎠ →
⎝0
⎝1
1 −1 −1 0
1 −1 −1 0
Nótese que esta transformación solo afecta a las dos filas que se permutan —la primera y la segunda—; las restantes filas —solo la tercera en este
caso— permanecen inalteradas tras la transformación.
17
Cuando en un sistema de ecuaciones lineales se multiplica una ecua-
ción por un número no nulo, ¿qué acontece en su matriz ampliada? El lector
lo está adivinando: se multiplican por tal número todos los términos de la
fila correspondiente.
Por ejemplo, en el § 11 (cf. p. 29) escribíamos el sistema de ecuaciones
resultante de multiplicar por −1/4 la tercera ecuación del sistema (8); ambos
sistemas, el (8) y el transformado por esta operación, son respectivamente:
⎧
⎧
⎪
⎪
x + x2 + x3 = 2
⎪
⎪
⎪ x1 + x2 + x3 = 2
⎪
⎨
⎨ 1
x2 − x3 = 2 y
x2 − x3 = 2
⎪
⎪
⎪
⎪
⎪
⎪
⎩
⎩
−4x = 2
x = −1/2,
3
de matrices ampliadas:
⎛
1 1
1
⎜
⎝ 0 1 −1
0 0 −4
Multiplicar una fila por un
número (no nulo)
3
⎞
2
⎟
2⎠
2
⎛
y
1
⎜
⎝0
0
1
1
0
1
−1
1
⎞
2
⎟
2 ⎠,
−1/2
donde apreciamos que, efectivamente, todos los términos de la tercera fila
se han multiplicado por −1/4, o dicho forma más sintética: la tercera fila se
ha multiplicado por −1/4.
La transformación de “multiplicar la tercera fila por el número −1/4”
(esto es, multiplicar cada uno de los términos de la tercera fila por −1/4) se
designa así: F3 ← (−1/4)F3, y se escribe:
⎛
⎞
⎛
1
1 1
1 2
⎟ F3 ←(−1/4)F3 ⎜
⎜
⎝ 0
⎝ 0 1 −1 2 ⎠ →
0
0 0 −4 2
1
1
0
1
−1
1
⎞
2
⎟
2 ⎠.
−1/2
I. SISTEMAS DE ECUACIONES LINEALES
Debe notarse que esta transformación solo afecta a una fila de la matriz —la
tercera en este caso—; las restantes no se ven alteradas.
18
Y si en un sistema de ecuaciones lineales sumamos a una ecuación
un múltiplo de otra, ¿qué transformación se produce en la matriz ampliada?
Hemos aplicado varias veces esta operación entre ecuaciones en las páginas precedentes. Por ejemplo, recordemos los sistemas de ecuaciones (3)
y (4); respectivamente son:
⎧
⎪
⎪
⎪x + y + z = 0
⎨
−y − 3z = 3
⎪
⎪
⎪
⎩
3y + 2z = −2
y
⎧
⎪
⎪
⎪x + y + z = 0
⎨
−y − 3z = 3
⎪
⎪
⎪
⎩
−7z = 7,
y en el § 8 (cf. p. 25) obtuvimos el segundo del primero sumando a la tercera ecuación la segunda multiplicada por 3. Las matrices ampliadas son,
respectivamente, estas:
⎛
1
1
1
⎜
⎝ 0 −1 −3
0
3
2
⎞
0
⎟
3⎠
−2
⎛
y
1
⎜
⎝0
0
1
−1
0
1
−3
−7
⎞
0
⎟
3⎠.
7
Podemos ver que las filas primera y segunda no se han alterado, y que a
cada término de la tercera fila se le ha sumado el término correspondiente
La segunda fila multiplicada
por 3 es:
0
−3
−9
de la segunda previamente multiplicado por 3:
+
9.
Sumar a una fila un múltiplo
de otra
0
3
2
−2
0
−3
−9
9
0
0
−7
7.
Más sintéticamente: a la tercera fila se le ha sumado la segunda multiplicada
por 3 (dejando las otras filas, y en particular la segunda, inalteradas).
A la operación (en sistemas) de sumar a una ecuación un múltiplo de
otra le corresponde entonces la transformación (en matrices) de sumar a
una fila un múltiplo de otra. La transformación de este ejemplo: “sumar a
la tercera fila la segunda multiplicada por 3”, se denota así: F3 ← F3 + 3F2 , y
se escribe:
⎛
1
⎜
⎝0
0
1
−1
3
1
−3
2
⎛
⎞
0
1
⎟ F3 ←F3 +3F2 ⎜
3 ⎠ →
⎝0
−2
0
1
−1
0
1
−3
−7
⎞
0
⎟
3⎠.
7
Debemos enfatizar que esta transformación en la matriz solo afecta a una
fila —la tercera en este caso— y las otras filas quedan inalteradas; en particular, la fila que se multiplica por el número para hacer la transformación
—la segunda en este ejemplo— permanece intacta.
I.1. INTRODUCCIÓN A LOS SISTEMAS DE ECUACIONES LINEALES
19
Acabamos de ver tres tipos de transformaciones que se ejecutan en
matrices:
• intecambiar dos filas;
• multiplicar una fila por un número no nulo;
• sumar a una fila un múltiplo de otra.
Transformaciones
elementales por filas
Las llamaremos transformaciones elementales por filas de una matriz, y
diremos que son del tipo i, ii y iii, respectivamente.
Más adelante estudiaremos con mucho detalle las transformaciones elementales de matrices. (Por cierto, también se definen transformaciones elementales por columnas, de la forma que el lector puede sospechar. . . ) Pero
es importante observar ahora una caracterísitica de estas transformaciones:
son reversibles —es de esperar, pues al fin y al cabo las operaciones entre
ecuaciones que las motivan son reversibles (cf. § 7, p. 24)—. La palabra
reversible se utiliza aquí en el sentido siguiente: si una matriz sufre una
transformación elemental, es posible aplicar a la nueva matriz otra transformación elemental que nos devuelva a la matriz original. Por ejemplo,
si aplicamos a una matriz la transformación F1 ↔ F3 (intercambiar las filas primera y tercera), una nueva aplicación de la misma transformación
nos devuelve a la primera matriz; si aplicamos la transformación F2 ← 2F2
(multiplicar la segunda fila por 2), es claro que recuperamos la matriz ori-
¡Anímese el lector a comprobar estas afirmaciones con un
ejemplo!
ginal con la transformación F2 ← (1/2)F2; y, finalmente, si a una matriz
le aplicamos la transformación F2 ← F2 + 3F1 (sumar a la segunda fila la
primera multiplicada por 3), recuperamos la matriz de partida con la transformación F2 ← F2 + (−3)F1 (sumar a la segunda fila la primera mutiplicada
por −3).
Resolución de un sistema de
ecuaciones lineales con ayuda
de matrices: idea básica
20
Unas páginas más atrás hemos estudiado que la idea básica para re-
solver un sistema de ecuaciones lineales es la de transformarlo, con ayuda
de las operaciones entre ecuaciones que hemos visto, en otro sistema equivalente más sencillo de resolver. De acuerdo con todo lo afirmado en los
últimos parágrafos, podemos llevar a cabo tal tarea con la ayuda de las
matrices. Se trataría, entonces, de escribir la matriz ampliada del sistema
que nos dan; de transformar esta matriz, mediante transformaciones elementales, en otra “más sencilla”; y, finalmente, de resolver el sistema de
ecuaciones representado por esta matriz sencilla. Este último sistema de
ecuaciones resultará equivalente al original, y por tanto su solución será la
que buscamos.
¿Cómo debe ser esa matriz “más sencilla” a la que debemos llegar desde
la matriz ampliada del sistema original? Respondemos con otra pregunta:
I. SISTEMAS DE ECUACIONES LINEALES
¿de qué manera buscábamos un “sistema equivalente más sencillo de resolver”? Respuesta: con el método de eliminación, en dos variantes: Gauss
y Gauss–Jordan. ¿Cómo es el sistema al que se llega con estos métodos?
En el caso de la eliminación de Gauss, se trata de un sistema con la característica de que cada ecuación tiene menos incógnitas que su precedente; en
el caso de la eliminación de Gauss–Jordan, además de esta propiedad se
cumple esta otra: los primeros coeficientes no nulos de cada ecuación son
iguales a 1, y son nulos los restantes coeficientes. Analicemos, entonces,
cómo son las matrices ampliadas que representan los sistemas de ecuaciones con estas características.
21
Veamos cómo es la matriz ampliada de un sistema de ecuaciones
lineales que se ha obtenido por aplicación del método de eliminación de
Gauss (y que por tanto cumple que cada ecuación tiene menos incógnitas
que su precedente). Son un ejemplo de sistema de este tipo los sistemas (4)
y (8), obtenidos a partir de los sistemas (2) y (7), respectivamente. Sus matrices ampliadas son, respectivamente, estas:
⎛
1
⎜
⎝0
0
1
−1
0
1
−3
−7
⎞
0
⎟
3⎠
7
⎛
1
⎜
⎝0
0
y
1
1
0
1
−1
−4
⎞
2
⎟
2⎠.
2
Se observa que cada fila comienza con más ceros que la precedente. Queremos decir: cada fila tiene cierta cantidad de ceros iniciales —ninguno la
primera, uno la segunda, dos la tercera—, y cualquier fila —excepto la primera, por supuesto— tiene más ceros iniciales que su fila anterior. Ambas
Matriz escalonada
matrices son un ejemplo de lo que se denomina matriz escalonada.
En una matriz escalonada, el primer término no nulo de cada fila recibe
el nombre de pivote. Las dos matrices del párrafo anterior, ambas escalonadas, tienen entonces tres pivotes cada una; en la primera, tales son: 1, −1
y −7; en la segunda: 1, 1 y −4.
22
Los sistemas de ecuaciones lineales (6) y (9) fueron obtenidos a par-
tir de los sistemas (2) y (7), respectivamente, por el método de eliminación
de Gauss–Jordan: cada ecuación tiene menos incógnitas que la anterior,
el primer coeficiente no nulo de cada ecuación es igual a 1 y los restantes
coeficientes son nulos. Las matrices ampliadas respectivas son estas:
⎛
1
⎜
⎝0
0
0
1
0
0
0
1
⎞
1
⎟
0⎠
−1
⎛
y
1
⎜
⎝0
0
0
1
0
0
0
1
⎞
1
⎟
3/2 ⎠ .
−1/2
I.1. INTRODUCCIÓN A LOS SISTEMAS DE ECUACIONES LINEALES
Un primer vistazo nos dice que estas dos matrices son escalonadas: cada
fila, excepto la primera, tiene más ceros iniciales que la precedente. Pero
tienen dos propiedades más: los pivotes —es decir, los primeros términos
no nulos de cada fila— son iguales a 1, y los términos restantes en la columna de cada pivote son nulos. Una matriz escalonada con estas propieMatriz escalonada reducida
dades se dice que es una matriz escalonada reducida.
23
Si en las matrices escalonadas reducidas del parágrafo anterior nos
olvidamos por un momento de la última columna (dicho de otra forma: si
nos fijamos en la matriz de coeficientes correspondiente), nos queda una
misma matriz:
Matriz identidad
⎛
1
⎜
⎝0
0
0
1
0
⎞
0
⎟
0⎠.
1
De esta matriz se dice que es una matriz identidad (esta es la de orden 3).
Cuando la matriz de coeficientes de un sistema es una matriz identidad,
el sistema tiene solución única, y esta solución única puede leerse directamente en la columna de términos independientes de la matriz ampliada
del sistema. La solución de los sistemas (6) y (9), y por ende la de los sistemas (2) y (7), puede leerse, entonces, directamente en la última columna
de las matrices ampliadas del parágrafo anterior: (1, 0, −1) y (1, 3/2, −1/2),
respectivamente.
Recapitulación de la
resolución con matrices del
sistema (2)
Recordamos el sistema (2):
⎧
⎪
x+ y +z =0
⎪
⎪
⎨
2x + y − z = 3
⎪
⎪
⎪
⎩ −x + 2y + z = −2.
24
Recapitulemos cómo quedaría la resolución completa del sistema
de ecuaciones lineales (2) con la ayuda de las matrices. La matriz ampliada
de este sistema es:
⎛
1
=⎜
A
⎝ 2
−1
1
1
2
1
−1
1
⎞
0
⎟
3⎠.
−2
De acuerdo con el método de eliminación de Gauss, tratamos de obtener
y mediante la aplicación de transformaciones elea partir de la matriz A,
mentales (por filas) sucesivas, una matriz escalonada (también se habla de
o de escalonar la matriz A).
obtener una forma escalonada de la matriz A,
En primer lugar, hacemos ceros en la primera columna, debajo de su
La matriz obtenida es la matriz ampliada del sistema (3):
⎧
⎪
⎪
⎪x + y + z = 0
⎨
−y − 3z = 3
⎪
⎪
⎪
⎩
3y + 2z = −2.
primer término:
⎛
1
=⎜
A
⎝ 2
−1
1
1
2
1
−1
1
⎛
⎞
F2 ←F2 −2F1
0
1
⎟ F3 ←F3 +F1 ⎜
3 ⎠ →
⎝ 0
−2
0
1
−1
3
1
−3
2
⎞
0
⎟
3⎠.
−2
Acabamos de aplicar dos transformaciones elementales sucesivas a la ma F2 ← F2 − 2F1 y F3 ← F3 + F1 . En general, no se obtiene lo mismo
triz A:
I. SISTEMAS DE ECUACIONES LINEALES
aplicando dos transformaciones elementales en un orden que en el otro,
pero para estas dos transformaciones concretas sí que se obtiene lo mismo.
Esto es así porque las dos transformaciones son de tipo iii, afectan a filas
distintas —a la segunda y a la tercera, respectivamente— y ambas suponen
sumar un múltiplo de la misma fila —la primera—. Cuando estudiemos más
adelante con detalle las transformaciones elementales, veremos confirmado
que las transformaciones de estas características efectivamente permiten
un cambio de orden entre ellas.
En segundo lugar, hacemos un cero en la segunda columna, debajo de
su segundo término; ello nos lleva ya a una matriz escalonada, en la que
destacamos los pivotes (recordemos: los primeros términos no nulos de
La matriz escalonada obtenida
es la ampliada del sistema (4):
⎧
⎪
x+ y+ z=0
⎪
⎪
⎨
−y − 3z = 3
⎪
⎪
⎪
⎩
−7z = 7.
cada fila):
⎛
1
⎜
⎝0
0
1
−1
3
1
−3
2
⎛
⎞
0
1
⎟ F3 ←F3 +3F2 ⎜
3 ⎠ →
⎝0
0
−2
1
−1
0
1
−3
−7
⎞
0
⎟
3⎠.
7
(añadimos una “prima” a la
La matriz escalonada obtenida se denota por A
letra que designa la matriz original). Ahora, podemos resolver el sistema de
; tal sistema
ecuaciones lineales que tiene como matriz ampliada la matriz A
es el sistema (4), que fue resuelto en el § 8 (cf. p. 25). Con ello terminaría la
aplicación del método de eliminación de Gauss en este ejemplo.
Pero también podemos continuar con el otro método de eliminación,
el de Gauss–Jordan, que requiere seguir aplicando transformaciones ele a fin de obtener una matriz escalonada
mentales sucesivas a la matriz A
reducida (o como también se dice: obtener la forma escalonada reducida de
).2 ¿Nos ponemos con ello?
la matriz A
En primer lugar, transformamos los pivotes en 1:
⎛
1
= ⎜
A
⎝0
0
1
−1
0
1
−3
−7
⎛
⎞ F ←(−1)F
2
2
0
1
F
←(−1/7)F
⎟ 3
3 ⎜
3 ⎠ →
⎝0
0
7
1
1
0
1
3
1
⎞
0
⎟
−3 ⎠ ;
−1
en segundo lugar, hacemos ceros en la tercera columna, en todos los térmi2 Nótese
, y que unos
que hablamos de obtener la forma escalonada reducida de la matriz A
párrafos antes —en este mismo parágrafo— hablamos de obtener una forma escalonada de
Dada una matriz (con algún término no nulo), en general hay infinitas matrices
la matriz A.
escalonadas que se pueden obtener a partir de ella mediante la aplicación de transformaciones elementales sucesivas, pero solo hay una que sea escalonada reducida. Esta unicidad de
la forma escalonada reducida de una matriz se demostrará más adelante (cf. § 100, p. 102).
I.1. INTRODUCCIÓN A LOS SISTEMAS DE ECUACIONES LINEALES
nos menos el pivote:
⎛
1
⎜
⎝0
0
1
1
0
⎛
⎞
F2 ←F2 −3F3
0
1
⎟ F1 ←F1 −F3 ⎜
−3 ⎠ →
⎝ 0
0
−1
1
3
1
1
1
0
⎞
1
⎟
0⎠;
−1
0
0
1
finalmente, hacemos ceros en todos los términos de la segunda columna
salvo el pivote (para ello solo queda un término no nulo):
⎛
1
⎜
⎝0
0
1
1
0
⎛
⎞
1
1
⎟ F1 ←F1 −F2 ⎜
0 ⎠ →
⎝0
0
−1
0
0
1
0
1
0
0
0
1
⎞
1
⎟
0⎠.
−1
(añadiEsta última matriz ya es escalonada reducida; la denotamos por A
endo una “prima” más a la letra). Ya vimos esta matriz (aunque entonces no
la designamos con ninguna letra) en los § 22 y 23 (cf. p. 36), donde comentamos que en su última columna podemos leer directamente la solución única
del sistema de ecuaciones lineales (2): (1, 0, −1).
Recapitulación de la
resolución con matrices del
sistema (7)
Recordamos el sistema (7):
⎧
⎪
x2 − x3 = 2
⎪
⎪
⎨
x1 + x2 + x3 = 2
⎪
⎪
⎪
⎩ x − x − x = 0.
1
2
3
25
Recapitulemos ahora la resolución completa del sistema de ecua-
ciones lineales (7) con la ayuda de las matrices.
La matriz ampliada del sistema es:
⎛
0
=⎜
D
⎝1
1
Escalonamos esta matriz:
⎛
0
1 −1
=⎜
1
1
D
⎝1
1 −1 −1
1
1
−1
−1
1
−1
⎞
2
⎟
2⎠.
0
⎛
⎞
2
1
⎜
⎟ F1 ↔F2
2 ⎠ →
⎝0
0
1
⎛
1
⎜
→
⎝0
0
F3 ←F3 −F1
es
Esta matriz escalonada D
la matriz ampliada del sistema (8):
⎧
⎪
⎪
⎪ x1 + x2 + x3 = 2
⎨
x2 − x3 = 2
⎪
⎪
⎪
⎩
−4x = 2.
3
⎛
1
⎜
→
⎝0
0
F3 ←F3 +2F2
1
1
−1
1
−1
−1
⎞
2
⎟
2⎠
0
1
1
−2
1
−1
−2
⎞
2
⎟
2⎠
−2
1
1
0
1
−1
−4
⎞
2
⎟
.
2⎠ = D
2
—el sisEl sistema de ecuaciones cuya matriz ampliada es la matriz D
tema (8)— se resolvió en el § 10 (cf. p. 27); esta resolución daría por terminada la eliminación de Gauss del sistema de ecuaciones lineales (7).
I. SISTEMAS DE ECUACIONES LINEALES
Si queremos resolver el sistema de ecuaciones (7) por eliminación de
:
Gauss–Jordan, buscamos la forma escalonada reducida de la matriz D
⎛
1
= ⎜
D
⎝0
0
1
1
0
1
−1
−4
⎛
⎞
2
1
⎟ F3 ←(−1/4)F3 ⎜
2 ⎠ →
⎝ 0
0
2
⎛
1
⎜
→
⎝ 0
0
F2 ←F2 +F3
F1 ←F1 −F3
⎛
1
⎜
→
⎝ 0
0
F1 ←F1 −F2
⎞
2
⎟
2 ⎠
−1/2
1
1
0
1
−1
1
1
1
0
0
0
1
⎞
5/2
⎟
3/2 ⎠
−1/2
0
1
0
0
0
1
⎞
1
⎟
.
3/2 ⎠ = D
−1/2
nos lleva a concluir que
La lectura de la matriz escalonada reducida D
el sistema de ecuaciones lineales (7) tiene solución única y que esta es la
terna (1, 3/2, −1/2) (cf. § 23, p. 37).
4. Sistemas de ecuaciones con infinitas soluciones y
sistemas de ecuaciones sin solución
En el apartado anterior solo hemos tratado sistemas de ecuaciones lineales
con una única solución. Pero hay sistemas que admiten infinitas soluciones
y hay también sistemas que no admiten solución.3 Vemos ejemplos de ambos tipos en este apartado. También veremos algún ejemplo de sistema con
distinto número de ecuaciones que de incógnitas.
Un sistema con infinitas
soluciones
26
Consideremos el siguiente sistema de dos ecuaciones y dos incóg-
nitas:
⎧
⎨ 3x + y = −3
⎩ 6x + 2y = −6.
(11)
Intentemos aplicar en este sistema el método de eliminación de Gauss–
Jordan con la ayuda de las matrices. Escribimos entonces la matriz ampliada:
=
A
3
6
1
2
−3
−6
,
y tratamos de obtener su forma escalonada reducida.
3 Comprobaremos
más adelante (cf. § 45, p. 57), que no hay más posibilidades en lo que
a las soluciones de un sistema de ecuaciones lineales se refiere: solución única, infinitas
soluciones o ninguna solución.
I.1. INTRODUCCIÓN A LOS SISTEMAS DE ECUACIONES LINEALES
a una forma
Una sola transformación elemental nos lleva la matriz A
escalonada:
=
A
3
6
1
2
−3
−6
F2 ←F2 −2F1
→
3
0
1
0
−3
0
.
=A
solo tiene un pivote, pues su segunda fila es nula
La matriz escalonada A
(esto es, tiene todos sus términos nulos). En la columna de este pivote —la
primera— ya es nulo el otro término, así que solo nos resta conseguir que
el pivote sea igual a 1:
A =
3
0
1
0
−3
0
F1 ←(1/3)F1
→
1
0
1/3
0
−1
0
.
=A
es la forma escalonada reducida de la matriz A.
La matriz A
Nota bene
es, en efecto, escalonada, porque cada fila —salvo la
La matriz A
primera— tiene más ceros iniciales que la anterior (como es una matriz de dos
filas, esto se reduce simplemente a comprobar que la segunda fila tiene más
es efectivamente escalonada
ceros iniciales que la primera). Y la matriz A
reducida: es escalonada, su único pivote es igual a 1 y el único término que
acompaña a este pivote en su columna es nulo.
Cualesquiera que sean los valores que tomen las incógnitas x y y, se va a satisfacer
la ecuación 0x + 0y = 0; si
quitamos o añadimos a un sistema esta ecuación, obtenemos otro equivalente.
Ahora, ¿cuál es el sistema de ecuaciones lineales cuya matriz ampliada
? Este:
es la matriz escalonada reducida A
⎧
1
⎪
⎨ x + y = −1
3
⎪
⎩
0x + 0y = 0,
o bien
x+
1
y = −1.
3
(12)
Este sistema —ya lo sabemos— es equivalente al original, el (11). ¿Cuál es su
solución (si la hay)? De la única ecuación de este sistema, podemos deducir:
x = −1 −
1
y.
3
(13)
Si sustituimos la letra y por algún número concreto, por ejemplo: y = 1,
nos queda que x = −4/3, y una rápida comprobación nos confirma que el
par (−4/3, 1) es solución de este sistema, y desde luego también del (11).
Pero hay más soluciones. Si sustituimos y por otro número, digamos y = 0,
lo que obtenemos para x: x = −1, nos configura otra solución: (−1, 0).
De hecho, podemos sustituir la letra y por el número que queramos; el
correspondiente valor de x de acuerdo con la igualdad x = −1 − y/3 nos
I. SISTEMAS DE ECUACIONES LINEALES
configura una solución del sistema. Realmente, todas las soluciones del
sistema son los pares ordenados (x, y) tales que:
x = −1 −
1
y,
3
donde y puede ser un número cualquiera.
El sistema de ecuaciones lineales (11) es, pues, un sistema con infinitas soluciones.
Incógnitas básicas o
incógnitas principales;
incógnitas libres o
parámetros
27
En un sistema de ecuaciones lineales cuya matriz ampliada es es-
calonada reducida, las incógnitas que figuran en primer lugar en alguna
ecuación (y que por tanto son tales que su coeficiente es un pivote de la matriz y es igual a 1) se denominan incógnitas básicas o incógnitas principales;
las restantes se denominan incógnitas libres, o parámetros.
Por ejemplo, en el sistema (12), visto en el § 26, la primera incógnita
en la única ecuación que tiene el sistema es x, luego esta es una incógnita
básica (o principal), y la otra, la y, es una incógnita libre (o un parámetro).
Cuando hemos buscado la solución de este sistema, hemos despejado la
incógnita básica en función de la incógnita libre; es lo que está plasmado en
la igualdad (13).
Cuando un sistema cuya matriz ampliada es escalonada reducida admite
solución y exhibe incógnitas libres o parámetros, en la expresión final de la
solución se suelen sustituir estas incógnitas por otras letras, habitualmente
griegas, para distinguirlas en su notación de las incógnitas principales. Para
el sistema (12), y en definitiva para el (11), si denotamos la incógnita libre y
por λ (léase “lambda”), podemos concluir lo siguiente: todas las soluciones
del sistema (11) son los pares ordenados (x, y) tales que:
⎧
1
⎪
⎨ x = −1 + λ
3
⎪
⎩
y=
λ,
donde λ es un número cualquiera;
o también: todas las soluciones del sistema (11) son los pares ordenados de
la forma:
1
−1 + λ, λ ,
3
Otro sistema con infinitas
soluciones, esta vez con más
ecuaciones que incógnitas
28
donde λ es un número cualquiera.
Consideremos ahora el siguiente sistema de tres ecuaciones y cua-
tro incógnitas:
⎧
⎪
=2
x − x2 + x3
⎪
⎪
⎨ 1
x2 + x3 + x4 = −1
⎪
⎪
⎪
⎩x
+ 2x3 + x4 = 1.
1
(14)
I.1. INTRODUCCIÓN A LOS SISTEMAS DE ECUACIONES LINEALES
A diferencia de los sistemas de ecuaciones lineales que hemos visto hasta
ahora, este sistema tiene un número de ecuaciones distinto del de incógnitas. No por ello dejemos de intentar resolverlo con el método de eliminación
de Gauss–Jordan (con la ayuda de las matrices). La matriz ampliada del
sistema tiene tres filas y cinco columnas:
⎛
1 −1 1 0
⎜
1 1 1
A = ⎝0
1
0 2 1
⎞
2
⎟
−1 ⎠ .
1
Con dos transformaciones elementales llegamos a una matriz escalonada:
⎞
⎞
⎛
⎛
2
2
1 −1 1 0
1 −1 1 0
F3 ←F3 −F1 ⎜
⎟
⎟
⎜
= ⎝0
1 1 1 −1 ⎠ →
1 1 1 −1 ⎠
⎝0
A
1
1
0 2 1
0
1 1 1 −1
⎛
1
F3 ←F3 −F2 ⎜
→
⎝0
0
−1
1
0
1
1
0
0
1
0
⎞
2
⎟
.
−1 ⎠ = A
0
tiene dos pivotes (adviértase que la tercera fila es
La matriz escalonada A
nula), y ambos ya son iguales a 1; para obtener a partir de ella una matriz
escalonada reducida solo resta conseguir que sea nulo el término que ocupa
simultáneamente la
⎛
1 −1
= ⎜
1
A
⎝0
0
0
primera fila y la segunda columna:
⎛
⎞
1 0
2
1 0 2 1
⎟ F1 ←F1 +F2 ⎜
1 1 −1 ⎠ →
⎝0 1 1 1
0
0 0
0 0 0 0
⎞
1
⎟
.
−1 ⎠ = A
0
es efectivamente escalonada reducida: es escalonada (al pasar
La matriz A
de cada fila a la siguiente crece la cantidad de ceros iniciales), los pivotes
son unitarios y las dos columnas en las que figuran los pivotes presentan
es, pues, la forma escalonada
sus restantes términos nulos. La matriz A
reducida de la matriz A.
Escribamos ahora el sistema de ecuaciones lineales cuya matriz am —el cual, bien lo sabemos, será equivalente al inicial,
pliada es la matriz A
es nula, no escribimos la
el (14)—. Como la tercera fila de la matriz A
Si quitamos o añadimos a un
sistema la ecuación
0x1 + 0x2 + 0x3 + 0x4 = 0,
obtenemos otro equivalente.
ecuación correspondiente. Nos queda este sistema:
⎧
⎨ x1
+ 2x3 + x4 = 1
⎩
x2 + x3 + x4 = −1.
(15)
Si en la primera ecuación despejamos la incógnita x1 y en la segunda la
incógnita x2 , resulta:
x1 = 1 − 2x3 − x4
y
x2 = −1 − x3 − x4 .
(16)
I. SISTEMAS DE ECUACIONES LINEALES
Ahora, de manera similar a como acontecía en el § 26 (cf. p. 40) con el sistema escrito en (12), si damos a las incógnitas x3 y x4 algún valor numérico
concreto, los valores correspondientes de x1 y x2 obtenidos a partir de (16)
nos configuran una solución del sistema. Por ejemplo, si ponemos x3 = 1
El lector adivinará que la cuaterna es lo análogo, para cuatro números, del par ordenado
o de la terna.
y x4 = 2, obtenemos x1 = −3 y x2 = −4, y la cuaterna formada por estos
cuatro valores numéricos (en su orden adecuado) es una solución del sistema: (−3, −4, 1, 2). Podemos afirmar que todas las soluciones del sistema
de ecuaciones lineales (15), y por ende todas las del (14), son las cuaternas (x1 , x2 , x3 , x4 ) tales que:
⎧
⎨ x1 = 1 − 2x3 − x4 ,
donde x3 y x4 son números cualesquiera.
⎩ x2 = −1 − x3 − x4 ,
En particular, el sistema de ecuaciones lineales (14) tiene infinitas soluciones.
De acuerdo con la nomenclatura introducida en el § 27, las incógnitas x1
y x2 son las incógnitas básicas del sistema (15) (pues son las que figuran
en primer lugar en alguna ecuación), y las incógnitas x3 y x4 son las incógnitas libres. En las igualdades de (16), figuran despejadas las incógnitas
básicas en función de las libres. Si, como es usual, sustituimos las letras de
las incógnitas libres por letras griegas —por ejemplo, x3 por λ y x4 por μ
(léase “mi”)—, entonces podemos escribir que todas las soluciones del sistema (15), y por tanto las del (14), son las cuaternas (x1 , x2 , x3 , x4 ) tales
que:
⎧
⎪
⎪
⎪ x1
⎪
⎪
⎪
⎨ x2
⎪
⎪
x3
⎪
⎪
⎪
⎪
⎩x
4
=
1 − 2λ − μ
= −1 − λ − μ
=
λ
=
donde λ y μ son números cualesquiera;
μ,
o bien: tales soluciones son todas las cuaternas de la forma:
(1 − 2λ − μ, −1 − λ − μ, λ, μ),
Un sistema sin solución
29
donde λ y μ son números cualesquiera.
Estudiemos este sistema de tres ecuaciones y tres incógnitas:
⎧
⎪
⎪
⎪ x1 + x2 − x3 = 5
⎨
2x1 + x2
=2
⎪
⎪
⎪
⎩ x
+ x = −1.
1
Su matriz ampliada es:
⎛
1
=⎜
A
⎝2
1
3
1
1
0
−1
0
1
⎞
5
⎟
2⎠,
−1
(17)
I.1. INTRODUCCIÓN A LOS SISTEMAS DE ECUACIONES LINEALES
y una forma escalonada de esta matriz se puede obtener así:
⎛
1
⎜
A = ⎝2
1
1
1
0
−1
0
1
⎛
⎞
5
1
⎟ F2 ←F2 −2F1 ⎜
2 ⎠ →
⎝0
−1
1
⎛
1
⎜
→
⎝0
0
F3 ←F3 −F1
⎛
1
F3 ←F3 −F2 ⎜
→
⎝0
0
1
−1
0
−1
2
1
⎞
5
⎟
−8 ⎠
−1
1
−1
−1
−1
2
2
⎞
5
⎟
−8 ⎠
−6
1
−1
0
−1
2
0
⎞
5
⎟
−8 ⎠ = A
2
, menos la primera, pre(nótese que cada una de las filas de la matriz A
senta más ceros iniciales que su precedente: es escalonada). En este punto,
de acuerdo con el método de eliminación de Gauss–Jordan, deberíamos
hasta llegar
seguir aplicando transformaciones elementales a la matriz A
a su forma escalonada reducida. Ahora bien, fijémonos: ¿cuál sería la tercera ecuación del sistema de ecuaciones lineales cuya matriz ampliada es la
? Esta:
matriz A
0x1 + 0x2 + 0x3 = 2.
(18)
Pero acontece que esta ecuación no admite solución: cualesquiera que sean
los números que escribamos en vez de x1 , x2 y x3 , no obtendremos el
número 2 como resultado de la operación 0x1 + 0x2 + 0x3 . Deducimos
no admite solución. Y
entonces que el sistema cuya matriz ampliada es A
si este sistema no admite solución, tampoco la admite el sistema original:
el (17), que es equivalente a él.
A modo de epílogo de la
sección
30
A la vista de los sistemas de ecuaciones lineales que hemos visto
en este apartado y en el anterior, nos formulamos las siguientes preguntas:
¿cuál es el punto crucial que hace que un sistema admita solución o no?;
y, una vez sabemos que el sistema admite solución, ¿cuál es la clave para
saber si esta solución es única o admite más de una?
Adelantamos al lector las respuestas, de las cuales quizá ya intuya algún
aspecto.
Si nos fijamos bien en la resolución del sistema (17) en el § 29, el detalle crucial que nos determina que el sistema no admita solución es que
la matriz escalonada obtenida a partir de su matriz ampliada presenta un
pivote en la última columna. Si una matriz escalonada, ampliada de un sistema de ecuaciones lineales, tiene un pivote en su última columna, entonces
I. SISTEMAS DE ECUACIONES LINEALES
la ecuación lineal que correspondería a la fila de este pivote tendría todos
sus coeficientes nulos y el término independiente no nulo (como la ecuación
lineal escrita en (18)); una ecuación lineal así no admite solución.
Por el contrario, todos los demás sistemas que hemos estudiado en la
sección actual, tanto en este apartado como en los anteriores, son tales que
la matriz escalonada a la que hemos llegado a partir de su matriz ampliada
no presenta un pivote en la última columna. Cuando una matriz escalonada
no tiene pivote en su última columna, es posible encontrar alguna solución
para el sistema correspondiente.
Por otra parte, si tenemos un sistema tal que una forma escalonada de
su matriz ampliada no presenta un pivote en la última columna (un sistema
que, acuerdo con lo afirmado en el párrafo anterior, tiene solución), podemos saber si admite solución única o no comparando el número de pivotes
de la forma escalonada con el de incógnitas:
• Si el número de pivotes es igual al de incógnitas, la solución es única.
Esto es lo que acontece en todos los sistemas trabajados antes del
apartado actual.
• Pero si el número de pivotes es menor que el número de incógnitas,
hay más de una solución; de hecho, infinitas. Esto sucede en los sistemas (11) y (14) (cf. pp. 40 y 42, respectivamente).
Además, en el caso de infinitas soluciones, el número de parámetros o incógnitas libres a partir de las cuales se expresa la solución es igual a la
diferencia entre el número de incógnitas y el número de pivotes. Animamos
al lector a comprobar este hecho con los citados sistemas (11) y (14).
Veremos una justificación de todas estas afirmaciones en la Sección I.3,
que estará dedicada a presentar un método sintético para resolver cualquier
sistema de ecuaciones lineales. Antes, en la Sección I.2, presentaremos
las definiciones y propiedades de los sistemas de ecuaciones lineales en
general.
I.1. INTRODUCCIÓN A LOS SISTEMAS DE ECUACIONES LINEALES
Ejercicios I.1
1
Resolver, tanto por sustitución como por reduc-
ción, el siguiente sistema de ecuaciones lineales:
⎧
⎨ x+ y =6
⎩ −x + 3y = 2.
2 Un sistema de dos ecuaciones y dos incógnitas
se resuelve por igualación de la siguiente manera: se
despeja en ambas ecuaciones una misma incógnita y
se igualan las dos expresiones obtenidas, lo que lleva a
una ecuación con una sola incógnita, la cual se resuelve;
el resultado se sustituye en cualquiera de las dos expresiones obtenidas en el primer paso para así determinar
el valor de la incógnita que falta.
Resolver por igualación este sistema:
⎧
⎨ 2x + 3y = 8
⎩ 5x + 2y = −2.
5
Considérese el siguiente sistema de ecuaciones
lineales:
⎧
⎨ x1 + ax2 = 1
⎩ ax1 + x2 = 1,
donde a designa un número (real).
a)
¿Es el par ordenado (1, 1) solución del sistema
para algún valor de a?
b)
¿Hay solución cualquiera que sea el valor de a?
c)
Si a es tal que el sistema admite alguna solución,
encontrarlas todas.
6
Considérese el siguiente sistema de ecuaciones
lineales:
⎧
⎨ x1 − x2 = 2
⎩ 2x1 − 2x2 = 4.
Justificar que es solución de este sistema cualquier par
Treinta y cinco garrafas de vino, unas de dos
ordenado de la forma (2 + λ, λ) donde λ es un número
real. Justificar que también es solución cualquier par
litros y otras de cinco, se llenan al vaciar completamen-
ordenado de la forma (2 − 2λ, −2λ) donde λ es un nú-
te una tinaja que contiene cien litros. ¿Cuántas garrafas
de cada tipo hay?
mero real. ¿Hay alguna contradicción entre ambas afir-
3
4
les:
Resolver el siguiente sistema de ecuaciones linea⎧
⎪
⎪
⎪2x + 3y + 5z = 1
⎨
5y − z = 1
⎪
⎪
⎪
⎩2x + 8y + 5z = 2.
maciones?
7
Si las letras a, b, c y d designan números tales
que a ≠ 0 y ad − bc ≠ 0, resuélvase este sistema de
ecuaciones lineales:
⎧
⎨ ax1 + bx2 = 1
⎩ cx1 + dx2 = 1.
I. SISTEMAS DE ECUACIONES LINEALES
I.2 DEFINICIONES Y PROPIEDADES
1. Ecuaciones lineales. Sistemas de ecuaciones
lineales
En este apartado, presentamos las primeras definiciones necesarias sobre
sistemas de ecuaciones lineales, así como sus propiedades básicas. En particular, veremos la definición general de algunos conceptos ya citados en la
sección anterior, y analizaremos con detalle la representación matricial de
un sistema de ecuaciones lineales.
Ecuación lineal
Ecuación lineal. Incógnitas,
coeficientes y término
independiente
31
Fijemos un número natural positivo m. Una ecuación lineal en
las m incógnitas (o variables) x1 , x2 , . . . , xm es una expresión de la forma:
a1 x1 + a2 x2 + · · · + am xm = c,
donde a1 , a2 , . . . , am son números (reales), que llamaremos coeficientes de
la ecuación, y c es otro número (también real), que llamaremos término
independiente de la ecuación.
Por ejemplo, la expresión
1x1 + (−1)x2 + 5x3 + 0x4 +
√
2 x5 = −5,
que escribiremos simplemente así: x1 − x2 + 5x3 +
√
2 x5 = −5, es una
ecuación lineal en las incógnitas x1 , x2 , x3 , x4 y x5 . Los coeficientes de la
√
ecuación son 1, −1, 5, 0 y 2 (en este orden). El término independiente de
la ecuación es −5.
Otro ejemplo: las tres siguientes son ecuaciones lineales en las incógnitas x1 , x2 y x3 :
x1 − x2 − 3x3 = 2,
x3 = 1 y
−
1
x1 + 4x3 = 0.
5
Los coeficientes de la primera ecuación son 1, −1 y −3; los de la segunda: 0,
0 y 1; y los de la tercera: −1/5, 0 y 4. Los tres términos independientes
son 2, 1 y 0, respectivamente.
Las siguientes también son ecuaciones en las incógnitas x1 , x2 y x3 , pero
no son lineales:
x1 x2 + x3 = 2,
x12 + 3x2 − x3 = −1,
2x1 −
1
= 1.
x3
I.2. DEFINICIONES Y PROPIEDADES
Muchas veces se emplean otras letras para designar las incógnitas, como x, y, z, t o u, acompañadas o no de subíndices. Por ejemplo, las siguientes son ecuaciones lineales en las incógnitas x, y, z y t:
2x + 3y − 2z + t = −3 y
− 2y − z − t = 1.
Y estas son ecuaciones lineales en las incógnitas y1 , y2 y y3 :
y1 + y3 = 0
y
3y2 + y3 = −7.
Y esta lo es en las incógnitas z1 y z2 : 2z1 − z2 = 1.
Ecuaciones lineales: detalles
de notación
32
Como puede el lector deducir de los ejemplos del parágrafo ante-
rior, si un coeficiente en una ecuación lineal es nulo, no se suele escribir el
sumando correspondiente. Por ejemplo, se escribe −2x1 + x3 = 2 en vez
de −2x1 + 0x2 + x3 = 2 (salvo que se quiera enfatizar por alguna razón el
valor nulo del coeficiente). Pero hay una excepción: si todos los coeficientes
de la ecuación lineal son nulos, los escribiremos explicitamente:
0x1 + 0x2 + 0x3 = −1,
o 0x1 + 0x2 + 0x3 + 0x4 = 0.
Otro detalle de notación que debe observarse es el siguiente. Podrían
pedirnos, por ejemplo, que consideráramos la ecuación lineal 3x2 = −1 en
las incógnitas x1 , x2 , x3 y x4 . En tal caso, la ecuación en cuestión sería
realmente esta: 0x1 + 3x2 + 0x3 + 0x4 = −1.
Habitualmente, el contexto nos dará cuenta de qué incógnitas debemos considerar. A falta de contexto o de otras referencias, tomaremos
para una ecuación dada tantas incógnitas como marque el mayor subíndice
con coeficiente no nulo. Verbigracia, si no tenemos más información, la
ecuación 4x2 = 3 debe considerarse como una ecuación lineal en las incógnitas x1 y x2 .
Solución de una ecuación lineal
Solución de una ecuación
lineal
33
Consideremos una ecuación lineal en las m incógnitas (o varia-
bles) x1 , x2 , . . . , xm :
a1 x1 + a2 x2 + · · · + am xm = c.
(En particular, ya sabemos entonces que las letras a1 , a2 , . . . , am y c están
designando números reales.) Dada una m-upla (s1 , s2 , . . . , sm ) de números,
I. SISTEMAS DE ECUACIONES LINEALES
Obsérvese que una m-upla es
lo análogo, para m números,
de un par ordenado o de una
terna. (De hecho, si m = 2,
una m-upla es justamente un
par ordenado.) Los números
que figuran escritos en una
m-upla son sus componentes:
primera, segunda, . . . , m-ésima, en el mismo orden en que
están escritos.
diremos que es una solución de la ecuación lineal si al sustituir, en la ecuación, x1 por s1 , x2 por s2 , . . . , xm por sm se obtiene una igualdad. Es decir,
si se verifica:
a1 s1 + a2 s2 + · · · + am sm = c.
Por ejemplo, consideremos esta ecuación lineal en las incógnitas x1 , x2
y x3 :
x1 + x2 + 2x3 = −1.
La terna (0, −3, 1) es una solución de la ecuación, pues si sustituimos x1
por 0, x2 por −3 y x3 por 1, obtenemos una igualdad:
0 + (−3) + 2 · 1 = −1.
Por el contrario, la terna (1, 1, 1) no es una solución de la ecuación, pues
escribir 1, 1 y 1 en vez de x1 , x2 y x3 , respectivamente, nos lleva a
1 + 1 + 2 · 1 = 4 ≠ −1.
El lector puede comprobar que la terna (0, 0, −1/2) es otra solución de la
En efecto:
1
= −1.
0+0+2· −
2
ecuación. Se trata de una ecuación lineal con más de una solución.
34
Más ejemplos
Consideremos la ecuación lineal 3x2 = 1, en las incógnitas x1 y x2 .
Más explícitamente, se trata de la ecuación 0x1 + 3x2 = 1. Una solución es
el par ordenado (1, 1/3), pues la sustitución x1 = 1 y x2 = 1/3 nos lleva a
una igualdad:
0·1+3·
1
= 1.
3
Si nos fijamos, realmente todo par ordenado de la forma (a, 1/3), siendo a
un número cualquiera, es una solución de la ecuación:
Hacemos la sustitución x1 = a
y x2 = 1/3.
0·a+3·
1
= 1.
3
Examinemos ahora esta otra ecuación lineal: 3x1 = 1. Si no nos dicen
Si m = 1, una m-upla se reduce a un solo número.
nada más, debemos pensar que es una ecuación solo en la incógnita x1 ;
como tal, tiene solución única: el número 1/3. Pero podríamos considerar que es una ecuación lineal en las incógnitas (por ejemplo) x1 y x2 ; más
explícitamente: 3x1 + 0x2 = 0. En este caso, una solución de la ecuación
sería un par ordenado y no simplemente un número. En concreto, podemos
En efecto: 3 ·
1
+ 0 · a = 1.
3
comprobar que todo par ordenado de la forma (1/3, a), con a un número arbitrario, configura una solución de la ecuación así considerada. La ecuación
lineal 3x1 = 1, en las incógnitas x1 y x2 , tiene infinitas soluciones.
I.2. DEFINICIONES Y PROPIEDADES
35
Solución de una ecuación
lineal con todos los
coeficientes nulos (cf. § 32)
La ecuación lineal 0x1 + 0x2 + 0x3 = −1 (en las incógnitas x1 , x2
y x3 ) no admite solución. En efecto, cualesquiera que sean los números que
escribamos en lugar de x1 , x2 y x3 , la operación 0x1 + 0x2 + 0x3 tiene como
resultado el número 0, y no −1.
Por el contrario, la ecuación lineal 0x1 + 0x2 + 0x3 = 0 admite como
solución cualquier terna de números.
En general, dada una ecuación lineal de la forma:
0x1 + 0x2 + · · · + 0xm = c,
acontece lo siguiente: si c ≠ 0, no admite solución; si c = 0, admite como
solución cualquier m-upla de números.
36
Posibilidades para las
soluciones de una ecuación
lineal: una, infinitas o
ninguna
En los § 34 y 35, hemos visto ejemplos de ecuaciones lineales con
una única solución (como la ecuación 3x1 = 1 en la incógnita x1 ), con infinitas soluciones (como la ecuación 3x2 = 1 en las incógnitas x1 y x2 ) o
sin solución (como las ecuaciones con todos sus coeficientes nulos y el término independiente no nulo). Realmente, no hay más posibilidades para las
soluciones de una ecuación lineal: una, infinitas o ninguna.
Comprobémoslo con una ecuación lineal en dos incógnitas (para más incógnitas la comprobación sería
análoga).
Supongamos que tenemos dos soluciones
distintas de la ecuación lineal a1 x1 + a2 x2 = c. Es
decir, tenemos dos pares ordenados (s1 , s2 ) y
(s1 , s2 ),
con s1 ≠ s1 o s2 ≠ s2 , tales que:
a 1 s 1 + a2 s 2 = c
y
a1 s1 + a2 s2 = c.
(19)
Se tiene entonces lo siguiente: cualquiera que sea el
número b, es solución de la ecuación lineal el par orde
nado s1 + b(s1 − s1 ), s2 + b(s2 − s2 ) , lo que establece
que la ecuación lineal tiene en definitiva infinitas soluciones.
mos lo siguiente:
a1 s1 + b(s1 − s1 ) + a2 s2 + b(s2 − s2 )
= a1 s1 + a2 s2 + b(a1 s1 + a2 s2 ) − b(a1 s1 + a2 s2 )
= c + bc − bc = c,
donde hemos tenido en cuenta (19). Efectivamente,
pues, el par ordenado s1 + b(s1 − s1 ), s2 + b(s2 − s2 )
es solución de la ecuación lineal, y ello cualquiera que
sea el número b. Además, como s1 ≠ s1 o s2 ≠ s2 , se
obtiene un par ordenado distinto para cada valor de b:
la ecuación lineal tiene infinitas soluciones.
Vemos así que una ecuación lineal que admite más
de una solución admite de hecho infinitas. Esto prueba
Para probarlo, en la ecuación sustituimos x1
por s1 + b(s1 − s1 ) y x2 por s2 + b(s2 − s2 ). Obtene-
la afirmación de este parágrafo: una ecuación lineal admite una solución, infinitas soluciones o ninguna.
Operaciones con ecuaciones lineales
Multiplicación por un número
de una ecuación lineal
37
Las ecuaciones lineales, en tanto que son igualdades, pueden multi-
plicarse por un número. Ello se lleva a cabo multiplicando ambos miembros
I. SISTEMAS DE ECUACIONES LINEALES
por el número. Por ejemplo, de multiplicar por el número −2 la ecuación
lineal x1 − 3x2 + 2x3 = −1, resulta:
(−2) · (x1 − 3x2 + 2x3 ) = (−2) · (−1),
de donde:
− 2x1 + 6x2 − 4x3 = 2.
El resultado de esta operación es también una ecuación lineal, obtenida de la
original multiplicando tanto los coeficientes como el término independiente
por el número en cuestión.
En general, el producto de un número b por una ecuación lineal como
a1 x1 + a2 x2 + · · · + am xm = c
es igual a la ecuación lineal siguiente:
(ba1 )x1 + (ba2 )x2 + · · · + (bam )xm = bc.
Adición de ecuaciones
lineales
38
Las ecuaciones lineales también pueden sumarse, como se suman
habitualmente dos igualdades, miembro a miembro. Por ejemplo, consideremos estas dos ecuaciones lineales, ambas en las incógnitas x1 , x2 y x3 :
2x1 + x2 − 3x3 = 1 y
− 6x1 + x3 = −1.
Su suma se puede calcular así:
+
de donde:
2x1
+ x2
− 3x3 =
1
+ x3 = −1
−6x1
2x1 − 6x1
+ x2
− 3x3 + x3 = 1 − 1,
−4x1
+ x2
− 2x3 =
0.
La suma de las dos ecuaciones lineales es, como vemos, otra ecuación lineal,
en las mismas incógnitas que ambas ecuaciones, y tal que el coeficiente que
acompaña a cada incógnita es la suma de los coeficientes que acompañan a
la misma incógnita en cada ecuación, y también tal que su término independiente es la suma de ambos términos independientes.
En general, la suma de dos ecuaciones lineales en las mismas incógnitas:
a1 x1 + a2 x2 + · · · + am xm = c
y
b1 x1 + b2 x2 + · · · + bm xm = d,
es igual a la ecuación lineal:
(a1 + b1 )x1 + (a2 + b2 )x2 + · · · + (am + bm )xm = c + d.
Sumar a una ecuación un
múltiplo de otra
39
A modo de combinación de las dos operaciones entre ecuaciones
lineales que hemos visto en los §s 37 y 38, podemos sumar a una ecuación
I.2. DEFINICIONES Y PROPIEDADES
un múltiplo de otra (tomadas ambas ecuaciones en las mismas incógnitas).
No es más que multiplicar la segunda ecuación por un número y sumar el
resultado a la primera.
Efectuemos una operación de este tipo con las siguientes dos ecuaciones
lineales (ambas en las incógnitas x1 , x2 y x3 ):
x1 + 3x2 − x3 = 0
y
2x1 − 4x2 + 6x3 = −8.
Sumemos a la primera la segunda multiplicada por −1/2. Del producto de
la segunda por −1/2, obtenemos:
1
1
−
· (2x1 − 4x2 + 6x3 ) = −
· (−8),
2
2
de donde:
− x1 + 2x2 − 3x3 = 4.
Y de la suma de la primera con esta última:
+
x1 + 3x2 − x3 = 0
−x1 + 2x2 − 3x3 = 4
5x2 − 4x3 = 4.
La ecuación lineal 5x2 − 4x3 = 4 es el resultado.
Sumar a una ecuación un
múltiplo de otra para anular
algún coeficiente
40
Incidentalmente, obsérvese que la ecuación obtenida en el § 39 tiene
nulo su coeficiente de x1 , cuando las ecuaciones originales no lo tenían.
Habitualmente, el objetivo de sumar a una ecuación un múltiplo de otra
es precisamente que la ecuación obtenida como resultado tenga nulo algún
coeficiente concreto.
Parémonos un momento a ver esto en un caso general. Tenemos dos
ecuaciones lineales:
a1 x1 + a2 x2 + · · · + am xm = c
y
b1 x1 + b2 x2 + · · · + bm xm = d,
con a1 ≠ 0 y b1 ≠ 0, y querríamos, sumando a la primera un múltiplo adecuado de la segunda, obtener una ecuación con el coeficiente de x1 nulo.
¿Cómo lo logramos?
Como el coeficiente de x1 en la primera ecuación
es igual a a1 , tras multiplicar la segunda ecuación por algún número deberíamos obtener un coeficiente de x1 igual a −a1 . Lo conseguimos si tal
número es −a1 /b1 :
a a 1
1
−
· (b1 x1 + b2 x2 + · · · + bm xm ) = −
· d,
b1
b1
de donde:
− a1 x1 −
a1 b2
a1 bm
a1 d
x2 − · · · −
xm = −
.
b1
b1
b1
I. SISTEMAS DE ECUACIONES LINEALES
Ahora, al sumar la primera ecuación y esta última obtenida, conseguimos
una ecuación cuyo coeficiente de x1 es nulo. Esquemáticamente:
a1 x1 +
a2 x2 + · · · =
−a1 x1 −
a1 b2
x2 − · · · =
b1
+
c
−
a1 d
b1
a1 b2 a1 d
x2 + · · · = c −
0x1 + a2 −
.
b1
b1
Tal y como queríamos, la ecuación obtenida tiene nulo su coeficiente de x1 .
Si quisiéramos, a partir de las mismas dos ecuaciones, conseguir que
fuera nulo otro coeficiente, digamos el de xj (donde 1 j m y bj ≠ 0), el
número por el cual habría que multiplicar la segunda ecuación sería −aj /bj .
Soluciones de una ecuación
lineal tras efectuar
operaciones con ella
Una cuaterna es una m-upla
con m = 4.
41
Si multiplicamos una ecuación lineal por un número, obteniendo
con ello una segunda ecuación, las soluciones de la primera ecuación, ¿son
también soluciones de la segunda? Sí.
Veamos un ejemplo. Consideremos la ecuación lineal 2x1 − x2 + x4 = 1,
de la cual una solución es la cuaterna (1, 3, 5, 2), pues: 2 · 1 − 3 + 2 = 1.
Multipliquemos la ecuación por 2; obtenemos: 4x1 − 2x2 + 2x4 = 2. Acontece que la cuaterna (1, 3, 5, 2) también es solución de esta última ecuación,
pues: 4 · 1 − 2 · 3 + 2 · 2 = 2.
Con la adición de ecuaciones lineales acontece algo similar. Lo que sea
solución simultáneamente de las dos ecuaciones lineales que se suman sigue
siendo solución de la ecuación lineal suma. Por ejemplo, la terna (1, 1, 1) es
x1 − x2 − x3 = −1
+
x1 + x2 − 2x3 =
2x1
solución de estas dos ecuaciones lineales:
0
− 3x3 = −1
x1 − x2 − x3 = −1 y
x1 + x2 − 2x3 = 0;
(20)
pero también es solución de la ecuación lineal suma de ambas ecuaciones,
que es: 2x1 − 3x3 = −1. Dejamos al lector la comprobación de los detalles.
Nota bene
Cuando decimos que toda solución de dos ecuaciones lineales lo es
también de su suma, se exige que tal solución lo sea de las dos ecuaciones que
se suman.
Como consecuencia de lo dicho en este parágrafo, si sumamos a una
ecuación lineal un múltiplo de otra, cualquier solución común a las dos
ecuaciones originales también será solución de la ecuación lineal obtenida
como resultado.
I.2. DEFINICIONES Y PROPIEDADES
A modo de ejemplo, podemos partir de nuevo de las ecuaciones lineales escritas en (20). Ya sabemos que la terna (1, 1, 1) es solución de ambas.
Acontece que esta terna también es solución de la ecuación que resulta de
x1 − x2 − x3 = −1
+
−x1 − x2 + 2x3 =
0
−2x2 + x3 = −1
sumar a la primera de las ecuaciones la segunda multiplicada por −1. En
efecto, el resultado de tal operación es la ecuación −2x2 + x3 = −1, y claramente la terna (1, 1, 1) es solución de ella.
La justificación en general de todo lo afirmado en este parágrafo se deja
como ejercicio al lector.
Sistemas de ecuaciones lineales
¿Qué es un sistema de
ecuaciones lineales?
42
Un sistema de ecuaciones lineales es una lista (finita) de ecuaciones
lineales consideradas simultáneamente, todas en las mismas incógnitas.
Si n y m son dos números naturales positivos, la expresión general de
un sistema de n ecuaciones lineales en las m incógnitas x1 , x2 , . . . , xm es
esta:
⎧
a11 x1 + a12 x2 + · · · + a1m xm = c1
⎪
⎪
⎪
⎪
⎨
a21 x1 + a22 x2 + · · · + a2m xm = c2
⎪
⎪ ........................................
⎪
⎪
⎩
an1 x1 + an2 x2 + · · · + anm xm = cn .
Nótese que, fijados dos números naturales i y j, con 1 i n y 1 j m,
en la expresión general anterior se designa por aij el coeficiente que, en
la i-ésima ecuación lineal, acompaña a la incógnita xj . Por otra parte, las
letras c1 , c2 , . . . , cn designan los n términos independientes.
Por ejemplo, el siguiente es un sistema de dos ecuaciones y cuatro incógnitas:
⎧
⎨ 2x1
+ 3x3 − x4 =
2
⎩ x1 + x2 + 4x3 + x4 = −1.
(21)
Nótese que ambas son efectivamente ecuaciones lineales en las mismas
incógnitas: x1 , x2 , x3 y x4 .
Solución de un sistema de ecuaciones lineales. Sistemas equivalentes
Solución de un sistema de
ecuaciones lineales
43
Dado un sistema de n ecuaciones lineales y m incógnitas, una solu-
ción del sistema es una m-upla que es solución de todas y cada una de las n
ecuaciones lineales del sistema (cf. § 33, p. 49).
Por ejemplo, la cuaterna (1, −2, 0, 0) es una solución del sistema (21), de
dos ecuaciones y cuatro incógnitas, escrito en el § 42, pues es una solución
I. SISTEMAS DE ECUACIONES LINEALES
Recordamos el sistema (21):
⎧
⎨ 2x1
+ 3x3 − x4 = 2
⎩ x + x + 4x + x = −1.
1
2
3
4
de cada una de sus dos ecuaciones. En efecto, si escribimos 1, −2, 0 y 0 en
vez de x1 , x2 , x3 y x4 , respectivamente, obtenemos dos igualdades, una a
partir de cada ecuación:
⎧
⎨2 · 1
⎩
+3·0−0=
2
1 + (−2) + 4 · 0 + 0 = −1.
Por el contrario, la cuaterna (1, 0, 1, 3), verbigracia, no es solución de este
sistema citado: aunque es solución de su primera ecuación, no lo es de su
segunda. El lector puede tener a bien comprobar ambas afirmaciones.
Ejemplos de solución de
sistemas
44
En una sección posterior (Sección I.3), estudiaremos un método
sistemático para resolver cualquier sistema de ecuaciones lineales (es decir,
para encontrar todas sus soluciones, lo que incluye determinar que el sistema no tiene solución si es el caso). En los ejemplos de sistemas de este
parágrafo, escribimos para cada uno todas sus soluciones, y nos limitamos
a comprobar que las soluciones escritas efectivamente lo son.
En la sección introductoria de este capítulo (cf. Sección I.1), vimos este
sistema de ecuaciones (el sistema (1), escrito en el § 1, p. 19):
⎧
⎨ 4x − 2y = 8
⎩ 3x + y = 1,
y comentamos que tenía una única solución: el par (1, −2). El lector puede
comprobar que este par es efectivamente solución del sistema.
Este otro sistema:
⎧
⎨ x1 + x2 = 1
⎩ 2x1 + 2x2 = 2,
admite infinitas soluciones: todas los pares ordenados de la forma (1−a, a)
con a un número cualquiera. Lo comprobamos sustituyendo x1 por a y x2
por 1 − a; obtenemos con ello dos igualdades:
⎧
⎨ a + (1 − a) = 1
⎩ 2a + 2(1 − a) = 2.
Por otra parte, el sistema (21) admite como solución todas las cuaternas
Recordamos de nuevo el sistema (21):
⎧
⎨ 2x1
+ 3x3 − x4 = 2
⎩ x + x + 4x + x = −1.
1
2
3
4
de la forma:
3
1
5
3
1− a+ b, −2− a− b, a, b , donde a y b son números cualesquiera.
2
2
2
2
La comprobación es esta:
⎧ 1 3
⎪
⎪
⎪
+ 3a − b = 2
⎨2 1 − a+ b
2
2
⎪
3
1 5
3 ⎪
⎪
⎩ 1 − a + b + −2 − a − b + 4a + b = −1.
2
2
2
2
I.2. DEFINICIONES Y PROPIEDADES
Finalmente, salta a la vista que el siguiente sistema de dos ecuaciones
¡Dos números no pueden sumar 1 y 2 a la vez!
lineales no admite solución:
⎧
⎨ x1 + x2 = 1
⎩ x1 + x2 = 2.
Enfatizamos, para tranquilidad del lector, que todavía no estamos en
condiciones, a la luz de lo que hemos visto hasta ahora, de llegar por
nosotros mismos a las soluciones de sistemas aquí consignadas.
Posibilidades para las
soluciones de un sistema de
ecuaciones lineales: una,
infinitas o ninguna
45
En el § 44, acabamos de citar varios ejemplos de sistemas de ecua-
ciones lineales: uno de ellos con una única solución, dos con infinitas soluciones y un cuarto sin solución. De acuerdo con lo visto en el § 36 (cf. p. 51),
son estas tres las posibilidades para la cantidad de soluciones de un sistema
de ecuaciones lineales.
Dado un sistema de ecuaciones lineales, se satisface una y solo una de las
siguientes afirmaciones: admite una solución, admite infinitas soluciones
o no admite ninguna.
Nomenclatura: sistema
compatible determinado,
sistema compatible
indeterminado y sistema
incompatible
46
De un sistema que admite solución única diremos que es compa-
tible determinado; de uno que admite infinitas soluciones diremos que es
compatible indeterminado; y de uno que no admite solución diremos que
es incompatible.
De acuerdo con lo afirmado en el § 45, todo sistema de ecuaciones lineales es de una, y solo una, de estas tres clases.
Por ejemplo (§ 44), los siguientes sistemas:
⎧
⎧
⎨ x1 + x2 = 1
⎨ 4x − 2y = 8
y
⎩ 3x + y = 1, ⎩ 2x1 + 2x2 = 2
⎧
⎨ x1 + x2 = 1
⎩ x1 + x2 = 2,
son, respectivamente, compatible determinado, compatible indeterminado
e incompatible.
Sistemas que incluyen
ecuaciones con todos los
coeficientes nulos
47
Sabemos que una ecuación lineal con todos sus coeficientes nulos
pero con el término independiente no nulo, es decir, una ecuación lineal
como esta:
0x1 + 0x2 + · · · + 0xm = c,
con c ≠ 0,
no admite solución (cf. § 35, p. 51). Por tanto, si un sistema incluye tal
ecuación entre las suyas, podemos afirmar que el sistema no admite solución: se tratará de un sistema de ecuaciones lineales incompatible.
I. SISTEMAS DE ECUACIONES LINEALES
También sabemos (del mismo § 35) que, por el contrario, la ecuación
lineal con todos sus coeficientes nulos y con el término independiente también nulo, esto es, la ecuación
0x1 + 0x2 + · · · + 0xm = 0
Ecuación nula
(22)
(lo que llamaremos una ecuación nula), admite como solución toda m-upla
de números reales. Si un sistema de ecuaciones lineales incluye esta ecuación, podemos eliminarla, en el sentido de que el sistema resultante tendrá
las mismas soluciones que el original.
En efecto, si una m-upla es solución del sistema que incluye la ecuación (22), será solución de todas y cada una de sus ecuaciones lineales, y
por tanto del sistema formado por cualesquiera de ellas. Recíprocamente,
si el sistema resultante de eliminar la ecuación (22) admite alguna solución,
tal m-upla también será solución de esta ecuación, pues cualquier m-upla
lo es.
Sistemas equivalentes
48
Diremos que dos sistemas de ecuaciones lineales son equivalentes
si tienen las mismas soluciones; es decir, si toda solución del primero también es solución del segundo, y si toda solución del segundo también es
solución del primero. Si dos sistemas de ecuaciones lineales en las mismas
incógnitas no admiten solución, también diremos que ambos sistemas son
equivalentes.
De acuerdo con lo visto en el § 47, si un sistema de ecuaciones lineales
tiene alguna ecuación nula, al eliminar esta obtenemos un nuevo sistema
equivalente al original.
En la Sección I.1, ya vimos algunos primeros ejemplos de sistemas equivalentes. En estos ejemplos, a partir de un sistema dado obteníamos un sistema equivalente llevando a cabo en el primero ciertas operaciones con sus
ecuaciones. Estudiamos estas operaciones entre ecuaciones en el parágrafo
siguiente.
Manipulaciones en sistemas
de ecuaciones lineales
49
Recordemos, pues, las operaciones entre ecuaciones que llevába-
mos a cabo en sistemas de ecuaciones lineales en la Sección I.1. Son las
siguientes:
• intercambiar dos ecuaciones;
• multiplicar una ecuación por un número no nulo;
• sumar a una ecuación un múltiplo de otra.
Una manipulación de cualquiera de estos tipos transforma un sistema de
ecuaciones lineales en otro equivalente.
I.2. DEFINICIONES Y PROPIEDADES
Comprobamos esta afirmación para cada uno de los
tres tipos de manipulación señalados.
otra ecuación de modo que ambas tienen las mismas
soluciones.
Esto prueba que la operación de multi-
En primer lugar, si en un sistema de ecuaciones li-
plicar una ecuación por un número no nulo nos lleva
neales intercambiamos dos de ellas, el sistema sigue
teniendo, en definitiva, las mismas ecuaciones: es claro
un sistema de ecuaciones lineales a otro equivalente.
Finalmente, analicemos la operación de sumar a
que toda solución de uno es también solución del otro.
una ecuación un múltiplo de otra.
Esta operación efectivamente transforma un sistema de
supongamos que las ecuaciones involucradas son las
ecuaciones lineales en otro equivalente.
dos primeras: a la primera ecuación de un sistema
Por fijar ideas,
En segundo lugar, consideremos en un sistema
se le suma la segunda previamente multiplicada por
de ecuaciones lineales la multiplicación de alguna
un número b. Podemos comprobar que, si sumamos
ecuación por un número no nulo, digamos b. Note-
a la nueva primera ecuación la segunda multiplicada
mos que, si multiplicamos por el número no nulo b
por −b, recuperamos con ello la primera ecuación origi-
una ecuación lineal, a partir de la ecuación obtenida
podemos recuperar la original multiplicando a su vez
nal. Como toda solución común a dos ecuaciones también lo es de la ecuación que resulta de sumar a una
por 1/b. Pero ya sabemos que la multiplicación de una
de las ecuaciones un múltiplo de la otra, deducimos
ecuación lineal por un número cualquiera nos lleva a
lo siguiente: antes y después de sumar a la primera
otra ecuación lineal tal que toda solución de la primera
ecuación la segunda multiplicada por b los sistemas co-
ecuación sigue siéndolo de la segunda (cf. § 41, p. 54).
rrespondientes tienen las mismas soluciones. Sumar a
Deducimos entonces lo siguiente: al multiplicar una
una ecuación un múltiplo de otra transforma, pues, un
ecuación lineal por un número no nulo, obtenemos
sistema de ecuaciones lineales en otro equivalente.
Un ejemplo de aplicación de
las operaciones entre
ecuaciones
50
A modo de ejemplo ilustrativo de estas manipulaciones, considere-
mos el siguiente sistema de tres ecuaciones y tres incógnitas:
⎧
⎪
x + x2 − 2x3 = 0
⎪
⎪
⎨ 1
+ 2x3 = 1
x1
⎪
⎪
⎪
⎩ x − x + 7x = 3,
1
2
(23)
3
y tratemos, mediante la aplicación de operaciones entre ecuaciones, de llevarlo a otro sistema equivalente que sea sencillo de resolver. Sigamos para
ello la pauta de los ejemplos estudiados en la Sección I.1.
Empezamos buscando un sistema cuya segunda ecuación tenga nulo el
coeficiente de x1 ; lo conseguimos sumando a la segunda ecuación del sis−x1 − x2 + 2x3 = 0
+
x1
+ 2x3 = 1
−x2 + 4x3 = 1
tema original la primera multiplicada por −1:
⎧
⎪
x + x2 − 2x3 = 0
⎪
⎪
⎨ 1
−x2 + 4x3 = 1
⎪
⎪
⎪
⎩ x − x + 7x = 3.
1
2
3
Continuamos tratando de conseguir que la tercera ecuación también tenga
nulo el coeficiente de x1 ; ello se logra sumando a la tercera ecuación la
I. SISTEMAS DE ECUACIONES LINEALES
−x1 − x2 + 2x3 = 0
+
x1 − x2 + 7x3 = 3
−2x2 + 9x3 = 3
primera multiplicada por −1:
⎧
⎪
x + x2 − 2x3 = 0
⎪
⎪
⎨ 1
− x2 + 4x3 = 1
⎪
⎪
⎪
⎩
−2x2 + 9x3 = 3.
En un siguiente paso, “hacemos nulo” el coeficiente de x2 de la tercera
ecuación recién obtenida; llegamos a ello sumando a esta tercera ecuación
2x2 − 8x3 = −2
+
−2x2 + 9x3 =
3
x3 =
1
la segunda multiplicada por −2:
⎧
⎪
⎪
⎪ x1 + x2 − 2x3 = 0
⎨
−x2 + 4x3 = 1
⎪
⎪
⎪
⎩
x3 = 1.
(24)
Este último sistema de ecuaciones lineales es fácil de resolver: la tercera
ecuación ya nos dice que x3 = 1; sustituyendo x3 por 1 en la segunda
ecuación, llegamos a:
−x2 + 4 · 1 = 1,
de donde: x2 = 3.
Y sustituyendo x3 y x2 por 1 y 3, respectivamente, en la primera ecuación,
obtenemos:
x1 + 3 − 2 · 1 = 0,
de donde: x1 = −1.
La terna (−1, 3, 1) es, pues, solución del sistema (24), y por ende del original:
el (23), pues ambos son equivalentes al haberse obtenido uno de otro con
la aplicación de operaciones entre ecuaciones del tipo descrito en el § 49.
Esta solución es de hecho única, pues la resolución del sistema (24) nos ha
llevado obligadamente a ella; el sistema es compatible determinado.
Hemos resuelto el sistema de ecuaciones lineales (24) con un método que
Sustitución hacia atrás
se suele llamar sustitución hacia atrás: se despeja en la última ecuación
la única incógnita que figura, y el resultado se sustituye en las restantes
ecuaciones; con ello, una nueva incógnita queda solitaria en la penúltima
ecuación y se procede de igual manera: tal incógnita se despeja y su valor
se sustituye en las demás ecuaciones; se sigue este proceso hasta tener
todas las incógnitas despejadas. Podemos aplicar este método porque el
sistema (24) está escrito de una forma adecuada: su última ecuación tiene
una única incógnita, y leído el sistema de abajo arriba cada ecuación añade
una incógnita nueva.
Nota
El sistema de ecuaciones lineales (24) es compatible determinado, pero
también puede aplicarse la sustitución hacia atrás a sistemas compatibles indeterminados. En el § 92 (cf. p. 95) veremos un ejemplo de ello, pero adelantamos
aquí que la idea es básicamente la misma.
I.2. DEFINICIONES Y PROPIEDADES
Continuación del ejemplo
51
En el ejemplo del § 50, hemos llegado al sistema (24) y lo hemos
resuelto (por sustitución hacia atrás), pero podríamos haber seguido aplicando a partir de este sistema operaciones entre ecuaciones con el fin de
simplificarlo aún más. Hagámoslo.
En primer lugar, busquemos que sea igual a 1 el coeficiente de la primera
incógnita de cada ecuación; para ello, solo hace falta multiplicar por −1 la
segunda ecuación del sistema (24), lo cual nos lleva a:
⎧
⎪
x + x2 − 2x3 = 0
⎪
⎪
⎨ 1
x2 − 4x3 = −1
⎪
⎪
⎪
⎩
x = 1.
3
A continuación, tratemos de llegar a un sistema en el que sea nulo el coeficiente de x2 de la primera ecuación; ello se logra sumando a la primera
ecuación la segunda multiplicada por −1:
⎧
⎪
+ 2x3 = 1
⎪
⎪ x1
⎨
x2 − 4x3 = −1
⎪
⎪
⎪
⎩
x3 = 1.
Finalmente, “anulemos” los coeficientes de la incógnita x3 en las ecuaciones
primera y segunda. Para el de la primera, sumamos a esta ecuación la tercera multiplicada por −2; para el de la segunda, sumamos a esta segunda
ecuación la tercera multiplicada por 4. Llegamos a este sistema:
⎧
⎪
= −1
⎪
⎪ x1
⎨
= 3
x2
⎪
⎪
⎪
⎩
x3 = 1,
que, por supuesto, es equivalente al (24), y por tanto al (23). Su solución
salta a la vista: (−1, 3, 1).
2. Representación matricial de un sistema de ecuaciones lineales
En este apartado, además de introducir la definición de matriz, vemos las
matrices que se definen a partir de un sistema de ecuaciones lineales con
el fin de representarlo más sintéticamente. También, consideramos ciertos
tipos de transformaciones ejecutadas en matrices (las llamadas transformaciones elementales), y de matrices (en concreto, las matrices escalonadas y
las matrices escalonadas reducidas), relevantes para el tratamiento de los
sistemas de ecuaciones lineales. En el Capítulo II estudiaremos las matrices con mucho más detalle.
I. SISTEMAS DE ECUACIONES LINEALES
Definición de matriz. Matrices definidas a partir de un sistema
de ecuaciones lineales
52
Matriz
Dados dos números naturales positivos n y m, una matriz de or-
den (n, m) (o de orden n × m) es una disposición de n · m números (reales)
en forma rectangular en n filas y m columnas. Los números que se escriben
en una matriz se denominan términos de la matriz.
Las matrices se suelen denotar con letras mayúsculas. Un ejemplo de
matriz es
A=
2
0
−3
1
0
1
.
Aquí estamos denotando con la letra A una matriz de orden (2, 3): se trata
de 2 · 3 = 6 números dispuestos en dos filas y tres columnas. Los términos
de la primera fila son 2, −3 y 0 (en este orden, de izquierda a derecha); los
de la segunda: 0, 1 y 1. Los términos de la primera columna son 2 y 0 (de
arriba abajo); los de la segunda: −3 y 1; y los de la tercera: 0 y 1.
Matriz de coeficientes (o
asociada) de un sistema de
ecuaciones lineales
53
Consideremos un sistema de n ecuaciones lineales en las m incóg-
nitas x1 , x2 , . . . , xm :
⎧
a11 x1 + a12 x2 + · · · + a1m xm = c1
⎪
⎪
⎪
⎪
⎨
a21 x1 + a22 x2 + · · · + a2m xm = c2
⎪
⎪ ........................................
⎪
⎪
⎩
an1 x1 + an2 x2 + · · · + anm xm = cn .
(25)
Se denomina matriz de coeficientes (o matriz asociada) del sistema la matriz de orden (n, m) siguiente:
⎛
a11
⎜
⎜ a21
⎜
⎜ .
⎜ ..
⎝
an1
a12
a22
..
.
an2
...
...
..
.
...
⎞
a1m
⎟
a2m ⎟
⎟
.
.. ⎟
. ⎟
⎠
anm
Si i y j son dos números naturales tales que 1 i n y 1 j m, nótese
que los términos de la i-ésima fila de esta matriz son los coeficientes de la
i-ésima ecuación del sistema de ecuaciones lineales, y que los términos de
la j-ésima columna de la matriz son los coeficientes que acompañan a la
j-ésima incógnita en las ecuaciones del sistema.
Recordemos el sistema (23):
⎧
⎪
⎪
⎪ x1 + x2 − 2x3 = 0
⎨
+ 2x3 = 1
x1
⎪
⎪
⎪
⎩ x − x + 7x = 3.
1
2
3
Por ejemplo, la matriz de coeficientes del sistema de ecuaciones lineales (23) es la siguiente matriz de orden (3, 3):
⎛
⎞
1
1 −2
⎜
⎟
0
2⎠.
⎝1
1 −1
7
I.2. DEFINICIONES Y PROPIEDADES
Los términos de la segunda fila, verbigracia, son 1, 0 y 2, precisamente los
coeficientes de la segunda ecuación del sistema; y los de la tercera columna
son −2, 2 y 7, justamente los coeficientes que acompañan a la incógnita x3
(tercera incógnita) en el sistema. Nótese que hay tantas filas en la matriz
como ecuaciones en el sistema, y tantas columnas en una como incógnitas
en el otro.
Matriz ampliada de un
sistema de ecuaciones
lineales
54
La matriz de coeficientes de un sistema de ecuaciones lineales no
consigna los términos independientes del sistema; solo sus coeficientes.
Dado el sistema de ecuaciones lineales (25), se denomina matriz ampliada
del sistema la matriz de orden (n, m + 1) siguiente:
⎛
a11
⎜
⎜ a21
⎜
⎜ .
⎜ ..
⎝
an1
a12
a22
..
.
an2
...
...
..
.
...
a1m
a2m
..
.
anm
⎞
c1
⎟
c2 ⎟
⎟
.
.. ⎟
. ⎟
⎠
cn
Esta matriz se diferencia de la de coeficientes en que tiene una columna más,
cuyos términos son los términos independientes del sistema. Asimismo, se
suele trazar una raya vertical para separar la última columna de las demás
y así enfatizarla.
Volvamos a recordar el sistema (23):
⎧
⎪
x1 + x2 − 2x3 = 0
⎪
⎪
⎨
+ 2x3 = 1
x1
⎪
⎪
⎪
⎩ x − x + 7x = 3.
1
2
Por ejemplo, la matriz ampliada del sistema (23) es esta matriz de orden (3, 4):
⎛
1
⎜
⎝1
1
3
1
0
−1
−2
2
7
⎞
0
⎟
1⎠.
3
Designaremos la matriz de coeficientes de un sistema de ecuaciones lineales con la letra A (salvo que esté ya empleada en la notación de otra
cosa), y distinguiremos la matriz ampliada con un acento circunflejo coronando la misma letra que designa la matriz de los coeficientes; habitual Por ejemplo, para el sistema (23) podemos escribir:
mente, pues, A.
⎛
1
⎜
A = ⎝1
1
1
0
−1
⎞
−2
⎟
2⎠
7
⎛
y
1
=⎜
A
⎝1
1
1
0
−1
−2
2
7
⎞
0
⎟
1⎠.
3
Transformaciones elementales por filas de una matriz
Intercambio de filas
55
Hemos visto (cf. § 49, p. 58) varios tipos de operaciones entre las
ecuaciones de un sistema de ecuaciones lineales que lo transforman en otro
sistema equivalente. A saber: intercambiar dos ecuaciones, multiplicar una
I. SISTEMAS DE ECUACIONES LINEALES
ecuación por un número no nulo, y sumar a una ecuación un múltiplo de
otra. Estas operaciones entre las ecuaciones de un sistema tienen un correlato como transformaciones entre las filas de las matrices ampliadas (y por
ende también de las matrices de coeficientes) correspondientes.
En primer lugar, al intercambio de ecuaciones en el sistema le corresponde un intercambio de filas en la matriz. Por ejemplo, si en el sistema (23)
intercambiamos las filas primera y segunda, los dos sistemas, antes y después del intercambio, son respectivamente estos:
⎧
⎧
⎪
⎪
x
+ 2x3 = 1
⎪
⎪
⎪ x1 + x2 − 2x3 = 0
⎪
⎨
⎨ 1
+ 2x3 = 1 y
x1
x1 + x2 − 2x3 = 0
⎪
⎪
⎪
⎪
⎪
⎪
⎩ x − x + 7x = 3
⎩ x − x + 7x = 3,
1
2
3
1
2
3
y las matrices ampliadas correspondientes a estos sistemas son, respectivamente, las siguientes:
⎛
1
⎜
⎝1
1
1
0
−1
−2
2
7
⎞
0
⎟
1⎠
3
⎛
y
1
⎜
⎝1
1
0
1
−1
2
−2
7
⎞
1
⎟
0⎠;
3
apreciamos que, efectivamente, se ha producido una permutación entre las
filas primera y segunda. Esta transformación: “intercambiar las filas primera y segunda de la matriz”, se denotará así: F1 ↔ F2 , y escribiremos:
⎛
1
⎜
⎝1
1
1
0
−1
−2
2
7
⎛
⎞
0
1
⎟ F1 ↔F2 ⎜
1 ⎠ →
⎝1
3
1
0
1
−1
2
−2
7
⎞
1
⎟
0⎠.
3
Recíprocamente, si en la matriz ampliada del sistema (23) ejecutáramos la
¿Puede comprobarlo el lector?
transformación de permutar las filas primera y segunda, el sistema cuya
matriz ampliada es la matriz obtenida diferiría del original en que tendría
permutadas sus ecuaciones primera y segunda.
En general, podemos afirmar: a la operación de intercambiar las ecuaciones i-ésima y j-ésima de un sistema de ecuaciones lineales le corresponde la transformación de intercambiar las filas i-ésima y j-ésima de la
matriz ampliada (con i y j dos números naturales comprendidos entre 1
Fi ↔ Fj
y el número de ecuaciones del sistema —o de filas de la matriz—). Esta
transformación en la matriz se denota así: Fi ↔ Fj .
Multiplicar una fila por un
número no nulo
56
De manera similar, a la multiplicación de la ecuación (de un sistema
de ecuaciones lineales) por un número no nulo le corresponde la multiplicación de una fila (de la matriz ampliada correspondiente) por el número
I.2. DEFINICIONES Y PROPIEDADES
no nulo. La transformación, ejecutable en matrices, de multiplicar la fila
Fi ← bFi
i-ésima por un número no nulo b se denotará así: Fi ← bFi (siendo i un
número natural comprendido entre 1 y el número de filas de la matriz).
Por ejemplo, podemos escribir:
⎛
⎞
⎛
1
1 −2 0
1
⎜
⎟ F ←(−1)F2 ⎜
4 1 ⎠ 2→
⎝ 0
⎝ 0 −1
0
0
1 1
0
1
1
0
⎞
0
⎟
−1 ⎠ ,
1
−2
−4
1
(26)
para indicar que hemos multiplicado la segunda fila de la primera matriz
por el número (no nulo) −1. Nótese que todos los términos de la segunda
fila quedan multiplicados por −1, y que los términos de las restantes filas
no se ven alterados.
Nota bene
Multiplicar una fila de una matriz por un número significa multiplicar
todos y cada uno de los términos de tal fila por el número.
Continuando con el ejemplo, obsérvese que la primera de las matrices
escritas en (26) es la matriz ampliada del sistema (24) (cf. p. 60), y que la segunda es la matriz ampliada del primer sistema escrito en el § 51 (cf. p. 61).
Recordamos ambos sistemas:
⎧
⎪
⎪
⎪ x1 + x2 − 2x3 = 0
⎨
−x2 + 4x3 = 1
⎪
⎪
⎪
⎩
x =1
3
y
⎧
⎪
⎪
⎪ x1 + x2 − 2x3 = 0
⎨
x2 − 4x3 = −1
⎪
⎪
⎪
⎩
x3 = 1.
Apreciamos así lo que hicimos al principio del citado § 51: se ha obtenido el
segundo sistema del primero multiplicando la segunda ecuación por −1.
Sumar a una fila un múltiplo
de otra
57
Finalmente, la operación (en un sistema de ecuaciones lineales) de
sumar a una ecuación un múltiplo de otra se corresponde con la transformación (en la matriz ampliada) de sumar a una fila un múltiplo de otra. La
transformación, en una matriz, de sumar a la fila i-ésima el resultado de
Fi ← Fi + bFj
multiplicar por un número b (nulo o no) la fila j-ésima se designará de esta
forma: Fi ← Fi + bFj (aquí i y j denotan números naturales comprendidos
entre 1 y el número de filas de la matriz).
La transformación
F2 ← F2 + (−1)F1
también se puede denotar de
esta forma: F2 ← F2 − F1 .
A modo de ejemplo, podemos escribir:
⎛
⎞
⎛
1
1
1 −2 0
⎟ F2 ←F2 +(−1)F1 ⎜
⎜
0
2 1 ⎠ →
⎝ 0
⎝1
1 −1
7 3
1
1
−1
−1
−2
4
7
⎞
0
⎟
1⎠,
3
(27)
y así señalar que, en la primera matriz escrita, se suma a la segunda fila el
resultado de multiplicar la primera fila por −1. Nótese que las filas primera
I. SISTEMAS DE ECUACIONES LINEALES
y tercera no se han alterado, y que a cada término de la segunda fila se le ha
sumado el término correspondiente de la primera previamente multiplicado
La primera fila, tras multiplicarla por −1, queda:
−1
−1
2
por −1:
+
0.
Nota bene
1
0
2
1
−1
−1
2
0
0
−1
4
1.
En esta transformación, la fila que se multiplica por el número —la
primera en el ejemplo— queda finalmente inalterada. Al ejecutar en una matriz
la transformación Fi ← Fi +bFj , solo puede verse cambiada la fila i-ésima; todas
las demás, y en particular la j-ésima, permanecen inalteradas.
Entre las matrices escritas en (27), la primera es la matriz ampliada del
sistema (23), y la segunda es la matriz ampliada del segundo sistema escrito
en el § 50 (cf. p. 59). Los recordamos; respectivamente:
⎧
⎪
x + x2 − 2x3 = 0
⎪
⎪
⎨ 1
+ 2x3 = 1
x1
⎪
⎪
⎪
⎩ x − x + 7x = 3
1
2
3
y
⎧
⎪
x + x2 − 2x3 = 0
⎪
⎪
⎨ 1
−x2 + 4x3 = 1
⎪
⎪
⎪
⎩ x − x + 7x = 3.
1
2
3
Como vimos en el citado § 50, el segundo de estos dos sistemas se obtenía
del primero precisamente sumando a la segunda ecuación la primera multiplicada por −1.
Transformaciones
elementales por filas de una
matriz
58
Vemos, pues, tres tipos de transformaciones que se ejecutan en
matrices:
• intercambiar dos filas;
• multiplicar una fila por un número no nulo;
• sumar a una fila un múltiplo de otra.
Las llamaremos transformaciones elementales por filas de una matriz, de
tipo i, ii y iii, respectivamente.
En los parágrafos anteriores, hemos ido presentando las transformaciones elementales como un correlato en las matrices ampliadas de las operaciones que realizábamos en los sistemas de ecuaciones lineales correspondientes (intercambio de ecuaciones, multiplicación de una ecuación por un
número no nulo y suma de una ecuación y un múltiplo de otra). Según lo
visto en el § 49 (cf. p. 58), estas operaciones entre ecuaciones nos llevan
un sistema de ecuaciones lineales a otro equivalente. De acuerdo con ello,
podemos entonces afirmar:
I.2. DEFINICIONES Y PROPIEDADES
Si a la matriz ampliada de un sistema de ecuaciones lineales se le aplica
una transformación elemental, la matriz resultante es la matriz ampliada
de un sistema de ecuaciones lineales equivalente al original.
De nuevo, el sistema de
ecuaciones del ejemplo del
§ 50 (cf. p. 59)
59
De esta forma, dado un sistema de ecuaciones lineales, podemos
escribir su matriz ampliada y aplicarle transformaciones elementales sucesivas hasta llegar a la matriz ampliada de algún sistema fácil de resolver (o,
en su caso, del que podamos fácilmente concluir que no admite solución).
El sistema obtenido será equivalente al sistema dado.
Como ilustración de ello, consideremos de nuevo el sistema de ecuaciones lineales (23) (cf. p. 59):
⎧
⎪
x + x2 − 2x3 = 0
⎪
⎪
⎨ 1
+ 2x3 = 1
x1
⎪
⎪
⎪
⎩ x − x + 7x = 3,
1
2
3
y apliquemos a su matriz ampliada las transformaciones elementales que se
corresponden con las operaciones entre ecuaciones que llevamos a cabo en
el § 50 (cf. p. 59), y también en el § 51 (cf. p. 61). La matriz ampliada es:
⎛
⎞
1
1 −2 0
⎟
=⎜
0
2 1⎠,
A
⎝1
1 −1
7 3
El lector puede comparar las
operaciones entre ecuaciones
del § 50 con las realizadas
aquí entre las filas de las matrices ampliadas.
y podemos escribir:
⎛
1
1
=⎜
0
A
⎝1
1 −1
−2
2
7
⎛
⎞
0
1
⎟ F2 ←F2 −F1 ⎜
1 ⎠ →
⎝0
3
1
⎛
1
⎜
→
⎝0
0
F3 ←F3 −F1
⎛
1
⎜
0
→
⎝
0
F3 ←F3 −2F2
1
−1
−1
−2
4
7
⎞
0
⎟
1⎠
3
1
−1
−2
−2
4
9
⎞
0
⎟
1⎠
3
1
−1
0
−2
4
1
⎞
0
⎟
.
1⎠ = A
1
, es la matriz ampliada del sistema de ecuaciones
La matriz obtenida: A
lineales (24) (cf. p. 60), el cual recordamos:
⎧
⎪
x + x2 − 2x3 = 0
⎪
⎪
⎨ 1
−x2 + 4x3 = 1
⎪
⎪
⎪
⎩
x3 = 1.
I. SISTEMAS DE ECUACIONES LINEALES
Este sistema puede considerarse fácil de resolver; se resolvió, de hecho, por
sustitución hacia atrás en el citado § 50.
, y ello de acuerPero continuemos con la transformación de la matriz A
do con lo realizado en el § 51:
⎛
1
= ⎜
A
⎝0
0
1
−1
0
−2
4
1
⎞
⎛
0
1
⎟ F2 ←(−1)F2 ⎜
1 ⎠ →
⎝ 0
1
0
⎛
1
⎜
→
⎝ 0
0
F1 ←F1 −F2
⎛
1
⎜
→
⎝ 0
0
F1 ←F1 −2F3
F2 ←F2 +4F3
El orden de aplicación de estas dos transformaciones es
de arriba abajo.
1
1
0
−2
−4
1
⎞
0
⎟
−1 ⎠
1
0
1
0
2
−4
1
⎞
1
⎟
−1 ⎠
1
0
1
0
0
0
1
⎞
−1
⎟
.
3⎠ = A
1
es precisamente el
El sistema cuya matriz ampliada es la matriz final A
último que obteníamos en el citado § 51; lo escribimos aquí de nuevo:
⎧
⎪
x
= −1
⎪
⎪
⎨ 1
x2
= 3
⎪
⎪
⎪
⎩
x3 = 1.
Su solución salta a la vista: es única y es la terna (−1, 3, 1).
Matriz escalonada
Fila nula
60
Dada una matriz, una fila nula es una fila cuyos términos son todos
nulos. Por ejemplo, dada la matriz:
⎛
0 0
⎜
⎜0 0
⎜
⎜0 0
⎝
6 7
0
1
0
2
⎞
0
⎟
0⎟
⎟,
0⎟
⎠
−1
acontece que sus filas primera y tercera son nulas, y que no lo son sus filas
En una fila nula, todos los términos son nulos; en una fila
no nula, alguno de los términos es no nulo.
segunda y cuarta. En cuanto hay un término no nulo en una fila, esta fila ya
no es nula.
Por supuesto, hay matrices sin filas nulas. Verbigracia:
⎛
1
⎜
⎝0
1
0
−2
0
⎞
−1
⎟
0⎠.
0
I.2. DEFINICIONES Y PROPIEDADES
Y hay matrices con todas sus filas nulas, como
⎛
⎞
0 0
0 0 0
⎜
⎟
o ⎝0 0⎠.
0 0 0
0 0
De una matriz con todas sus filas nulas (o lo que es lo mismo: con todos
Matriz nula
Ceros iniciales
sus términos nulos) diremos es una matriz nula.
61
Dado un número natural k, se dice que una fila no nula de una
matriz tiene k ceros iniciales si los k primeros términos de la fila son nulos
y el (k + 1)-ésimo no lo es.
Por ejemplo, en la matriz
⎛
0
⎜
⎜0
⎜
⎜0
⎝
6
0
0
0
7
0
1
0
2
⎞
0
⎟
0⎟
⎟,
0⎟
⎠
−1
su segunda fila —que es no nula— presenta k = 2 ceros iniciales, pues los
dos primeros términos de esta fila son nulos pero el tercero ya no lo es. Su
cuarta fila —que tampoco es nula— no tiene ceros iniciales.
Otro ejemplo. Para la matriz
⎛
0 1
⎜
⎝0 0
0 0
−2
0
0
⎞
0
⎟
−1 ⎠ ,
0
podemos afirmar: en la primera fila hay un cero inicial; en la segunda, tres.
Y la última fila es nula.
Matriz escalonada
62
Una matriz escalonada es una matriz con la siguiente propiedad: o
bien es nula, o bien sus filas no nulas son las primeras, y cada una de ellas,
salvo la primera, tiene más ceros iniciales que su precedente.
Por ejemplo, la última matriz escrita en el § 61:
⎛
⎞
0 1 −2
0
⎜
⎟
0 −1 ⎠ ,
⎝0 0
0 0
0
0
es escalonada: tiene dos filas no nulas y son las primeras, y la segunda tiene
más ceros iniciales que la primera.
Otro ejemplo. Comparemos estas dos matrices:
⎛
⎞
⎛
3 5 −1
0
3 5 −1
⎜
⎟
⎜
⎜0 0
⎟
⎜0 0
1
−2
1
⎜
⎟ y ⎜
⎜0 0
⎟
⎜0 0
0
3
2
⎝
⎠
⎝
0 0
0
0
0 0
0
⎞
0
⎟
−2 ⎟
⎟.
3⎟
⎠
0
I. SISTEMAS DE ECUACIONES LINEALES
La primera es escalonada: tiene tres filas no nulas, son las tres primeras
de la matriz, y cada una de ellas, salvo la primera, tiene más ceros iniciales
que la anterior (ninguno la primera, dos la segunda y tres la tercera). Pero
la segunda matriz no es escalonada: aunque sus filas no nulas también son
las primeras, sus filas segunda y tercera tienen la misma cantidad de ceros
iniciales.
Más ejemplos
63
Incidentalmente, note el lector
que la segunda de las matrices
solo presenta una columna.
Estas dos matrices no son escalonadas:
⎛
⎞
⎛
⎞
1 2 2
1
⎜
⎟
⎜
⎟
⎝ 0 0 0 ⎠ y ⎝ −1 ⎠ .
0 1 0
0
La primera no cumple que sus filas no nulas sean las primeras; la segunda
sí lo cumple, pero sus dos primeras filas tienen la misma cantidad de ceros
iniciales (en este caso, ninguno).
La tercera de estas matrices
solo tiene una fila. Toda matriz con una sola fila es escalonada. ¿Se da cuenta el lector
de la razón?
Estas cuatro matrices sí son escalonadas:
⎛ ⎞
1
0
⎜ ⎟
1 −1 0 2
,
⎝0⎠,
0
0
⎛
y
1
⎜
⎝0
0
2
1
0
⎞
2
⎟
0⎠.
1
Obsérvese que la segunda es una matriz nula: las matrices nulas son escalonadas.
Pivote
64
En una matriz escalonada, el primer término no nulo de cada fila
recibe el nombre de pivote.
Si reescribimos las matrices escalonadas que hemos visto en los §s 62
y 63 de forma que destacamos en cada una todos sus pivotes con un recuadro, podemos escribir:
⎛
0
⎜
⎝0
0
1
0
0
−2
0
0
⎞
0
⎟
−1 ⎠
0
⎛
3
⎜
⎜0
⎜
⎜0
⎝
0
y
5
0
0
0
−1
1
0
0
⎞
0
⎟
−2 ⎟
⎟,
3⎟
⎠
0
y también:
⎛ ⎞
1
⎜ ⎟
⎝0⎠,
0
Algunas propiedades de los
pivotes
65
0
,
0
1
−1
0
2
⎛
y
1
⎜
⎝0
0
2
1
0
⎞
2
⎟
0⎠.
1
Nótese que las filas nulas de una matriz escalonada no tienen pivo-
tes; en particular, una matriz nula —que es escalonada— no tiene ningún
pivote. Es de observar también que cada fila en una matriz escalonada tiene
a lo más un pivote; y exactamente un pivote si la fila es no nula.
I.2. DEFINICIONES Y PROPIEDADES
Nota bene
En una matriz escalonada, los pivotes figuran exactamente en las
primeras filas de la matriz, y hay tantos como filas no nulas.
También acontece que cada columna en una matriz escalonada tiene a
lo más un pivote. En efecto: si una columna tuviera dos pivotes, habría dos
filas con su primer término no nulo en la misma posición, lo que sería tanto
como decir que habría dos filas con el mismo número de ceros iniciales: ello
estaría en contradicción con el supuesto de que la matriz es escalonada.
En una matriz escalonada, el número de pivotes es menor o igual que el
número de filas y menor o igual que el número de columnas.
Forma escalonada de una
matriz. Escalonar una matriz
66
Dada una matriz cualquiera, es posible obtener a partir de ella, me-
diante la aplicación de transformaciones elementales sucesivas, una matriz
escalonada. De la matriz obtenida se dice que es una forma escalonada de
la matriz dada; también se dice que hemos escalonado la matriz original.
Recordemos el sistema (23):
⎧
⎪
x1 + x2 − 2x3 = 0
⎪
⎪
⎨
+ 2x3 = 1
x1
⎪
⎪
⎪
⎩ x − x + 7x = 3.
1
2
3
Para ver un ejemplo, recordemos el § 59 (cf. p. 67), en el que trabajamos
con la matriz ampliada del sistema de ecuaciones lineales (23) (cf. p. 59):
⎛
1
⎜
1
A=⎝
1
1
0
−1
−2
2
7
⎞
0
⎟
1⎠.
3
le aplicamos varias transformaciones elementales sucesivas
A esta matriz A
que nos llevaron a esta otra matriz:
⎛
1
= ⎜
A
⎝0
0
1
−1
0
−2
4
1
⎞
0
⎟
1⎠.
1
es escalonada (de hecho, nos
El lector puede observar que la matriz A
es, pues, una forma
hemos permitido señalar ya sus pivotes). La matriz A
escalonada de la matriz A.
Recordemos el sistema (24):
⎧
⎪
⎪
⎪ x1 + x2 − 2x3 = 0
⎨
−x2 + 4x3 = 1
⎪
⎪
⎪
⎩
x = 1.
3
es la matriz ampliada de un sistema de
Adicionalmente, la matriz A
ecuaciones lineales: el sistema (24) (cf. p. 60), el cual es un ejemplo de
sistema compatible determinado que puede resolverse fácilmente por sustitución hacia atrás (cf. § 50, p. 59). Cuando la matriz ampliada de un sistema
de ecuaciones lineales es escalonada, el sistema puede resolverse por sustitución hacia atrás. Ello también es válido para sistemas compatibles indeterminados; remitimos al lector al futuro § 92 (cf. p. 95) para un ejemplo.
I. SISTEMAS DE ECUACIONES LINEALES
Un procedimiento para
escalonar una matriz
67
Comprobemos ahora que efectivamente es posible escalonar cual-
quier matriz. Describimos un procedimiento para ello, y lo ejemplificamos
con esta matriz:
⎛
0
⎜
A=⎝ 2
−1
1
4
0
1
6
−1
⎞
1
⎟
0⎠.
2
En primer lugar, nos vamos a la primera columna que tenga algún térSi la matriz de partida tuviera todas sus columnas nulas
(de forma que no es posible
aplicar este paso), entonces se
trataría de una matriz nula: la
matriz original ya sería escalonada.
mino no nulo (la primera columna no nula), y seleccionamos en ella un término no nulo. Mediante una adecuada transformación elemental de tipo i
(intercambiar dos filas), conseguimos que este término no nulo figure como
el primero de su columna. Este término será el pivote de la primera fila; vale
la pena recuadrarlo para enfatizar que será un pivote.
En el caso de la matriz A, su primera columna no nula es la primera
columna, que tiene dos términos no nulos; seleccionamos uno cualquiera de
ellos, verbigracia el último, que es igual a −1. La transformación elemental
(de tipo i) que intercambia las filas primera y tercera nos sitúa este término
como el primero de su columna. No se nos olvida recuadrarlo:
⎛
0
⎜
A=⎝ 2
−1
1
4
0
1
6
−1
⎞
⎛
1
−1
⎟ F1 ↔F3 ⎜
0 ⎠ →
⎝ 2
2
0
0
4
1
−1
6
1
⎞
2
⎟
0⎠.
1
En segundo lugar, “anulamos” los términos que están por debajo del pivote en su misma columna; esto se logra con transformaciones elementales
de tipo iii.
En el ejemplo, con una sola transformación elemental lo conseguimos:
⎛
0
4
1
−1
⎜
⎝ 2
0
−1
6
1
⎛
⎞
2
−1
⎟ F2 ←F2 +2F1 ⎜
0 ⎠ →
⎝ 0
1
0
0
4
1
−1
4
1
⎞
2
⎟
4⎠.
1
En tercer lugar, “ignoramos” la primera fila, y procedemos con el resto
de la matriz como en los pasos anteriores.
Se trata de trabajar con la matriz “como si no estuviera” la
primera fila:
⎛
⎞
·
·
·
·
⎜
⎟
⎝0 4 4 4⎠.
0 1 1 1
Así, ¿cuál es la primera columna no nula? La segunda.
En nuestro caso, este tercer paso implica que busquemos un término no
nulo en la segunda columna. Podemos elegir entre el término igual a 4 y el
término igual a 1; nos quedamos, por ejemplo, con el primero. Procedemos
a anular el término por debajo de él:
⎛
−1
⎜
⎝ 0
0
0
4
1
−1
4
1
⎛
⎞
2
−1
⎟ F3 ←F3 +(−1/4)F2 ⎜
4 ⎠ →
⎝ 0
1
0
0
4
0
−1
4
0
⎞
2
⎟
4⎠.
0
I.2. DEFINICIONES Y PROPIEDADES
Esta matriz que hemos obtenido:
⎛
−1
⎜
A =⎝ 0
0
0
4
0
−1
4
0
⎞
2
⎟
4⎠,
0
ya es escalonada. Es una forma escalonada de la matriz A. Como acontece
con toda matriz escalonada, tiene tantos pivotes como filas no nulas —dos
en este caso—, y están situados en las primeras filas, uno en cada una.
La forma escalonada de una
matriz no es única en general
68
En el procedimiento descrito en el § 67 para escalonar una matriz
—el cual hemos aplicado a la matriz A vista en ese parágrafo—, se nos
pide en su primer paso que busquemos la primera columna no nula —la
primera columna, en el caso de la matriz A—, y que seleccionemos en ella
un término no nulo. Para la matriz A del parágrafo citado, en este primer
paso fue elegido el término igual a −1, pero podríamos haber elegido el
término igual a 2. Es decir:
⎛
0 1
1
⎜
6
A=⎝ 2 4
−1 0 −1
⎞
⎛
1
2
⎟ F ↔F2 ⎜
0 ⎠ 1→
⎝ 0
2
−1
4
1
0
6
1
−1
⎞
0
⎟
1⎠.
2
De esta forma, el primer paso del proceso para escalonar la matriz A nos
da ahora un pivote para la primera fila igual a 2. Continuemos con el procedimiento a partir de aquí. Anulamos entonces los términos de la columna
del pivote que están por debajo de él:
⎛
⎛
⎞
2 4
6 0
2
⎜
⎟ F3 ←F3 +(1/2)F1 ⎜
0
1
1
1
⎝
⎝0
⎠ →
−1 0 −1 2
0
4
1
2
6
1
2
⎞
0
⎟
1⎠.
2
Y seleccionamos un término no nulo de la segunda columna (con la primera
fila ignorada), verbigracia el que es igual a 1, y anulamos el término que
tiene debajo en su misma columna:
⎛
⎛
⎞
2 4 6 0
2
⎜
⎟ F3 ←F3 −2F2 ⎜
⎝0
⎝ 0 1 1 1 ⎠ →
0 2 2 2
0
4
1
0
6
1
0
⎞
0
⎟
1⎠.
0
La matriz recién obtenida es una matriz escalonada. Ha sido obtenida a partir de la matriz A aplicando a esta transformaciones elementales sucesivas.
También es, por tanto, una forma escalonada de la matriz A, como lo era la
matriz A deducida en el § 67.
En general, la forma escalonada de una matriz no es única (solo es única
si la matriz es nula). Por eso, dada una matriz, hablamos de una forma
escalonada de la matriz.
I. SISTEMAS DE ECUACIONES LINEALES
Unicidad en el número de
pivotes de todas las formas
escalonadas de una matriz
69
Para la matriz A con la que hemos trabajado en los § 67 y 68, hemos
obtenido, pues, dos formas escalonadas; respectivamente:
⎛
−1
⎜
⎝ 0
0
0
4
0
⎞
2
⎟
4⎠
0
−1
4
0
⎛
2
⎜
⎝0
0
y
4
1
0
6
1
0
⎞
0
⎟
1⎠.
0
Si las comparamos, vemos que ambas matrices escalonadas presentan el
mismo número de pivotes —dos en este caso—, y además en las mismas
columnas —primera y segunda.
Realmente, este es un ejemplo de un resultado general importante: todas
las formas escalonadas de una misma matriz tienen el mismo número de
pivotes, y estos pivotes figuran en las mismas columnas.
La justificación de este resultado debe dejarse para más adelante, en este
mismo capítulo (cf. § 99, p. 101).
Otro ejemplo en el que
escalonamos una matriz
70
Busquemos, con el procedimiento descrito en el § 67, una forma
escalonada de esta matriz:
⎛
1
⎜
⎜ −1
A=⎜
⎜ 0
⎝
1
⎞
0
⎟
0⎟
⎟.
1⎟
⎠
−1
0
2
−1
0
En primer lugar, seleccionamos la primera columna no nula de la matriz,
la cual es la primera, y en ella elegimos un término no nulo; nos quedamos,
por ejemplo, con el primero, que es igual a 1. Al haber podido elegir el primero, no hay que aplicar en este paso ninguna transformación elemental de
tipo i. Señalamos el término, en tanto es el futuro pivote de la primera fila:
⎛
1
⎜
⎜ −1
A=⎜
⎜ 0
⎝
1
⎞
0
⎟
0⎟
⎟.
1⎟
⎠
−1
0
2
−1
0
En segundo lugar, “anulamos” los términos que están por debajo del
término señalado y en su misma columna. Ello se consigue con transformaciones elementales adecuadas de tipo iii:
⎛
1
⎜
⎜ −1
⎜
⎜ 0
⎝
1
0
2
−1
0
⎛
⎞
0
1
⎜
⎟
⎜
0⎟
0
F
←F
+F
1
⎟ 22→
⎜
⎜0
1⎟
⎝
⎠
−1
1
0
2
−1
0
⎛
⎞
0
1
⎜
⎟
⎜
0⎟
0
F
←F
−F
1
⎟ 44→
⎜
⎜0
1⎟
⎝
⎠
−1
0
0
2
−1
0
⎞
0
⎟
0⎟
⎟.
1⎟
⎠
−1
I.2. DEFINICIONES Y PROPIEDADES
⎛
·
⎜
⎜0
⎜
⎜0
⎝
0
⎞
·
⎟
0⎟
⎟
1⎟
⎠
−1
·
2
−1
0
En tercer lugar, “ignoramos” la primera fila y procedemos con el resto
de la matriz como en los pasos anteriores. La primera columna no nula
es ahora la segunda, y debemos elegir un término no nulo de ella; nos
quedamos, verbigracia, con el que es igual a 2. Este término será el pivote de la segunda fila. Anulamos los términos que están debajo de él en su
misma columna:
⎛
1
⎜
⎜0
⎜
⎜0
⎝
0
⎛
·
⎜
⎜·
⎜
⎜0
⎝
0
·
·
0
0
⎞
·
⎟
·⎟
⎟
1⎟
⎠
−1
⎛
⎞
0
1
⎜
⎟
⎜
⎟
0 ⎟ F3 ←F3 +(1/2)F2 ⎜ 0
→
⎜
1⎟
⎝0
⎠
−1
0
0
2
−1
0
0
2
0
0
⎞
0
⎟
0⎟
⎟.
1⎟
⎠
−1
A continuación, debemos “ignorar” también la segunda fila y proceder con
la matriz restante como en los dos primeros pasos. La primera columna
no nula es ahora la tercera, y en ella elegimos un término no nulo; por
ejemplo, escogemos el que es igual a 1: este será el pivote de la tercera
fila. Terminamos anulando el término que, en esta tercera columna, queda
debajo del nuevo pivote:
⎛
1 0
⎜
⎜0 2
⎜
⎜0 0
⎝
0 0
⎛
⎞
0
1
⎜
⎟
⎜
0⎟
0
F
←F
+F
3
⎟ 44→
⎜
⎜0
1⎟
⎝
⎠
−1
0
0
2
0
0
⎞
0
⎟
0⎟
⎟.
1⎟
⎠
0
La última matriz que hemos obtenido es escalonada, y tiene tres pivotes. Es
una forma escalonada de la matriz A.
Otro ejemplo más
71
Busquemos una forma escalonada de esta matriz:
⎛
1
⎜
B = ⎝0
1
−1
0
3
⎞
2
⎟
1⎠.
1
La primera columna no nula de la matriz es la primera; nos quedamos en
esta con su primer término (que es no nulo): será el pivote de la primera fila.
Anulamos los términos que figuran debajo del pivote en su misma columna:
⎛
1
⎜
B = ⎝0
1
⎛
·
⎜
⎝0
0
·
0
4
⎞
·
⎟
1⎠
−1
−1
0
3
⎛
⎞
2
1
⎟ F3 ←F3 −F1 ⎜
1 ⎠ →
⎝0
1
0
−1
0
4
⎞
2
⎟
1⎠.
−1
A continuación, ignoramos la primera fila. Con ello, la primera columna
no nula es la segunda. Pero esta columna solo tiene un término no nulo: el
que es igual a 4, y debemos colocarlo como el primero de su columna. Al
I. SISTEMAS DE ECUACIONES LINEALES
tener ignorada la primera fila, esto significa que debemos llevar tal término
hasta la segunda fila. Lo conseguimos con una transformación elemental de
tipo i:
⎛
1
⎜
⎝0
0
⎛
·
⎜
⎝·
0
·
·
0
⎞
·
⎟
·⎠
1
⎛
⎞
2
1
⎟ F2 ↔F3 ⎜
1 ⎠ →
⎝0
0
−1
−1
0
4
−1
4
0
⎞
2
⎟
−1 ⎠ .
1
Finalmente, ignoramos también la segunda fila, lo que nos deja solo una
columna no nula: la tercera, y solo un término no nulo en ella. Este es
directamente el pivote de la tercera fila. El procedimiento ha terminado y
hemos llegado a:
⎛
1
⎜
B = ⎝ 0
0
−1
4
0
⎞
2
⎟
−1 ⎠ .
1
La matriz B es efectivamente escalonada: una forma escalonada de la matriz B. Como vemos, tiene tres pivotes.
Matriz escalonada reducida
Matriz escalonada reducida
72
Una matriz escalonada reducida es una matriz escalonada con es-
tas dos propiedades adicionales: todos sus pivotes (si los tiene) son iguales
a 1 (son unitarios), y en toda columna donde hay un pivote es este el único
término no nulo.
Por ejemplo, estas tres matrices son escalonadas reducidas:
⎛
⎞
⎛
⎞
⎞
⎛
1 2 0
⎜
⎟
1 0 −2 3
1 0 0
⎜0 0 1⎟
⎜
⎟
⎟
⎜
⎟
1 1⎠, ⎝0 1 0⎠ y ⎜
⎝0 1
⎜0 0 0⎟.
⎝
⎠
0 0
0 0
0 0 1
0 0 0
Las tres son escalonadas, sus pivotes son iguales a 1, y las columnas en las
que están los pivotes son tales que el único término no nulo de ellas es el
pivote mismo.
Por el contrario, estas otras tres matrices no son escalonadas reducidas:
⎛
1
⎜
⎝0
0
0
1
1
−2
1
0
⎞
3
⎟
1⎠,
0
1
0
0
2
−1
0
⎛
y
1
⎜
⎝0
0
0
1
0
⎞
−1
⎟
0⎠.
1
La primera no es escalonada; la segunda sí lo es, pero presenta al menos un
pivote distinto de 1; la tercera también es escalonada, y sí presenta todos
sus pivotes unitarios, pero en la columna de uno de ellos —la tercera— hay
un término no nulo además del pivote.
I.2. DEFINICIONES Y PROPIEDADES
Forma escalonada reducida
de una matriz
73
Dada una matriz cualquiera, también es posible obtener a partir de
ella, mediante la aplicación de transformaciones elementales sucesivas, una
matriz escalonada reducida. De la matriz obtenida se dice que es la forma
escalonada reducida de la matriz dada.
Para ver un ejemplo, recordemos de nuevo el § 59 (cf. p. 67). Allí trabajamos —entre otras— con estas dos matrices:
⎛
⎛
⎞
1
1 −2 0
1
⎟
=⎜
= ⎜
0
2 1⎠ y A
A
⎝1
⎝0
1 −1
7 3
0
Para recordar con más preci obteníamos
sión, a partir de A
, y a partir de
una matriz A
.
esta llegábamos a A
0
1
0
0
0
1
⎞
−1
⎟
3⎠ ,
1
y podíamos obtener la segunda a partir de la primera mediante la aplicación
es
de transformaciones elementales sucesivas. Acontece que la matriz A
escalonada reducida: además de ser escalonada, sus pivotes son unitarios
y en la columna de cada uno de ellos el único término no nulo es el propio
es la forma escalonada
pivote. Podemos afirmar, pues, que la matriz A
reducida de la matriz A.
Unicidad de la forma
escalonada
Nota
Habrá observado el lector que hablamos de la forma escalonada reducida.
Esto es así porque la forma escalonada reducida de una matriz es única (a diferencia de la forma escalonada sin más). Lo comprobaremos más adelante en
este mismo capítulo (cf. § 100, p. 102).
Recordemos el sistema citado:
⎧
⎪
= −1
⎪
⎪ x1
⎨
= 3
x2
⎪
⎪
⎪
⎩
x3 = 1.
Por otra parte, en el citado § 59 escribimos el sistema de ecuaciones
: un sistema compatible delineales cuya matriz ampliada es la matriz A
terminado cuya solución salta a la vista. Los sistemas de ecuaciones lineales
cuya matriz ampliada es escalonada reducida son muy sencillos de resolver
(y esta afirmación también es válida para los sistemas compatibles indeterminados). Lo veremos con detalle en la sección siguiente.
Obtención de la forma
escalonada reducida de una
matriz
74
¿Cómo podemos obtener efectivamente la forma escalonada redu-
cida de una matriz dada? En primer lugar, escalonamos la matriz (ya sabemos cómo). En segundo lugar, transformamos en 1 todos los pivotes de
la forma escalonada recién obtenida con la ayuda de transformaciones elementales de tipo ii: en concreto, multiplicamos cada fila en la que hay un
pivote por el inverso de tal pivote. En tercer lugar, en la columna de cada
pivote, “anulamos” los términos que están por encima del propio pivote.
A modo de ejemplo, calculemos la forma escalonada reducida de la matriz B que vimos en el § 71 (cf. p. 75):
⎛
1 −1
⎜
0
B = ⎝0
1
3
⎞
2
⎟
1⎠.
1
I. SISTEMAS DE ECUACIONES LINEALES
En el mismo parágrafo citado, obtuvimos para esta matriz la siguiente forma
escalonada:
⎛
1
⎜
B = ⎝ 0
0
⎞
2
⎟
−1 ⎠ ,
1
−1
4
0
lo que ya nos proporciona el primer paso del procedimiento. El segundo
paso consiste en hacer iguales a 1 todos los pivotes de esta forma escalonada; para ello solo nos resta multiplicar por 1/4 la segunda fila:
⎞
⎞
⎛
⎛
1 −1
2
1 −1
2
⎟ F ←(1/4)F2 ⎜
⎟
⎜
4 −1 ⎠ 2→
1 −1/4 ⎠ .
B = ⎝ 0
⎝0
1
1
0
0
0
0
Finalmente, en la columna de cada pivote, debemos “anular” los términos
que figuran encima del pivote:
⎛
1
⎜
⎝0
0
−1
1
0
⎛
⎞
2
1
F
←F
+F
⎟ 1 1 2 ⎜
−1/4 ⎠ →
⎝0
1
0
⎞ F ←F +(1/4)F ⎛
2
2
3
7/4
1
⎟ F1 ←F1 −(7/4)F3 ⎜
−1/4 ⎠ →
⎝ 0
1
0
0
1
0
0
1
0
⎞
0
⎟
0⎠.
1
La última matriz obtenida es la forma escalonada reducida de la matriz B.
Otro ejemplo
75
En el § 67 (cf. p. 72), escalonamos esta matriz:
⎛
⎞
0 1
1 1
⎜
⎟
6 0⎠,
A=⎝ 2 4
−1 0 −1 2
y obtuvimos la siguiente matriz escalonada:
⎛
−1 0 −1
⎜
4
A = ⎝ 0 4
0 0
0
⎞
2
⎟
4⎠.
0
(28)
Con ello ya tenemos el primer paso para llegar a la forma escalonada reducida de la matriz A. El segundo paso requiere hacer iguales a 1 los pivotes;
lo conseguimos multiplicando la primera fila por −1 y la segunda por 1/4:
⎛
−1
⎜
A = ⎝ 0
0
0
4
0
−1
4
0
⎞ F ←(−1)F ⎛
1
1
2
1
⎟ F ←(1/4)F2 ⎜
4 ⎠ 2→
⎝ 0
0
0
La matriz a la que hemos llegado:
⎛
1
⎜
A = ⎝ 0
0
0
1
0
1
1
0
⎞
−2
⎟
1⎠,
0
0
1
0
1
1
0
⎞
−2
⎟
1⎠.
0
I.2. DEFINICIONES Y PROPIEDADES
ya es escalonada reducida sin más cálculos. La matriz A es la forma escalonada reducida de la matriz A.
Pero para la matriz A obtuvimos, en el § 68 (cf. p. 73), otra forma escalonada distinta a la matriz A escrita
⎛
2 4
⎜
⎝0 1
0 0
en (28); en concreto, esta:
⎞
6 0
⎟
1 1⎠ .
0 0
A partir de ella, podemos llegar también a la forma escalonada reducida de
la matriz A. Transformamos en 1 los pivotes:
⎛
⎞
⎛
2 4 6 0
1
⎟ F1 ←(1/2)F1 ⎜
⎜
⎝0
⎝ 0 1 1 1 ⎠ →
0 0 0 0
0
2
1
0
3
1
0
⎞
0
⎟
1⎠,
0
y anulamos los términos que figuran en las columnas de los pivotes encima
de ellos:
⎛
1
⎜
⎝0
0
2
1
0
3
1
0
⎛
⎞
0
1
⎟ F1 ←F1 −2F2 ⎜
1 ⎠ →
⎝0
0
0
0
1
0
1
1
0
⎞
−2
⎟
1⎠.
0
Esta última matriz es escalonada reducida. De hecho, es la misma matriz A
que obtuvimos en la primera parte de este parágrafo.
Nota bene
A partir de la matriz A, hemos llegado a la misma matriz escalonada
reducida A pasando por dos formas escalonadas de A distintas.
¿Cómo son las matrices
escalonadas reducidas?
76
¿Podemos saber cómo son todas las matrices escalonadas reduci-
das? Sí, y ello será especialmente relevante en la sección siguiente, sobre
todo para ciertas consideraciones teóricas.
Antes de verlo propiamente, establecemos la siguiente propiedad de las
matrices escalonadas reducidas: con intercambios adecuados de columnas,
toda matriz escalonada reducida se puede escribir de forma que sus pivotes
figuren en las primeras columnas.
A modo de ejemplo de lo que queremos decir, consideremos la siguiente
matriz escalonada reducida:
⎛
1
⎜
⎜0
A=⎜
⎜0
⎝
0
2
0
0
0
⎞
0
⎟
1⎟
⎟.
0⎟
⎠
0
Sus pivotes están en las primeras filas, como acontece con toda matriz escalonada. Ahora bien, el pivote de la primera fila está en la primera columna,
I. SISTEMAS DE ECUACIONES LINEALES
pero el de la segunda fila no está en la segunda columna, sino en la tercera.
Podemos conseguir que este pivote sí esté en la segunda columna intercambiando las columnas segunda y tercera:
⎛
1 0
⎜
⎜0 1
⎜
⎜0 0
⎝
0 0
⎞
2
⎟
0⎟
⎟.
0⎟
⎠
0
La matriz resultante es, efectivamente, escalonada reducida, pues el intercambio de columnas ha dejado la misma cantidad de ceros iniciales en todas
las filas excepto en la segunda (que ahora tiene exactamente un cero inicial
más de los que hay en la primera fila), y las columnas de los pivotes siguen
teniendo los mismos términos (unitario el pivote mismo y nulos los demás).
Es decir, a partir de la matriz escalonada reducida A, y con la ayuda de un
intercambio de columnas, hemos conseguido escribir una matriz escalonada
reducida que tiene sus pivotes en las primeras columnas.
Esbocemos una prueba general de este resultado.
Dada una matriz escalonada reducida, supongamos
vote, permutamos las columnas i-ésima y j-ésima. Con
ello, obtenemos una nueva matriz con esta caracterís-
que no todos sus pivotes están en las primeras colum-
tica: la fila i-ésima tiene exactamente un cero inicial
nas.
más que su fila precedente, y las restantes filas siguen
Por un momento, consideremos ordenados los pi-
teniendo el mismo número de ceros iniciales (pues los
votes por la fila que ocupan: el primero es el de la pri-
términos por debajo de la fila i-ésima son nulos en
mera fila, el segundo el de la segunda fila, y así sucesi-
las dos columnas permutadas). La matriz nueva sigue
vamente. Consideremos el primer pivote de la matriz
siendo escalonada reducida, y presenta el pivote de la
con la siguiente propiedad: el pivote figura en la fila
fila i-ésima en la columna i-ésima.
i-ésima, pero no en la columna i-ésima, sino en otra columna, digamos la j-ésima, con j > i (en la matriz A del
Continuaríamos el proceso de permutación de columnas con los siguientes pivotes hasta que todos que-
ejemplo anterior, teníamos i = 2 y j = 3). Para este pi-
daran en las primeras columnas.
Nota bene
El número de pivotes de la matriz escalonada reducida es el mismo
antes y después del intercambio de columnas explicado.
¿Cómo son las matrices
escalonadas reducidas?
(Continuación)
77
Consideremos una matriz de orden (n, m) que es escalonada re-
ducida, y designemos por r la cantidad de sus pivotes. Distinguimos dos
casos: r = m (tantos pivotes como columnas) y r < m (menos pivotes que
columnas). A su vez, dentro de cada caso, distinguimos dos posibilidades
adicionales: r = n (tantos pivotes como filas) y r < n (menos pivotes que
filas). Como el número de pivotes es menor o igual que el de columnas y
menor o igual que el de filas (cf. § 65, p. 70), no hay más opciones.
I.2. DEFINICIONES Y PROPIEDADES
En el primer caso: r = m, hay un pivote en cada columna. La matriz
escalonada reducida presenta una de estas dos formas, según sea r = n
o r < n, respectivamente:
⎛
⎛
1
⎜
⎜0
⎜
⎜.
⎜ ..
⎝
0
0
1
..
.
0
...
...
..
.
...
r =m
⎞⎫
⎪
0 ⎪
⎟⎪
⎪
⎪
⎬
0⎟
⎟
⎟
.. ⎟ ⎪ r = n
.⎠⎪
⎪
⎪
⎪
⎭
1
1
⎜0
⎜
⎜
⎜ ..
⎜.
⎜
⎜
⎜0
⎜
⎜0
⎜
⎜.
⎜.
⎝.
0
,
0
1
..
.
0
0
..
.
0
⎞⎫
0 ⎪
⎪
⎪
⎪
⎬
0⎟
⎟⎪
⎟ r
.. ⎟ ⎪
⎪
.⎟
⎟⎪
⎪
⎪
⎟⎭
1⎟ ⎫
.
⎟
⎪
0⎟
⎟⎪
⎪
⎬
.. ⎟
⎟ n−r
.⎠⎪
⎪
⎪
0 ⎭
...
...
..
.
...
...
..
.
...
r =m
La primera de estas matrices tiene un nombre especial: es la llamada matriz
Matriz identidad de orden n
identidad de orden n. Tiene el mismo número de filas que de columnas, y
todos sus términos son nulos salvo los que tienen igual número de fila que
de columna, que son iguales a 1. No tiene filas nulas. Por el contrario, la
segunda de las matrices escritas sí presenta filas nulas: tantas como marca
la diferencia n − r .
En el segundo caso: r < m, podemos considerar que los r pivotes de
la matriz ocupan las r primeras columnas (posiblemente tras la aplicación
de intercambios de columnas adecuados, cf. § 76). La matriz escalonada
reducida tiene finalmente uno de estos aspectos, según sea r = n o r < n,
respectivamente:
⎛
⎛
1
⎜
⎜0
⎜
⎜.
⎜ ..
⎝
0
0
1
..
.
0
...
...
..
.
...
r
0 •
0 •
.. ..
. .
1 •
...
...
..
.
...
m−r
⎞⎫
• ⎪
⎪
⎟⎪
⎪
⎪
⎬
•⎟
⎟
r =n
.. ⎟
⎪
.⎟
⎪
⎠⎪
⎪
⎪
⎭
•
,
1
⎜0
⎜
⎜
⎜ ..
⎜.
⎜
⎜
⎜0
⎜
⎜0
⎜
⎜.
⎜.
⎝.
0
0
1
..
.
0
0
..
.
0
...
...
..
.
...
...
..
.
...
r
0
0
..
.
1
0
..
.
0
•
•
..
.
•
0
..
.
0
...
...
..
.
...
...
..
.
...
m−r
⎞⎫
• ⎪
⎪
⎪
⎪
⎬
•⎟
⎟⎪
⎟ r
.. ⎟ ⎪
⎪
.⎟
⎟⎪
⎪
⎪
⎟⎭
•⎟ ⎫
.
⎟
⎪
0⎟
⎟⎪
⎪
⎬
.. ⎟
⎟ n−r
.⎠⎪
⎪
⎪
0 ⎭
Las puntos: ‘•’, señalan posiciones que pueden ser ocupadas por cualquier
número, nulo o no, y ambas matrices tienen tantas columnas con términos
de este tipo como señala la diferencia m − r . Por otra parte, como en el caso
anterior, la primera matriz no tiene filas nulas, y la segunda tiene tantas
como indica la diferencia n − r .
I. SISTEMAS DE ECUACIONES LINEALES
Ejercicios I.2
1
Considérense los siguientes sistemas de ecua-
ciones lineales, el primero de una sola ecuación y el
segundo de dos:
2x1 − x2 + x3 = 1,
y
cierto, ¿de qué tipo son?
Si a designa un número, nos dan la ecuación li-
neal ax1 = 0. Se pide:
a)
considerando esta ecuación lineal en la incógni-
ta x1 , calcular su solución (o soluciones) distinguiendo
los casos a = 0 y a ≠ 0;
b)
hacer lo mismo, pero considerando la ecuación
dada en las incógnitas x1 y x2 ;
c)
Considérese el siguiente sistema de ecuaciones
⎧
⎨ 2x1 − x2 + x3 = 1
⎩ 8x1 − 4x2 + 4x3 = 4.
Justificar (sin resolverlos) que son equivalentes. Por
2
6
lineales:
si c también designa un número, calcular las
soluciones de la ecuación lineal ax1 = c, tomada en
las incógnitas x1 y x2 , distinguiendo los cuatro casos
que resultan de tomar a y c nulos o no.
⎧
⎪
x + 2y
=0
⎪
⎪
⎨
2x + 2y + z = 1
⎪
⎪
⎪
⎩−x − 2y + z = 2.
Se pide:
a)
escribir la matriz de coeficientes y la matriz am-
pliada del sistema;
b)
calcular la forma escalonada reducida de la matriz ampliada;
c)
escribir el sistema cuya matriz ampliada es la
matriz escalonada reducida obtenida en el apartado anterior;
d)
calcular la solución del sistema; ¿de qué tipo ha
resultado ser el sistema?
7
Considérese la matriz:
⎛
3
Determinar qué matrices de las siguientes son es-
calonadas, y señalar los
0 0 0
a)
y
0 0 0
b)
c)
4
1
⎜
⎝ 2
−1
pivotes de las que lo sean:
⎛
⎞
−1
⎜
⎟
⎝ 0 ⎠;
0
⎛
⎞
⎛
⎞
−1 0
0 1 0
⎜
⎟
⎜
⎟
⎝ 0 0 ⎠ y ⎝ 0 2 0 ⎠;
0 1
0 0 0
⎛
⎞
⎛
⎞
0 1 0
2 1 0
⎜
⎟
⎜
⎟
⎝ 0 0 1 ⎠ y ⎝ 0 5 0 ⎠.
0 0 0
0 0 3
De cada una de las matrices del ejercicio 3 que
no sea escalonada, encontrar al menos dos formas escalonadas.
5 De todas las matrices del ejercicio 3, ¿cuáles son
escalonadas reducidas? De cada matriz que no lo sea,
escribir su forma escalonada reducida.
2
4
−2
0
1
1
⎞
a
⎟
b⎠,
c
donde a, b y c designan tres números reales.
a)
Escalonar la matriz.
¿Cuántos pivotes tiene la
matriz escalonada obtenida? Escribir también la forma
escalonada reducida de la matriz.
b)
Si un sistema de ecuaciones lineales es tal que la
matriz del enunciado es su matriz ampliada, ¿qué se
puede decir del sistema a la luz de lo obtenido en el
apartado anterior?
8
¿Cómo es una matriz escalonada que tiene una
sola fila? ¿Y la que tiene una sola columna?
9
¿Cómo es una matriz escalonada reducida que
tiene una sola fila? ¿Y la que tiene una sola columna?
I.3. DISCUSIÓN Y RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES
I.3 DISCUSIÓN Y RESOLUCIÓN DE UN
SISTEMA DE ECUACIONES LINEALES
1. Un método para discutir y resolver un sistema de
ecuaciones lineales
Dedicamos este apartado a presentar un método general para discutir y
resolver un sistema de ecuaciones lineales. Lo iniciamos indicando qué se
entiende por discutir y por resolver un sistema.
Planteamiento del método
Discutir frente a resolver un
sistema de ecuaciones
lineales
78
Sabemos (cf. § 45 y 46, p. 57) que hay tres tipos de sistemas de ecua-
ciones lineales atendiendo a su solución: incompatibles (no tienen solución),
compatibles determinados (tienen una única solución) y compatibles indeterminados (tienen infinitas soluciones). Por discutir un sistema de ecuaciones lineales nos referimos a determinar de cuál de estos tres tipos es el
sistema. Por resolver el sistema nos referimos a encontrar efectivamente
todas sus soluciones.
Esquema de trabajo: una
distinción de casos
79
Consideremos un sistema de ecuaciones lineales que queremos re-
solver, con n ecuaciones y m incógnitas. Designamos por A su matriz de
coeficientes (recordemos: la matriz cuyos términos son los coeficientes del
su matriz ampliada. La primera tendrá orsistema, cf. § 53, p. 62), y por A
den (n, m) (tantas filas como ecuaciones y tantas columnas como incógnitas); la segunda, orden (n, m + 1) (tiene una columna más, con los términos
independientes).
una forma escalonada (no necesariamente reducida)
Denotemos por A
(también es habitual esta notación para una forma escalode la matriz A
nada: se añade una “prima” a la letra de la matriz original). Sabemos que el
es equivalente al sistema de
sistema cuya matriz ampliada es la matriz A
partida, con matriz ampliada A.
Consideraremos tres casos:
presenta un pivote en su última columna.
• La matriz A
no presenta un pivote en su última columna y la cantidad
• La matriz A
de sus pivotes coincide con la cantidad de incógnitas del sistema.
no presenta un pivote en su última columna y la cantidad
• La matriz A
de sus pivotes es menor que la cantidad de incógnitas del sistema.
I. SISTEMAS DE ECUACIONES LINEALES
Como veremos en los siguientes parágrafos, estos tres casos se corresponden con los tres tipos de sistemas de ecuaciones lineales (en virtud de su
solución) que ya conocemos: respectivamente, sistema incompatible, sistema compatible determinado y sistema compatible indeterminado.
Nota bene
El número de pivotes de una matriz escalonada es menor o igual
que el de columnas (cf. § 65, p. 70), y hay tantas columnas en la matriz de
coeficientes como incógnitas en el sistema, luego todo sistema de ecuaciones
lineales está contemplado en uno (y solo en uno) de los casos anteriores.
Sistemas incompatibles
Sistema incompatible
Como en el § 79, consideramos un sistema de n ecuaciones lineales
y suponemos
y m incógnitas que queremos resolver, con matriz ampliada A,
80
de la matriz A
con la característica de
que existe una forma escalonada A
presentar un pivote en su última columna.
en la que está el pivote de la última columna tiene
La fila de la matriz A
por términos los siguientes:
0
0
...
m ceros
0
a,
donde a es un número que es no nulo, y la ecuación lineal que se corresponde con esta fila es
0x1 + 0x2 + · · · + 0xm = a,
con a ≠ 0.
Pero un sistema de ecuaciones lineales que incluye una ecuación de este tipo
es incompatible (cf. § 47, p. 57).
es incompatible. El sisEs decir, el sistema cuya matriz ampliada es A
), que es equivalente a él, también
tema de partida (con matriz ampliada A
lo será.
Si una forma escalonada de la matriz ampliada de un sistema de ecuaciones lineales tiene un pivote en su última columna, entonces el sistema
no tiene solución: es un sistema incompatible.
Un ejemplo
81
Consideremos el siguiente sistema de ecuaciones lineales:
⎧
⎪
x + 2x2 + 4x3 = 1
⎪
⎪
⎨ 1
x2 + 2x3 = −3
⎪
⎪
⎪
⎩ x + 3x + 6x = 2.
1
2
3
(29)
I.3. DISCUSIÓN Y RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES
Su matriz ampliada es esta:
⎛
1
=⎜
A
⎝0
1
2
1
3
4
2
6
⎞
1
⎟
−3 ⎠ .
2
Calculamos para ella una forma escalonada; por ejemplo, con el procedimiento descrito en el § 67 (cf. p. 72):
⎛
1
⎜
A = ⎝0
1
2
1
3
4
2
6
⎛
⎞
1
1
⎟ F3 ←F3 −F1 ⎜
−3 ⎠ →
⎝0
2
0
⎛
1
⎜
→
⎝0
0
F3 ←F3 −F2
2
1
1
4
2
2
⎞
1
⎟
−3 ⎠
1
2
1
0
4
2
0
⎞
1
⎟
.
−3 ⎠ = A
4
, tiene un pivote en su última columna.
La matriz escalonada obtenida: A
De acuerdo con el resultado del § 80, el sistema (29) no admite solución: es
incompatible.
es la matriz ampliada
Comprobar lo afirmado es sencillo. La matriz A
de este sistema:
⎧
⎪
x1 + 2x2 + 4x3 = 1
⎪
⎪
⎨
x2 + 2x3 = −3
⎪
⎪
⎪
⎩ 0x + 0x + 0x = 4,
1
2
3
el cual no admite solución: no hay ninguna terna de números que satisfaga
su tercera ecuación.
Sistemas compatibles determinados
Sistema compatible
determinado
82
De nuevo como en el § 79, consideramos un sistema de n ecua-
ciones lineales y m incógnitas que deseamos resolver. Su matriz ampliada
y suponemos que una forma escalonada suya, denotada por A
, es tal
es A,
que no presenta un pivote en su última columna y tiene tantos pivotes como
incógnitas hay en el sistema.
Nótese que una matriz escalonada reducida tiene el mismo
número de pivotes que la matriz escalonada a partir de la
cual se ha calculado, y ambas
matrices tienen los pivotes en
las mismas columnas.
Con el procedimiento descrito en el § 74 (cf. p. 77), podemos calcular
a partir de su forma escalola forma escalonada reducida de la matriz A
(para la forma escalonada
nada A . Denotamos la matriz obtenida por A
reducida, es usual añadir una segunda “prima” a la letra que denota la ma ignoramos momentáneamente la última
triz original). Si en esta matriz A
columna (la que figura a la derecha de la barra espaciadora, y que no tiene
I. SISTEMAS DE ECUACIONES LINEALES
pivotes), tenemos una matriz de orden (n, m), también escalonada reduSi en una matriz escalonada
eliminamos la última columna (o las últimas columnas),
la matriz que se obtiene sigue
siendo escalonada. Lo mismo
acontece con matrices escalonadas reducidas.
cida, y con tantos pivotes como columnas. En el § 77 (cf. p. 80) vimos cómo
son estas matrices. De acuerdo con ello, y denotando por r el número de pi (volvemos a considerarle la última
votes, podemos afirmar que la matriz A
columna) será de una de las dos siguientes formas, según sea el número de
pivotes igual que el de filas (r = n) o menor (r < n), respectivamente:
⎞⎫
⎛
1 0 . . . 0 d1 ⎪
⎪
⎪
⎜0 1 ... 0 d ⎟ ⎪
⎪
⎜
2 ⎟ ⎬
⎛
⎞⎫
⎟
⎜
1 0 . . . 0 d1 ⎪
r
.
.
.
.
⎟
⎜
⎪
.
⎪
. . ..
.. ⎟ ⎪
⎜
⎜ .. ..
⎟⎪
⎪
⎜ 0 1 . . . 0 d2 ⎟ ⎪
⎟⎪
⎜
⎪
⎬
⎪
⎜
⎟⎭
⎜
⎟
⎜. . .
r =n
, ⎜ 0 0 . . . 1 dm ⎟ ⎫
,
(30)
.. ⎟
⎜ .. ..
⎟
⎜
⎟⎪
. . ...
⎪
.
⎟
⎜
⎝
⎠⎪
⎪
⎪
0
0
.
.
.
0
0
⎪
⎪
⎟⎪
⎜
⎭
⎬
⎜. . .
0 0 . . . 1 dm
..
.. ⎟
⎟ n−r
⎜. .
.
. .
⎠
⎝
.
.
.
⎪
⎪
⎪
⎭
r =m
0
0 0 ... 0
r =m
y donde d1 , d2 , . . . , dm pueden ser números cualesquiera (nulos o no). La
primera de las matrices escrita en (30) es la matriz ampliada de este sistema
de ecuaciones lineales:
⎧
x1
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎨
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎩
= d1
x2
= d2
..
.
..
.
(31)
xm = dm .
La segunda de las matrices de (30) difiere de la primera solo en que tiene
filas nulas adicionales; como las filas nulas en la matriz ampliada de un sistema se corresponden con ecuaciones nulas —que eliminadas de un sistema
nos dejan otro equivalente—, se tiene que el sistema cuya matriz ampliada
es la segunda matriz de (30) es equivalente al sistema (31).
En definitiva, el sistema de ecuaciones lineales (31) es el sistema que
(o al menos
tiene por matriz ampliada la matriz escalonada reducida A
, el
es equivalente a él). De acuerdo con la construcción de la matriz A
sistema (31) también será equivalente al que tiene por matriz ampliada la
, y lo que es más importante: será equivalente al que
matriz escalonada A
Es decir, el sistema (31) es equivatiene por matriz ampliada la matriz A.
lente al sistema que originalmente queremos resolver.
El sistema de ecuaciones lineales (31) tiene solución única, la cual salta
a la vista: la m-upla (d1 , d2 , . . . , dm ). El sistema de partida es, pues, compatible determinado.
I.3. DISCUSIÓN Y RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES
Si una forma escalonada de la matriz ampliada de un sistema de ecuaciones lineales tiene tantos pivotes como incógnitas, y ninguno de los
pivotes está en la última columna, entonces el sistema tiene una única
solución: es un sistema compatible determinado.
Un ejemplo
83
Consideremos el siguiente sistema de ecuaciones lineales:
⎧
⎪
=2
⎪
⎪ x1 − 2x2
⎨
2x2 + 3x3 = 0
⎪
⎪
⎪
⎩ x − 2x + 2x = 6.
1
2
(32)
3
y la llevamos a una
Escribimos su matriz ampliada, que denotamos por A,
forma escalonada; con una sola transformación elemental lo conseguimos:
⎛
⎛
⎞
⎞
1 −2 0 2
1 −2 0 2
⎟ F3 ←F3 −F1 ⎜
⎟
=⎜
.
2 3 0⎠ = A
2 3 0 ⎠ →
⎝0
A
⎝0
1 −2 2 6
0
0 2 4
tiene tres pivotes, tantos como incógnitas, y ninguLa matriz escalonada A
no de ellos figura en la última columna. De acuerdo con lo visto en el § 82,
el sistema (32) es compatible determinado: admite una única solución.
Acabamos de discutir el sistema (32). Ahora querríamos resolverlo, es
decir, encontrar efectivamente la única solución que ya sabemos tiene. Lo
visto en el mismo § 82 nos sugiere cómo buscar tal solución: calculamos la
forma escalonada reducida de la matriz ampliada del sistema y escribimos
el sistema que la tiene como matriz ampliada; este sistema será inmediato
de resolver, y su solución será la que buscamos.
podemos
Para encontrar la forma escalonada reducida de la matriz A,
seguir aplicando transformaciones elementales adecuadas a su forma esca (cf. § 74, p. 77):
lonada A
⎛
1
⎜
0
A =⎝
0
−2
2
0
0
3
2
⎛
⎞ F ←(1/2)F
2
2
2
1
⎟ F3 ←(1/2)F3 ⎜
0 ⎠ →
⎝0
4
0
⎛
1
F2 ←F2 −(3/2)F3 ⎜
→
⎝0
0
⎛
1
F1 ←F1 +2F2
⎜
→
⎝0
0
−2
1
0
0
3/2
1
−2
1
0
0
0
1
0
1
0
0
0
1
⎞
2
⎟
0⎠
2
⎞
2
⎟
−3 ⎠
2
⎞
−4
⎟
.
−3 ⎠ = A
2
I. SISTEMAS DE ECUACIONES LINEALES
Ahora, el sistema de ecuaciones lineales cuya matriz ampliada es la matriz
es este:
escalonada reducida A
Nótese que la solución única
(de un sistema compatible determinado) se puede leer, de
arriba abajo, en la última columna de la forma escalona (eliminando
da reducida A
antes las filas nulas si las hay).
Continuación del ejemplo:
resolución alternativa con
sustitución hacia atrás
⎧
⎪
⎪
⎪ x1
⎨
⎪
⎪
⎪
⎩
= −4
x2
= −3
2.
x3 =
Su solución es única, e inmediata: (−4, −3, 2). Esta terna es también la solución única del sistema compatible determinado (32).
84
En el § 83, una vez discutido el sistema de ecuaciones lineales (32),
lo hemos resuelto a partir de la forma escalonada reducida de su matriz
ampliada. Pero podríamos haberlo resuelto de otra manera: por sustitución
hacia atrás (cf. p. 60) a partir de una forma escalonada (no necesariamente
reducida) de su matriz ampliada.
En el mismo § 83, obtuvimos esta forma escalonada de la matriz ampliada del sistema (32):
⎛
1
⎜
A = ⎝0
0
−2
2
0
0
3
2
⎞
2
⎟
0⎠.
4
El sistema de ecuaciones linales del cual es matriz ampliada es este:
⎧
⎪
x − 2x2
=2
⎪
⎪
⎨ 1
2x2 + 3x3 = 0
⎪
⎪
⎪
⎩
2x3 = 4.
(33)
De la tercera ecuación se deduce: x3 = 4/2 = 2, que sustituido en la segunda
nos lleva a: 2x2 + 6 = 0, de donde: x3 = −6/2 = −3; y sustuido este valor
en la primera ecuación, obtenemos: x1 + 6 = 2, de donde: x1 = −4. Es decir,
la solución del sistema (33) es la terna (−4, −3, 2).
Como los sistemas (33) y (32) son equivalentes, vemos confirmada la
solución de este último que calculamos en el § 83.
Otro ejemplo
85
Discutamos, y resolvamos en su caso, el siguiente sistema de tres
ecuaciones y dos incógnitas:
⎧
⎪
x − 2y = 5
⎪
⎪
⎨
2x + y = 0
⎪
⎪
⎪
⎩ x + 3y = −5.
(34)
I.3. DISCUSIÓN Y RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES
Para discutir el sistema, escribimos su matriz ampliada:
⎛
1
⎜
2
B=⎝
1
⎞
5
⎟
0⎠,
−5
−2
1
3
y buscamos una forma escalonada de esta matriz ampliada:
⎛
1
⎜
⎝2
1
−2
1
3
⎞
⎛
F2 ←F2 −2F1
5
1
⎟ F3 ←F3 −F1 ⎜
0 ⎠ →
⎝ 0
−5
0
−2
5
5
⎞
⎛
5
1
⎟ F3 ←F3 −F2 ⎜
−10 ⎠ →
⎝0
−10
0
−2
5
0
⎞
5
⎟
−10 ⎠ .
0
La matriz escalonada obtenida, denotémosla B , tiene dos pivotes, tantos
como incógnitas, y ninguno de ellos figura en la última columna. El sistema
de ecuaciones lineales (34) es, pues, compatible determinado.
Para resolver el sistema, buscamos la forma escalonada reducida de su
matriz ampliada. Lo hacemos a partir de la forma escalonada B recién obtenida en el párrafo anterior:
⎛
1
⎜
⎝0
0
−2
5
0
⎛
⎞
5
1
⎟ F2 ←(1/5)F2 ⎜
−10 ⎠ →
⎝0
0
0
−2
1
0
⎛
⎞
5
1
⎟ F1 ←F1 +2F2 ⎜
−2 ⎠ →
⎝0
0
0
0
1
0
⎞
1
⎟
−2 ⎠ = B .
0
El sistema de ecuaciones cuya matriz ampliada es la matriz escalonada reducida B que acabamos de deducir es este:
⎧
⎪
x
⎪
⎪
⎨
=
1
y = −2
⎪
⎪
⎪
⎩ 0x + 0y = 0,
Como el sistema es compatible determinado, la solución
única se puede leer en la última columna de la matriz B ,
eliminando antes su tercera fila por ser nula.
Si en el sistema de matriz ampliada B quitamos la ecuación
nula (que es la tercera), queda:
⎧
⎨ x − 2y = 5
⎩
5y = −10.
el cual es equivalente (quitando la ecuación nula) a:
⎧
⎨ x
= 1
⎩
y = −2,
sistema de solución evidente: (1, −2). En conclusión, el sistema de ecuaciones lineales (34) es compatible determinado y su única solución es el par
ordenado (1, −2).
Es de observar que, para resolver el sistema (34), podríamos haber escrito el sistema de ecuaciones lineales cuya matriz ampliada es la matriz escalonada B , y haber resuelto este sistema por sustitución hacia atrás (tras
eliminar su tercera ecuación, que es nula). Dejamos al lector la tarea de
confirmar que con ello se obtiene la misma solución.
I. SISTEMAS DE ECUACIONES LINEALES
Sistemas compatibles indeterminados
Sistema compatible
indeterminado
86
De nuevo (por última vez) como en el § 79, consideramos un sis-
tema de n ecuaciones lineales y m incógnitas que pretendemos resolver.
y suponemos que existe una forma
Designamos su matriz ampliada por A,
escalonada A de esta matriz ampliada con la siguiente propiedad: no presenta un pivote en su última columna y tiene una cantidad de pivotes menor
que la cantidad de incógnitas del sistema.
, calculamos la forma escalonada reA partir de la matriz escalonada A
ducida de la matriz A. Como es habitual, denotamos la matriz obtenida
. ¿Cómo es esta matriz escalonada reducida A
? Denotemos el
por A
número de sus pivotes por r , y supongamos adicionalmente que este nú-
Recordemos que la última co no tiene pivotes.
lumna de A
mero de pivotes es menor que el de filas (r < n). Supongamos también
que los pivotes están en las primeras columnas. De acuerdo con el § 77,
tiene esta forma:
podemos afirmar que la matriz A
⎛
1
⎜0
⎜
⎜
⎜ ..
⎜.
⎜
⎜
⎜0
⎜
⎜0
⎜
⎜.
⎜.
⎝.
0
En el § 77 escribimos puntos: ‘•’; ahora escribimos los
términos bij (1 i r y r +
1 j m) y los términos dk
(1 k r ).
0
1
..
.
0
0
..
.
0
...
...
..
.
...
...
..
.
...
r
0 b1(r +1) . . .
0 b2(r +1) . . .
..
..
..
.
.
.
1 br (r +1) . . .
0
0
...
..
..
..
.
.
.
0
0
...
m−r
b1m
b2m
..
.
br m
0
..
.
0
⎞⎫
d1 ⎪
⎪
⎪
⎪
⎬
d2 ⎟
⎟⎪
⎟ r
.. ⎟ ⎪
⎪
. ⎟
⎟⎪
⎪
⎟⎪
⎭
dr ⎟ ⎫
⎟
⎪
0 ⎟
⎟⎪
⎪
⎬
.. ⎟
⎟ n−r
. ⎠⎪
⎪
⎪
0 ⎭
(35)
donde todos los bij (1 i r y r + 1 j m) y todos los dk (1 k r )
pueden ser números cualesquiera (nulos o no).
El sistema de ecuaciones lineales cuya matriz ampliada es la matriz escrita en (35) es equivalente (tras eliminar las ecuaciones nulas) al siguiente:
⎧
x
+ b1(r +1) xr +1 + · · · + b1m xm = d1
⎪
⎪
⎪ 1
⎪
⎪
⎪
⎪
x2
+ b2(r +1) xr +1 + · · · + b2m xm = d2
⎨
(36)
..
..
..
..
⎪
⎪
.
.
.
.
⎪
⎪
⎪
⎪
⎪
⎩
xr + br (r +1) xr +1 + · · · + br m xm = dr .
De acuerdo con su construcción, este sistema es entonces equivalente al que
, y por ende también es
tiene por matriz ampliada la matriz escalonada A
Esto es, el sistema
equivalente al que tiene por matriz ampliada la matriz A.
escrito en (36) es equivalente al sistema que originalmente pretendemos
resolver.
I.3. DISCUSIÓN Y RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES
Sistema compatible
indeterminado (continuación)
87
¿Qué solución, o soluciones, tiene el sistema de ecuaciones linea-
les (36)? A partir de él, podemos despejar las incógnitas x1 , x2 , . . . , xr en
función de las restantes incógnitas xr +1 , . . . , xm :
⎧
⎪
x1 = d1 − b1(r +1)xr +1 + · · · + b1m xm ,
⎪
⎪
⎪
⎪
⎪
⎨ x2 = d2 − b2(r +1)xr +1 + · · · + b2m xm ,
⎪
⎪ ..............................................
⎪
⎪
⎪
⎪
⎩ x = d − b
r
r
r (r +1) xr +1 + · · · + br m xm .
(37)
Ahora, si sustituimos las letras xr +1 , . . . , xm por números concretos, por
ejemplo: xr +1 = . . . = xm = 0, de las igualdades anteriores podemos deducir: x1 = d1 , x2 = d2 , . . . , xr = dr . Una rápida comprobación nos confirma
que es solución del sistema (36) esta m-upla:
d1 , d2 , . . . , dr , 0, . . . , 0 .
m − r ceros
Pero hay más soluciones. Si sustituimos xr +1 , . . . , xm por otros números,
verbigracia: xm = −1 y los restantes nulos, el valor correspondiente para las
incógnitas x1 , x2 , . . . , xr que obtenemos a partir de las igualdades de (37)
nos configura otra solución:
d1 + b1m , d2 + b2m , . . . , dr + br m , 0, . . . , 0 , −1 .
m − r − 1 ceros
De hecho, hay infinitas soluciones: una por cada valor numérico que
demos a las incógnitas xr +1 , . . . , xm . Podemos afirmar: todas las soluciones
del sistema (36) son las m-uplas de la forma:
d1 − b1(r +1)xr +1 + · · · + b1m xm ,
d2 − b2(r +1) xr +1 + · · · + b2m xm , . . . ,
dr − br (r +1) xr +1 + · · · + br m xm , xr +1 , . . . , xm ,
Los números xr +1 , . . . , xm
pueden ser nulos o no, iguales
o distintos; enfatizamos: cualesquiera.
donde xr +1 , . . . , xm son números cualesquiera. En particular, el sistema de
ecuaciones lineales (36) es compatible indeterminado.
Si el número de pivotes de una forma escalonada de la matriz ampliada de
un sistema de ecuaciones lineales es menor que el número de incógnitas
del sistema, y ninguno de los pivotes está en la última columna, entonces
el sistema tiene infinitas soluciones: es un sistema compatible indeterminado.
I. SISTEMAS DE ECUACIONES LINEALES
Algunas consideraciones
sobre los desarrollos
anteriores
88
Antes de pasar a ver algunos ejemplos de resolución de sistemas
compatibles indeterminados (como suponemos que el lector estará deseando que hagamos), debemos aclarar algunos puntos del desarrollo de los § 86
y 87.
es
En primer lugar, supusimos que el número de pivotes de la matriz A
menor que el número de filas: r < n, pero podría ser igual: r = n. En este
estaría formada exclusivamente por las r primeras
último caso, la matriz A
sería la matriz de (35) sin las
filas de la matriz escrita en (35) (es decir, A
filas nulas), pero el sistema de ecuaciones lineales con matriz ampliada la
sería justamente el sistema (36). También en este caso, pues,
matriz A
obtendríamos la conclusión de sistema compatible indeterminado a la que
llegamos en el § 87.
están
En segundo lugar, admitimos que los r pivotes de la matriz A
situados en las primeras columnas. Según lo que vimos en el § 76 (cf. p. 79),
con intercambios adecuados de columnas, toda matriz escalonada reducida
se puede escribir de forma que sus pivotes estén en las primeras columnas.
Pero acontece lo siguiente: si una matriz en la que procedemos a intercambiar columnas es la matriz ampliada de un sistema de ecuaciones lineales
—, y ninguna de las columnas intercam—como es el caso de la matriz A
biadas es la última, tal intercambio de columnas se corresponde con una
reordenación de las incógnitas del sistema. Además, los sistemas antes y
después de la reordenación de incógnitas son de la misma clase en lo que a
su discusión se refiere: si, por ejemplo, uno es incompatible, el otro también
lo es, y lo mismo acontece con las otras dos clases.
Lo vemos mejor con un ejemplo. Fijémonos en esta matriz:
C=
1
0
2
0
0
1
1
2
(la cual, por cierto, es escalonada reducida, y en su última columna no figura
ningún pivote). La matriz C es la matriz ampliada de este sistema:
⎧
⎨ x1 + 2x2
⎩
=1
(38)
x3 = 2.
Por un lado, si intercambiamos en la matriz C las columnas segunda y tercera (a fin, por ejemplo, de que figuren los dos pivotes en las dos primeras
columnas), nos queda:
D=
1
0
0
1
2
0
1
2
.
I.3. DISCUSIÓN Y RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES
Por otro lado, si reescribimos el sistema (38) considerando que el orden de
las incógnitas es x1 , x3 y x2 (esto es, invirtiendo el orden original de las
incógnitas segunda y tercera), ponemos:
⎧
⎨ x1
+ 2x2 = 1
⎩
= 2.
x3
(39)
Apreciamos que este último sistema de ecuaciones lineales tiene por matriz
ampliada precisamente la matriz D.
Podemos decir más: si comparamos los sistemas (38) y (39), vemos
Por ejemplo, la terna (1, 0, 2)
es solución del sistema (38),
y la terna (1, 2, 0) es solución
del (39). Otro ejemplo lo tenemos con las ternas (−1, 1, 2)
y (−1, 2, 1).
que a partir de una terna que sea solución de uno se escribe una terna (y
exactamente una) que es solución del otro, sin más que intercambiar sus
componentes segunda y tercera; es decir, si una terna (a, b, c) es solución
de uno, la terna (a, c, b) lo es del otro. Finalmente, acontece que ambos
sistemas son efectivamente de la misma clase: ambos son compatibles indeterminados.
del § 86, podeEn lo que concierne a la matriz escalonada reducida A
mos entonces considerar, sin pérdida de generalidad, que sus pivotes figuran en las primeras columnas (si no es el caso, basta una reordenación adecuada de las incógnitas, con la cual el sistema seguirá siendo de la misma
clase en lo que a su discusión se refiere). La conclusión de sistema compatible indeterminado a la que hemos llegado finalmente en el § 87 es válida,
no tenga originalmente topues, aunque la forma escalonada reducida A
dos sus pivotes en las primeras columnas.
Un ejemplo
89
Discutamos y resolvamos el siguiente sistema de tres ecuaciones
lineales y cuatro incógnitas:
⎧
⎪
⎪
⎪ x1 + x2 + x3 + 2x4 = 1
⎨
x1 + 2x2 + 3x3 + 2x4 = 3
⎪
⎪
⎪
⎩ x + x + 2x + 6x = 1.
1
2
3
4
(40)
Para discutir el sistema, escribimos su matriz ampliada y buscamos una
forma escalonada de esta matriz ampliada. Tenemos:
⎛
1
=⎜
A
⎝1
1
1
2
1
1
3
2
2
2
6
⎛
⎞
F2 ←F2 −F1
1
1
⎟ F3 ←F3 −F1 ⎜
3 ⎠ →
⎝ 0
1
0
1
1
0
1
2
1
2
0
4
⎞
1
⎟
.
2⎠ = A
0
tiene menos pivotes que incógnitas (de estas hay
La matriz escalonada A
cuatro y de aquellos hay tres), y ninguno de los pivotes figura en la última
I. SISTEMAS DE ECUACIONES LINEALES
columna. De acuerdo con el resultado del § 87, el sistema de ecuaciones
lineales (40) es compatible indeterminado.
Para resolver el sistema, procedemos como se sugiere en los § 86 y 87:
(la ampliada del siscalculamos la forma escalonada reducida de la matriz A
tema), y escribimos el sistema de ecuaciones lineales cuya matriz ampliada
es justamente esta forma escalonada reducida. Como ya tenemos una forma
—la matriz A
—, seguimos a partir de ella:
escalonada de la matriz A
⎛
1
= ⎜
A
⎝0
0
1
1
0
1
2
1
2
0
4
⎛
⎞
1
1
⎟ F1 ←F1 −F2 ⎜
2 ⎠ →
⎝0
0
0
F2 ←F2 −2F3
F1 ←F1 +F3
⎛
1
⎜
→
⎝0
0
Nótese que la matriz escalona presenta sus
da reducida A
pivotes en las primeras columnas.
0
1
0
−1
2
1
0
1
0
0
0
1
2
0
4
6
−8
4
⎞
−1
⎟
2⎠
0
⎞
−1
⎟
.
2⎠ = A
0
Ahora, el sistema de ecuaciones lineales de matriz ampliada la matriz esca es este:
lonada reducida A
⎧
⎪
+ 6x4 = −1
⎪
⎪ x1
⎨
− 8x4 = 2
x2
(41)
⎪
⎪
⎪
⎩
x + 4x = 0.
3
4
Despejando las incógnitas x1 , x2 y x3 en función de la incógnita x4 , obtenemos:
⎧
⎪
x1 = −1 − 6x4 ,
⎪
⎪
⎨
x2 = 2 + 8x4 ,
⎪
⎪
⎪
⎩ x3 =
− 4x4 .
(42)
Si damos a la incógnita x4 algún valor numérico concreto, el valor correspondiente de las incógnitas x1 , x2 y x3 dado por las tres igualdades de (42)
configura una solución del sistema. Por ejemplo, tomando x4 = 0, nos
queda x1 = −1, x2 = 2 y x3 = 0, y la cuaterna (−1, 2, 0, 0) es una solución
del sistema. Otro ejemplo: tomando x4 = 1, obtenemos como solución la
cuaterna (−7, 10, −4, 1).
Finalmente, podemos afirmar que todas las soluciones del sistema de
A modo de comprobación, en
el sistema (40), puede el lector
sustituir x1 por −1 − 6x4 , x2
por 2 + 8x4 y x3 por −4x4 . . .
Incógnitas básicas e
incógnitas libres
ecuaciones lineales (41), y por tanto las del sistema de ecuaciones lineales (40) (ambos son equivalentes), son todas las cuaternas de la forma:
90
−1 − 6x4 , 2 + 8x4 , −4x4 , x4 ,
donde x4 es un número cualquiera.
En un sistema de ecuaciones lineales cuya matriz ampliada es es-
calonada reducida, las incógnitas que figuran en primer lugar en alguna
I.3. DISCUSIÓN Y RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES
ecuación (y que por tanto son tales que su coeficiente es un pivote de la
matriz y es igual a 1) se denominan incógnitas básicas o incógnitas principales; las restantes se denominan incógnitas libres, o parámetros. Cuando
buscamos escribir la solución del sistema, despejamos las incógnitas básicas
en función de las incógnitas libres.
Por ejemplo, en el sistema de ecuaciones lineales (41), visto en el § 89,
y que tiene por matriz ampliada una matriz escalonada reducida, la incógnita x1 es la primera incógnita de la primera ecuación, con lo que es una
incógnita básica (o principal). También son incógnitas básicas las incógnitas x2 y x3 , primeras de las ecuaciones segunda y tercera, respectivamente.
La incógnita x4 , por el contrario, es una incógnita libre (o un parámetro).
Cuando hemos buscado la solución de este sistema, hemos despejado las
incógnitas básicas en función de la incógnita libre; esto es justamente lo que
está plasmado en las igualdades de (42).
Notación habitual para las
incógnitas libres, con letras
griegas. Continuación del
ejemplo del § 89
Cuando un sistema cuya matriz ampliada es escalonada reducida
91
admite solución y exhibe incógnitas libres o parámetros, en la expresión
final de la solución se suelen sustituir las incógnitas libres por otras letras,
habitualmente griegas, para distinguirlas en su notación de las incógnitas
principales.
Por ejemplo, para el sistema (41), y en definitiva para el (40) —que
Letra griega λ (léase “lambda”).
es equivalente a él—, si denotamos la incógnita libre x4 por λ, podemos
concluir lo siguiente: todas las soluciones del sistema (40) son las cuaternas (x1 , x2 , x3 , x4 ) tales que:
⎧
⎪
x1 = −1 − 6λ,
⎪
⎪
⎪
⎪
⎪
⎨ x2 = 2 + 8λ,
donde λ es un número cualquiera;
⎪
⎪
− 4λ,
x3 =
⎪
⎪
⎪
⎪
⎩x =
λ,
4
o también: todas las soluciones del sistema (40) son las cuaternas de la
forma:
Sustitución hacia atrás en el
sistema del § 89
−1 − 6λ, 2 + 8λ, −4λ, λ ,
donde λ es un número cualquiera.
92
Volvamos al sistema de ecuaciones lineales (40). Una vez hemos
de su matriz ampliada —la cual nos ha
llegado a la forma escalonada A
permitido deducir que el sistema es compatible indeterminado—, podemos
: tal
escribir el sistema cuya matriz ampliada es esta matriz escalonada A
sistema es equivalente al (40) y puede ser resuelto por sustitución hacia
atrás (cf. § 50, p. 59). Veámoslo.
I. SISTEMAS DE ECUACIONES LINEALES
es el siguiente:
El sistema cuya matriz ampliada es la matriz A
⎧
⎪
x + x2 + x3 + 2x4 = 1
⎪
⎪
⎨ 1
=2
x2 + 2x3
⎪
⎪
⎪
⎩
x3 + 4x4 = 0.
En la tercera ecuación despejamos x3 : x3 = −4x4 ; lo sustuimos en la segunda ecuación y obtenemos que x2 − 8x4 = 2, de donde: x2 = 2 + 8x4 ;
finalmente, en la primera ecuación sustituimos x2 y x3 por las expresiones
deducidas, y llegamos a x1 + 6x4 = 1, y así: x1 = 1 − 6x4 . En definitiva,
obtenemos justamente las igualdades escritas en (42). La solución a la que
llegamos para el sistema es, por supuesto, la misma; la recordamos: todas
las cuaternas de la forma:
Otro ejemplo
−1 − 6x4 , 2 + 8x4 , −4x4 , x4 ,
93
donde x4 es un número cualquiera.
Consideremos el siguiente sistema de ecuaciones lineales:
⎧
⎨
x1 + 2x2
=
4
(43)
⎩ −2x1 − 4x2 + x3 + x4 = −7.
Con el fin de discutir el sistema, escalonamos su matriz ampliada:
=
A
1
−2
2
−4
0
1
0
1
4
−7
F2 ←F2 +2F1
→
1
0
2
0
0
1
0
1
4
1
.
=A
tiene dos pivotes, menos que el total de incógnitas
La matriz escalonada A
del sistema, y ninguno de ellos figura en la última columna. El sistema de
ecuaciones lineales (43) es, pues, compatible indeterminado.
ya es escalonada
Para resolver el sistema, fijémonos en que la matriz A
= A
. Acontece también que la
reducida; de hecho, podemos escribir: A
no presenta sus pivotes en las primeras comatriz escalonada reducida A
lumnas. Para solventarlo, y así seguir directamente lo explicado en el § 87
(cf. p. 91), podríamos reordenar las incógnitas del sistema de manera similar a como hicimos en el ejemplo del § 88 (cf. p. 92), a fin de que sí queden
los pivotes en las primeras columnas (en concreto, podríamos considerar el
orden x1 , x3 , x2 y x4 ). Pero no vamos a proceder así.
es
El sistema cuya matriz ampliada es la matriz escalonada reducida A
este:
⎧
⎨ x1 + 2x2
⎩
=4
x3 + x4 = 1.
(44)
I.3. DISCUSIÓN Y RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES
De acuerdo con la nomenclatura introducida en el § 90, en el sistema (44)
las incógnitas x1 y x3 son básicas (cada una es la primera de una ecuación),
y las incógnitas x2 y x4 son libres. Despejamos las incógnitas básicas en
función de las libres; obtenemos:
⎧
⎨ x1 = 4 − 2x2
,
⎩ x3 = 1
− x4 .
Así vemos que, dando valores numéricos concretos a x2 y x4 , los valores
correpondientes de x1 y x3 obtenidos de las igualdades anteriores nos configuran una solución del sistema. Por ejemplo, si x2 = 1 y x4 = 2, se obtiene
que x1 = 2 y x3 = −1, y la cuaterna (2, 1, −1, 2) es una solución del sistema.
Finalmente, si —como es usual— sustituimos las letras de las incógnitas
Letra griega μ (léase “mi”).
libres por letras griegas —por ejemplo, x2 por λ y x4 por μ—, entonces
podemos concluir que todas las soluciones del sistema (44), y por tanto las
del (43), son las cuaternas (x1 , x2 , x3 , x4 ) tales que:
⎧
⎪
x1
⎪
⎪
⎪
⎪
⎪
⎨ x2
⎪
⎪ x3
⎪
⎪
⎪
⎪
⎩x
4
= 4 − 2λ
=
λ
=1
=
donde λ y μ son números cualesquiera;
−μ
μ,
o bien: tales soluciones son todas las cuaternas de la forma:
Más sobre la distinción entre
incógnitas básicas e
incógnitas libres
4 − 2λ, λ, 1 − μ, μ ,
94
donde λ y μ son números cualesquiera.
La nomenclatura que hemos introducido en el § 90, con la que dis-
tinguimos entre incógnitas básicas e incógnitas libres, es aplicable también
a sistemas de ecuaciones lineales compatibles determinados. Lo que acontece con estos sistemas es que no presentan incógnitas libres: todas son
básicas.
Dado un sistema de ecuaciones lineales con matriz
pivotes que incógnitas, y si hubiera menos, el sistema
ampliada escalonada, acontece lo siguiente: si el sis-
sería compatible indeterminado. Si la matriz ampliada
tema es compatible determinado, la matriz ampliada
del sistema, además de escalonada, es escalonada redu-
no presenta ningún pivote en su última columna y tiene
cida, al haber un pivote por incógnita resulta que cada
tantos pivotes como incógnitas. ¿Por qué? Por un lado,
incógnita es la primera de alguna ecuación, es decir,
si hubiera un pivote en la última columna, el sistema
sería incompatible; por otro lado, no puede haber más
todas las incógnitas son básicas, y no hay incógnitas
libres.
I. SISTEMAS DE ECUACIONES LINEALES
Por otra parte, surge la pregunta de cuántas incógnitas libres (o parámetros) presenta finalmente en su solución un sistema de ecuaciones lineales.
La respuesta es esta: tantas como marca la diferencia entre el número de
incógnitas y el número de pivotes. Esta afirmación es válida para sistemas
tanto compatibles determinados como compatibles indeterminados (en el
primer caso, la citada diferencia es nula). Animamos al lector a comprobar
la afirmación particularmente en los sistemas de ecuaciones lineales compatibles indeterminados que hemos ido viendo en los últimas páginas.
2. Sistemas homogéneos
Este apartado está dedicado a un tipo particular de sistema de ecuaciones
lineales: los sistemas homogéneos.
Sistemas homogéneos
95
Un sistema de ecuaciones lineales homogéneo es un sistema en el
cual el término independiente de cada ecuación es nulo.
Por ejemplo, el siguiente es un sistema de ecuaciones lineales homogéneo:
Si hacemos x1 = 0, x2 = 0
y x3 = 0 en el sistema, obtenemos una igualdad de cada
ecuación.
⎧
⎨ x1 − 2x2 + x3 = 0
⎩ x1
− 2x3 = 0,
(45)
pues sus dos términos independientes son nulos. En este sistema vemos al
menos una solución obvia: la terna (0, 0, 0) (o terna nula).
En general, un sistema homogéneo de n ecuaciones en las m incógnitas x1 , x2 , . . . , xm tiene esta forma:
⎧
⎪
a11 x1 + a12 x2 + · · · + a1m xm = 0
⎪
⎪
⎪
⎪
⎪
⎨ a21 x1 + a22 x2 + · · · + a2m xm = 0
⎪
⎪ ........................................
⎪
⎪
⎪
⎪
⎩ a x + a x + · · · + a x = 0.
n1 1
n2 2
nm m
Es claro que tiene al menos una solución: la llamada solución nula, dada
por x1 = x2 = . . . = xm = 0; es decir, esta m-upla:
0, 0, . . . , 0 .
m ceros
Nótese también que la última columna de la matriz ampliada de un sistema homogéneo es nula; en particular, no puede dar lugar a un pivote al
escalonar la matriz, lo que vuelve a confirmar que el sistema no es incompatible: admite al menos una solución.
I.3. DISCUSIÓN Y RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES
Discusión de sistemas
homogéneos
96
Como todo sistema homogéneo admite al menos una solución: la
nula, la discusión de un sistema homogéneo se reduce a determinar si admite solamente esta solución nula (compatible determinado) o si admite más
soluciones (compatible indeterminado). Dado que la última columna de la
Recordemos que esta última
columna es nula.
matriz ampliada de un sistema homogéneo no da lugar a ningún pivote, la
forma de determinar la clase de sistema se puede reducir a escalonar solamente la matriz de coeficientes del sistema y contar sus pivotes: si tiene tantos como incógnitas, el sistema es compatible determinado; si tiene menos
pivotes que incógnitas, el sistema es compatible indeterminado.
Los sistemas homogéneos, sin embargo, verifican esta propiedad:
Si un sistema de ecuaciones lineales homogéneo tiene más incógnitas que
ecuaciones, entonces es compatible indeterminado.
¿Por qué? Supongamos que ya tenemos una forma escalonada de la matriz ampliada del sistema. Si hay más incógnitas que ecuaciones, entonces
hay más incógnitas en el sistema que filas en la forma escalonada (pues
hay tantas de estas como ecuaciones). Como en toda matriz escalonada el
número de pivotes es menor o igual que el de filas, en definitiva hay más
incógnitas en el sistema que pivotes en la forma escalonada de su matriz
ampliada, con lo que el sistema es compatible indeterminado.
Por ejemplo, el sistema homogéneo (45) tiene más incógnitas que ecuaciones, luego es compatible indeterminado.
Un ejemplo de resolución de
un sistema homogéneo
97
De acuerdo con lo visto en el § 96, el sistema de ecuaciones lineales
homogéneo (45) es compatible indeterminado. Pero, ¿cuáles son todas sus
soluciones?
En principio, los sistemas homogéneos compatibles indeterminados se
resuelven como hemos visto hasta ahora: de su matriz ampliada, se busca
la forma escalonada reducida, y se plantea el sistema que tiene esta forma
escalonada reducida como matriz ampliada. Pero puede haber una pequeña
salvedad en virtud de que se trata de un sistema homogéneo. La última
columna de la matriz ampliada es nula, y cualquier transformación elemental (por filas) que se le aplique seguirá dejando nula esta última columna; a
Como decíamos en el § 96 para la discusión de un sistema
homogéneo: solo la matriz de
coeficientes.
fin de no arrastrar una columna nula a cada cálculo, en la práctica es más
operativo escalonar solamente la matriz de coeficientes del sistema.
Con el sistema (45), empezamos escalonando su matriz de coeficientes:
1 −2
1 F2 ←F2 −F1
1 −2
1
A=
= A .
→
1
0 −2
2 −3
0
I. SISTEMAS DE ECUACIONES LINEALES
Como la matriz escalonada A tiene dos pivotes, menos que incógnitas tiene
el sistema, se ve confirmado lo que ya sabemos: que se trata de un sistema
compatible indeterminado. Concluimos el cálculo de la forma escalonada
reducida de la matriz A a partir de esta forma
1 −2
1 F2 ←(1/2)F2
1
→
A =
2 −3
0
0
1
F1 ←F1 +2F2
→
0
escalonada A :
−2
1
1 −3/2
0
−2
= A .
1 −3/2
Ahora, el sistema homogéneo cuya matriz de coeficientes es la matriz esca¡Que no se nos olviden los términos independientes nulos!
lonada reducida A es este:
⎧
⎨ x1
⎩
2x3 = 0
−
x2 − (3/2)x3 = 0.
En este sistema, las incógnitas x1 y x2 son básicas, y la incógnita x3 es libre;
despejamos aquellas en función de esta:
3
x3 .
2
Denotando la incógnita libre por λ, concluimos que todas las soluciones del
x1 = 2x3
y
x2 =
sistema homogéneo (45) son las ternas (x1 , x2 , x3 ) tales que:
⎧
⎪
x = 2λ,
⎪
⎪ 1
⎪
⎪
⎨
3
x2 = λ, donde λ es un número cualquiera;
⎪
2
⎪
⎪
⎪
⎪
⎩
x3 = λ,
Otro ejemplo
o bien: todas las ternas de la forma:
3
2λ, λ, λ , donde λ es un número cualquiera.
2
98
El siguiente sistema de ecuaciones lineales es homogéneo:
⎧
⎨ 4x1 + 2x2 = 0
⎩ 2x1 − 3x2 = 0.
Resolvámoslo.
Escalonamos su matriz de coeficientes:
4
2 F2 ←F2 −(1/2)F1
4
A=
→
2 −3
0
2
−4
= A .
Como la matriz escalonada A exhibe dos pivotes, tantos como incógnitas tiene el sistema, deducimos que el sistema es compatible determinado.
Sin más cálculos, concluimos que su única solución es el par ordenado nulo: (0, 0).
I.3. DISCUSIÓN Y RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES
3. Resultados adicionales importantes
En este apartado probamos dos resultados que hemos citado a lo largo de
las páginas anteriores: todas las formas escalonadas de una misma matriz
tienen idéntico número de pivotes (y tienen estos en las mismas columnas),
y la unicidad de la forma escalonada reducida de una matriz.
Invarianza del número de pivotes al escalonar una matriz
Todas las formas escalonadas
de una matriz tienen el
mismo número de pivotes
99
Una matriz nula solamente tiene una forma escalonada: ella misma,
pero una matriz no nula admite infinitas formas escalonadas. Todas las
formas escalonadas de una matriz tienen el mismo número de pivotes, y en
todas ellas los pivotes están situados en las mismas columnas.
Consideremos una matriz A no nula (tiene, pues,
un término no nulo al menos).
En primer lugar, comprobamos este resultado: si
encontramos una forma escalonada de la matriz A con
un pivote en la última columna, entonces cualquier otra
forma escalonada de A tiene también un pivote en su
última columna.
forma escalonada de la matriz A que no tenga un pivote
en su última columna (si la hubiera, el sistema con matriz ampliada A sería compatible determinado o compatible indeterminado). Todas las formas escalonadas
de la matriz A presentan, pues, un pivote en su última
columna.
De acuerdo con lo probado, podemos afirmar lo si-
Si la matriz A solo tiene una columna (es decir, es
guiente: o bien todas las formas escalonadas de la ma-
de orden (n, 1) para algún número n), para escalonarla
triz A presentan un pivote en su última columna, o bien
procedemos así: se selecciona algún término no nulo
de la matriz (de su única columna), se lleva a la primera posición y se anulan los que están por debajo de
él; cualquier forma escalonada de A es, pues, de esta
forma:
⎛
En segundo lugar, comprobamos este otro resultado: fijada una columna de la matriz A, digamos la
j-ésima (con j un número natural entre 1 y el número
de columnas de A), si alguna forma escalonada de la
⎞
a
⎜ ⎟
⎜0⎟
⎜ ⎟
⎜ . ⎟,
⎜ .⎟
⎝ .⎠
0
no lo presenta ninguna.
matriz A presenta un pivote en su columna j-ésima, entonces cualquier otra forma escalonada de A presenta
para algún número a no nulo,
también un pivote en su columna j-ésima.
Si la j-ésima columna es la última, estamos ante el
primer resultado (probado en los párrafos anteriores).
y podemos afirmar que todas estas formas escalona-
Si tal columna no es la última, podemos eliminar, tanto
das tienen un pivote en su última columna. Suponga-
de la forma escalonada citada en el enunciado como
mos ahora que la matriz A tiene dos columnas o más,
de la propia matriz A, las últimas columnas de forma
de forma que puede considerarse la matriz ampliada
que la j-ésima quede como nueva última. La matriz
de un sistema de ecuaciones lineales. Como hay una
obtenida al quitar estas columnas en la forma escalo-
forma escalonada de A con un pivote en su última co-
nada de A es, a su vez, una forma escalonada de la matriz que queda al quitar tales columnas en la matriz A.
lumna, tal sistema es incompatible, y cualquier sistema
cuya matriz ampliada sea una forma escalonada de A
será también incompatible. No puede haber, pues, una
Aplicando el primer resultado, concluimos el segundo.
De esta forma, podemos afirmar lo siguiente: o bien
I. SISTEMAS DE ECUACIONES LINEALES
todas las formas escalonadas de la matriz A presentan
a lo más un pivote, podemos finalmente concluir que
un pivote en la columna j-ésima, o bien no lo presenta
todas las formas escalonadas de la matriz A tienen los
ninguna.
Como cada columna de una matriz escalonada tiene
pivotes en las mismas columnas; en particular, todas
tienen el mismo número de pivotes.
Dada una matriz, todas sus formas escalonadas tienen el mismo número
de pivotes, y estos pivotes figuran en las mismas columnas.
Nota bene
El resultado anterior también es verificado por una matriz nula.
Unicidad de la forma escalonada reducida
La forma escalonada reducida
de una matriz es única
100
La forma escalonada reducida de una matriz es única. Es decir,
solo hay una matriz escalonada reducida que pueda obtenerse a partir de la
matriz dada con la aplicación de transformaciones elementales sucesivas.
Consideremos una matriz no nula A de or-
Supondremos que la matriz A admite dos formas
den (n, m). Todas sus formas escalonadas (reducidas
escalonadas reducidas, que denotaremos B y D, y com-
o no) tienen la misma cantidad de pivotes (cf. § 99);
probaremos que B = D.
denotemos esta cantidad por r .
Las matrices B y D tienen sus pivotes en las mis-
Si la cantidad de pivotes es igual a la de colum-
mas columnas; sin pérdida de generalidad podemos
nas: r = m, cualquier posible forma escalonada redu-
suponer que ambas los tienen en las primeras colum-
cida de la matriz A es una matriz de orden (n, m), escalonada reducida, y con m pivotes. De acuerdo con
nas (si no es el caso, una reordenación adecuada de las
columnas —la misma para ambas matrices— sitúa los
el § 77 (cf. p. 80), una matriz de estas características
pivotes donde queremos). De nuevo de acuerdo con el
§ 77 (cf. p. 80), la matriz B tiene esta forma:
⎞⎫
⎛
1 0 . . . 0 b1(r +1) . . . b1m ⎪
⎪
⎟⎪
⎜
⎪
⎜ 0 1 . . . 0 b2(r +1) . . . b2m ⎟ ⎪
⎬
⎟
⎜
⎟ r =n ,
⎜.
.
.
.
.
.
.
⎜.
.
..
.
.
..
. ⎟⎪
⎪
.
.
.
. ⎠⎪
⎝.
⎪
⎪
⎭
0 0 . . . 1 br (r +1) . . . br m
debe ser así: o bien es la matriz identidad de orden m,
o bien es la matriz resultante de “añadir filas nulas por
debajo” (tantas como señale la diferencia n−r ) a la matriz identidad de orden m, y tenemos un caso u otro
según sea el número de pivotes igual al de filas (r = n)
o menor (r < n), respectivamente. En cualquiera de los
dos casos, la forma escalonada reducida de la matriz A
resulta ser única.
para algunos números bij (1 i r y r + 1 j m);
A partir de ahora, supongamos que el número de
y la matriz D también tiene la misma forma, pero en
pivotes es menor que el número de columnas: r < m.
vez de los números bij tiene eventualmente otros, que
Por comodidad, pongámonos también en el caso en el
denotamos por dij (1 i r y r + 1 j m).
r
m−r
que el número de pivotes es igual al de filas: r = n
Ahora observamos que el sistema homogéneo con
(si r < n, el desarrollo sería el mismo, solo que con fi-
matriz de coeficientes B es equivalente al sistema ho-
las nulas o ecuaciones nulas añadidas a las matrices o
a los sistemas, respectivamente, que consideramos).
mogéneo con matriz de coeficientes D; toda solución,
pues, del primero debe serlo del segundo, y viceversa.
I.3. DISCUSIÓN Y RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES
El segundo sistema, verbigracia, toma este aspecto:
⎧
⎪
x1
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎨
cientes D), del que también es solución, obtenemos:
+ d1(r +1)xr +1 + · · · + d1m xm = 0
+ d2(r +1)xr +1 + · · · + d2m xm = 0
x2
..
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎩
..
.
.
..
.
..
.
xr + dr (r +1) xr +1 + · · · + dr m xm = 0.
La siguiente m-upla es una solución del primer sistema
(el de matriz de coeficientes B) :
⎧
b1m + d1m (−1) = 0,
⎪
⎪
⎪
⎪
⎪
⎪
⎨ b2m + d2m (−1) = 0,
⎪
......................
⎪
⎪
⎪
⎪
⎪
⎩ br m + dr m (−1) = 0,
de donde: b1m = d1m , b2m = d2m , . . . , br m = dr m . Para
cada j tal que r + 1 j < m, procedemos de manera
b1m , b2m , . . . , br m , 0, . . . , 0 , −1 ,
m − r − 1 ceros
análoga: consideramos la solución del sistema de matriz de coeficientes B obtenida dando a las incógnitas
libres estos valores: xj = −1 y nulas las demás, y la
“construida” tomando las incógnitas libres de esta ma-
sustituimos en el sistema de matriz de coeficientes D;
nera: xm = −1 y nulas las demás. Al sustituir esta
con ello obtenemos: b1j = d1j , b2j = d2j , . . . , br j = dr j .
m-upla en el segundo sistema (el de matriz de coefi-
Las matrices B y D resultan, efectivamente, iguales.
Dada una matriz, su forma escalonada reducida es única.
4. Ejemplos de discusión y resolución de sistemas
de ecuaciones lineales
En este apartado, consideramos varios ejemplos de sistemas de ecuaciones
lineales en los que figura algún parámetro, y los discutimos y resolvemos
Recordemos que también hemos empleado el vocablo parámetro como sinónimo de incógnita libre.
según los valores del parámetro o parámetros que tengan. En este contexto,
un parámetro es una variable que figura en algún coeficiente o término independiente del sistema y puede tomar diferentes valores (si no se especifica
otra cosa, podrá tomar como valor cualquier número real); según los valores
de esta variable, el sistema puede ser de una clase u otra, o puede tener una
solución u otra.
Un ejemplo con dos
incógnitas
101
Discutamos y resolvamos, según los valores del parámetro a, el si-
guiente sistema de dos ecuaciones lineales y dos incógnitas:
⎧
⎨ x− y =2
⎩ 2x + ay = 1.
La matriz ampliada del sistema es esta:
1 −1 2
A=
.
1
2 a
(46)
I. SISTEMAS DE ECUACIONES LINEALES
Tratemos de escalonarla con el procedimiento que conocemos:
=
A
1
2
−1
a
2
1
F2 ←F2 −2F1
→
1
0
−1
a+2
2
−3
.
=A
, ¿es escalonada? Sí. ¿Qué pivotes tiene? Sabemos
La matriz obtenida: A
que su primer pivote es igual a 1 y que figura en la primera columna. ¿Y un
segundo pivote? Lo hay, pero no sabemos si figura en la segunda columna
o en la tercera; ello dependerá del valor del parámetro a. La expresión a + 2
puede ser nula o no, según el valor de a. Si es no nula, entonces el segundo
pivote de la matriz está en la segunda columna (sería igual, justamente,
a a+2); si es nula, está en la tercera columna (sería igual a −3). Distingamos,
pues, ambos casos. Por un lado: a + 2 ≠ 0, es decir: a ≠ −2; por otro
lado: a + 2 = 0, esto es: a = −2.
toma la forma:
Primer caso: a ≠ −2. La forma escalonada de la matriz A
, escribimos: A
1 .
En vez de: A
Añadimos subíndices para señalar los distintos casos.
1 =
A
1
0
−1
a+2
2
−3
.
Esta matriz, forma escalonada de la matriz ampliada del sistema (46) para
este caso, no presenta un pivote en su última columna, y el número de sus
pivotes es igual al número de incógnitas del sistema. En este caso, pues, el
sistema (46) es compatible determinado.
es ahora:
Segundo caso: a = −2. La forma escalonada de la matriz A
Un nuevo subíndice.
2 =
A
1
0
−1
0
2
−3
,
la cual presenta un pivote en su última columna. En este caso, entonces, el
sistema (46) es incompatible.
Una vez tenemos discutido el sistema en función de los valores del parámetro a, resolvámoslo. Para ello, solamente debemos seguir trabajando
en el primer caso —el de a ≠ −2—, pues el otro nos lleva a un sistema in
compatible. Calculemos, pues, la forma escalonada reducida de la matriz A
en el caso en que a ≠ −2. Seguimos el procedimiento general ya conocido,
1 . Primero hacemos
y partimos de la forma escalonada recién calculada: A
unitarios los pivotes; para ello solo debemos multiplicar la segunda fila por
el inverso de a + 2:
1 =
A
1
0
−1
a+2
2
−3
⎛
⎜
→
⎝
F2 ←[1/(a+2)]F2
1
−1
0
1
⎞
2
⎟
3 ⎠.
−
a+2
I.3. DISCUSIÓN Y RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES
Y ahora anulamos el término que figura en la misma columna del segundo
pivote:
⎛
Otra vez añadimos un subíndice para señalar los casos; es .
, en vez de: A
cribimos: A
1
⎜
⎝
1
−1
0
1
⎛
⎞
2
⎜1
⎟ F1 ←F1 +F2 ⎜
⎜
3 ⎠ →
⎝
−
0
a+2
3
a+2
3
−
a+2
2−
0
1
⎞
⎟
⎟
⎟=A
1.
⎠
La matriz A
1 obtenida ya es ecalonada reducida. El sistema que la tiene por
matriz ampliada es este:
⎧
⎪
⎪
⎪
⎨x
3
2a + 1
2−
=
a+2
a+2
Nótese que podemos leer esta
solución única en la última co
lumna de la matriz A
1.
⎪
⎪
⎪
⎩
2a + 1
a+2
3
,
y =−
a+2
=
y su solución única salta a la vista: el par ordenado
2a + 1
a+2
,−
3 .
a+2
Es esta la solución del sistema (46) en el caso en que a ≠ −2.
Resumimos lo obtenido tras el análisis del sistema de ecuaciones lineales (46):
• si a ≠ −2, el sistema es compatible determinado, y su única solución
es el par ordenado 2 − 3/(a + 2), −3/(a + 2) ;
• si a = −2, el sistema es incompatible.
Otro ejemplo con dos
incógnitas
102
Discutamos y resolvamos, según los valores del parámetro a, este
sistema de ecuaciones lineales:
⎧
⎨ x− y =2
⎩ 2x + ay = 4.
(47)
Escribimos la matriz ampliada del sistema:
1 −1 2
=
A
,
4
2 a
y buscamos escalonarla:
1 −1
A=
2 a
2
4
F2 ←F2 −2F1
→
1
0
−1
a+2
2
0
.
=A
obtenida es escalonada, pero es ambiguo el número de sus
La matriz A
pivotes si no tenemos información sobre el valor del parámero a. Más en
concreto, sabemos que la matriz tiene un primer pivote —igual a 1, y en su
I. SISTEMAS DE ECUACIONES LINEALES
primera columna—, pero podría tener otro más —en su segunda columna—,
o no tener ninguno más: todo según sea la expresión a + 2 distinta de 0 o
igual a 0, respectivamente.
toma la forma:
Si a + 2 ≠ 0, es decir, si a ≠ −2, la matriz A
1
−1
2
A1 =
.
0 a+2 0
Se trata de una matriz con dos pivotes, tantos como incógnitas, y ninguno
en la última columna: sistema compatible determinado.
resulta ser:
Si a + 2 = 0, es decir, si a = −2, la matriz A
1 −1 2
2 =
A
.
0
0 0
Estamos ante un único pivote que no figura en la última columna: sistema
compatible indeterminado.
La discusión del sistema (47) nos ha llevado, pues, a dos posibilidades:
compatible determinado o compatible indeterminado, según sea a ≠ −2
o a = −2, respectivamente. Para la resolución del sistema, en ambos casos
buscamos llegar a la forma escalonada reducida correspondiente.
La matriz A
1 es la matriz ampliada de:
⎧
⎨x
=2
⎩
y = 0.
Podríamos escribir: A
2 = A2 .
En el primer caso: a ≠ −2, tenemos:
1
−1
2 F2 ←[1/(a+2)]F2
1
A1 =
→
0 a+2 0
0
1
F1 ←F1 +F2
→
0
−1
1
0
1
2
0
2
0
=A
1,
y podemos leer la solución única correspondiente en la última columna de
esta matriz A
1 : el par ordenado (2, 0).
2 resulta ser ya esEn el segundo caso: a = −2, la matriz escalonada A
calonada reducida. En el sistema que la tiene como matriz ampliada, eliminamos la ecuación nula (correspondiente a la segunda fila de la matriz), y
obtenemos un sistema con una sola ecuación:
x − y = 2.
La incógnita x es la primera de
la única ecuación del sistema.
Este sistema presenta una incógnita básica: la x, y una incógnita libre: la y.
Expresamos la primera en función de la segunda: x = 2 + y, y sustituimos la segunda —por ser incógnita libre— por la letra griega λ. Todas las
soluciones del sistema son, pues, los pares ordenados (x, y) de la forma:
⎧
⎨ x = 2 + λ,
donde λ es un número cualquiera.
⎩y =
λ,
I.3. DISCUSIÓN Y RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES
O lo que es lo mismo: las soluciones son todos los pares ordenados (2+λ, λ)
con λ un número cualquiera.
Recapitulamos el estudio del sistema de ecuaciones lineales (47):
• si a ≠ −2, el sistema es compatible determinado, y su única solución
es el par ordenado (2, 0);
• si a = −2, el sistema es compatible indeterminado, y sus soluciones
son los pares ordenados de la forma (2 + λ, λ) con λ un número cualquiera.
Un ejemplo de discusión de
un sistema según el valor de
dos parámetros
103
Discutamos, según los valores de los parámetros a y b, el siguiente
sistema de ecuaciones lineales:
⎧
⎪
x
+ az = b + 2
⎪
⎪
⎨
2x + y + 2az = 2b + 3
⎪
⎪
⎪
⎩ −2x − y
=
− 3.
(48)
Como siempre, escribimos la matriz ampliada del sistema y la intentamos escalonar:
⎛
1
=⎜
A
⎝ 2
−2
0
1
−1
⎛
⎞
F2 ←F2 −2F1
b+2
1
⎟ F3 ←F3 +2F1 ⎜
2b + 3 ⎠ →
⎝0
−3
0
a
2a
0
⎛
1
⎜
→
⎝0
0
F3 ←F3 +F2
0
1
−1
0
1
0
a
0
2a
a
0
2a
⎞
b+2
⎟
−1 ⎠
2b + 1
⎞
b+2
⎟
.
−1 ⎠ = A
2b
La matriz obtenida es escalonada y exhibe al menos dos pivotes —en las
dos primeras columnas—, pero queda ambigua la existencia de un tercero.
Según sean nulos o no los parámetros a y b, podría haber o no un tercer
pivote, y en caso afirmativo estar este pivote en la tercera columna o en la
cuarta. Más en concreto, si a ≠ 0, entonces figura un tercer pivote en la
tercera columna; si a = 0 y b ≠ 0, entonces encontramos el tercer pivote en
la cuarta columna; y si a = b = 0, no hay tal tercer pivote. Examinemos más
detenidamente cada caso.
toma la forma:
Si a ≠ 0, la matriz A
⎛
Nótese que, si a ≠ 0, el sistema es compatible determinado independientemente de
que b sea nulo o no.
1
1 = ⎜
A
⎝0
0
0
1
0
a
0
2a
⎞
b+2
⎟
−1 ⎠ ,
2b
con tantos pivotes como incógnitas y ninguno en la última columna: sistema
compatible determinado.
I. SISTEMAS DE ECUACIONES LINEALES
queda así:
Si a = 0 y b ≠ 0, la matriz A
⎛
1
2 = ⎜
⎝0
A
0
0
1
0
⎞
b+2
⎟
−1 ⎠ ,
2b
0
0
0
con un pivote en la última columna: sistema incompatible.
resulta:
Finalmente, si a = b = 0, la matriz A
⎛
1
3 = ⎜
A
⎝0
0
0
1
0
0
0
0
⎞
2
⎟
−1 ⎠ ,
0
con menos pivotes que incógnitas, y ninguno en la última columna: sistema
compatible indeterminado.
Continuación del ejemplo
anterior
En el § 103, hemos discutido el sistema de ecuaciones (48) según
104
los valores de los parámetros a y b; ahora, resolvámoslo.
Si a ≠ 0, el sistema es compatible determinado; el cálculo de la forma
escalonada reducida de la matriz ampliada toma esta forma:
⎛
1
1 = ⎜
A
⎝0
0
0
1
0
a
0
2a
⎛
⎞
b+2
1
⎟ F3 ←[1/(2a)]F3 ⎜
−1 ⎠ →
⎝0
2b
0
⎛
1
F1 ←F1 −aF3
⎜
→
⎝0
0
0
1
0
a
0
1
⎞
b+2
⎟
−1 ⎠
b/a
0
1
0
0
0
1
⎞
2
⎟
−1 ⎠ = A
1.
b/a
Leyendo la última columna de la matriz A
1 , deducimos que la única solución
del sistema (48) en este caso es la terna (2, −1, b/a).
Si a = 0 y b ≠ 0, el sistema (48) es incompatible, y no hay nada más que
hacer.
= A
.
Podríamos escribir: A
3
3
Nótese que el sistema, con todos los coeficientes explicitados, sería este:
⎧
⎪
x + 0y + 0z = 2
⎪
⎪
⎨
0x + y + 0z = −1
⎪
⎪
⎪
⎩ 0x + 0y + 0z = 0.
Finalmente, si a = b = 0, el sistema es compatible indeterminado. La
3 , forma escalonada de la matriz A
en este caso, ya es escalonada
matriz A
3 se reduce a este
reducida. El sistema cuya matriz ampliada es la matriz A
(eliminando la ecuación nula):
⎧
⎨x
⎩
=
y
2
= −1,
el cual debe ser considerado —no lo olvidemos— un sistema en las tres
incógnitas x, y y z. Las incógnitas x y y son básicas, y en este caso toman
un valor fijo; la incógnita z, aunque no figure, es libre. Haciendo uso de la
I.3. DISCUSIÓN Y RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES
letra griega λ para designar la incógnita libre, podemos escribir que todas
las soluciones del sistema son las ternas (x, y, z) tales que:
⎧
⎪
,
⎪
⎪x = 2
⎨
y = −1
, donde λ es un número cualquiera;
⎪
⎪
⎪
⎩z=
λ,
es decir: las ternas de la forma (2, −1, λ) con λ un número cualquiera.
Recapitulamos la discusión y resolución del sistema de ecuaciones lineales (48):
• si a ≠ 0, el sistema es compatible determinado, y su única solución es
la terna (2, −1, b/a);
• si a = 0 y b ≠ 0, el sistema es incompatible;
• si a = b = 0, el sistema es compatible indeterminado, y sus soluciones
son las ternas de la forma (2, −1, λ) con λ un número cualquiera.
Ejemplo de un sistema en el
que figuran tres parámetros
105
Discutamos y resolvamos, según los valores de los parámetros a, b
y c, el siguiente sistema de ecuaciones lineales:
⎧
⎪
− 3x3 + x4 = a
⎪
⎪ 2x1
⎨
x2 − 6x3 + 2x4 = b
⎪
⎪
⎪
⎩ 4x − x
= c.
1
(49)
2
Empezamos escalonando la matriz ampliada del sistema:
⎛
⎞
⎞
⎛
2
0 −3
1
a
2
0 −3 1 a
⎟ F3 ←F3 −2F1 ⎜
⎟
=⎜
b ⎠
1 −6 2 b ⎠ →
1 −6
2
⎝0
A
⎝0
4 −1
0 0 c
0 −1
6 −2 c − 2a
⎛
2
⎜
0
→
⎝
0
F3 ←F3 +F2
0
1
0
−3
−6
0
1
2
0
⎞
a
⎟
.
b
⎠=A
c − 2a + b
exhibe al menos dos pivotes, y en sus dos primeras
La matriz escalonada A
columnas. Si c − 2a + b ≠ 0, hay un tercer pivote, justamente en la última
columna: el sistema es incompatible en este caso. Si c − 2a + b = 0, no hay
más pivotes, y el sistema resulta ser compatible indeterminado (dos pivotes
frente a cuatro incógnitas).
Resolvamos ahora el sistema en el caso en que hay solución, esto es, en
el caso en que c − 2a + b = 0. La forma escalonada reducida de la matriz A
toma la forma:
⎛
2 0 −3
⎜
⎝ 0 1 −6
0 0
0
1
2
0
⎛
⎞
a
1
⎟ F1 ←(1/2)F1 ⎜
b ⎠ →
⎝0
0
0
0
1
0
−3/2
−6
0
1/2
2
0
⎞
a/2
⎟
b ⎠.
0
I. SISTEMAS DE ECUACIONES LINEALES
En el sistema cuya matriz ampliada es la matriz escalonada reducida anterior, eliminamos la tercera ecuación (que es nula), y obtenemos:
⎧
⎪
⎨ x1
⎪
⎩
−
3
1
a
x3 + x4 =
2
2
2
x2 − 6x3 + 2x4 = b .
Las incógnitas x1 y x2 son básicas, y las incógnitas x3 y x4 son libres. Despejando aquellas en función de estas, y escribiendo las letras griegas λ y μ en
vez de x3 y x4 , respectivamente, podemos concluir que todas las soluciones
del sistema son las cuaternas (x1 , x2 , x3 , x4 ) tales que:
⎧
3
1
a
⎪
⎪
⎪
x1 = + λ − μ,
⎪
⎪
2
2
2
⎪
⎪
⎪
⎪
⎨ x = b + 6λ − 2μ,
2
donde λ y μ son números cualesquiera;
⎪
⎪
⎪
⎪
=
λ
,
x
3
⎪
⎪
⎪
⎪
⎪
⎩x =
μ,
4
o bien: todas las soluciones del sistema son las cuaternas de la forma:
a
2
Sobre este sistema podemos
afirmar que una condición necesaria y suficiente (cf. nota
p. 168) para que admita solución es: c − 2a + b = 0.
+
3
1
λ − μ, b + 6λ − 2μ, λ, μ ,
2
2
con λ y μ números cualesquiera.
Resumamos el estudio del sistema de ecuaciones lineales (49):
• si c − 2a + b ≠ 0, el sistema es incompatible;
• si c − 2a + b = 0, el sistema es compatible indeterminado, y sus soluciones son todas las cuaternas (a/2 + (3/2)λ − μ/2, b + 6λ − 2μ, λ, μ)
con λ y μ números cualesquiera.
I.3. DISCUSIÓN Y RESOLUCIÓN DE UN SISTEMA DE ECUACIONES LINEALES
Ejercicios I.3
1
Resolver este sistema de ecuaciones lineales:
⎧
⎪
x+ y+ z=1
⎪
⎪
⎨
2y − z = 2
⎪
⎪
⎪
⎩x − 3y + 3z = −3.
2
Resolver el sistema de ecuaciones lineales
⎧
⎪
x1 + x2 − x3 − 2x4 = −1
⎪
⎪
⎨
= 4
2x1 − x2 + 2x3
⎪
⎪
⎪
⎩ 3x
+ x − 2x = 3.
1
3
4
3 Resolver el sistema de ecuaciones lineales homogéneo cuya matriz de coeficientes es
⎛
⎞
1 0 1 −1
⎜
⎟
3⎠.
⎝ −1 2 1
0 1 1
1
4
Resolver el sistema de ecuaciones lineales cuya
matriz ampliada es
⎛
1
⎜
⎜0
⎜
⎜1
⎝
1
5
1
1
0
1
0
1
1
2
⎞
2
⎟
2⎟
⎟.
−1 ⎟
⎠
2
Nos dan el siguiente sistema de ecuaciones linea-
les, en el que figuran tres parámetros, a, b y c:
⎧
⎪
⎪
⎪ x − 3y = a
⎨
2x + y = b
⎪
⎪
⎪
⎩ 3x − 2y = c.
a)
¿Para qué valores de los parámetros a, b y c ad-
mite solución?
b)
Resolver el sistema cuando los parámetros a, b
y c son tales que el sistema es compatible determinado.
6
7
Discutir y resolver, según los valores del paráme-
tro p, el siguiente sistema de ecuaciones lineales:
⎧
⎪
=1
x1 − x2 + x3
⎪
⎪
⎨
x2 + x3 + x4 = 1
⎪
⎪
⎪
⎩ 2x − 2x + px
= 2.
1
2
3
8
Discutir y resolver, según los valores de los pa-
rámetros a, b y c, el siguiente sistema de ecuaciones
lineales:
⎧
⎪
+ x4 = a
x1 + x2
⎪
⎪
⎨
x2 − x3 − x4 = b
⎪
⎪
⎪
⎩ −x + x − x
= c.
1
9
2
3
Discutir y resolver, según los valores de los pa-
rámetros a, b, r y s, el sistema de ecuaciones lineales
cuya matriz ampliada es
10
1
b
a
1
r
s
.
Discutir y resolver, según los valores de los pará-
metros p y m, el siguiente sistema de ecuaciones lineales:
⎧
⎪
+
x3 = 2 − p
x
⎪
⎪
⎨ 1
x3 = p2
x1 + mx2 +
⎪
⎪
⎪
⎩x
+ (m + 2)x = 2.
1
11
3
Siendo a un parámetro, nos dan la matriz:
⎛
1
⎜
⎝2
0
1
0
2
−1
5
a
⎞
3
⎟
−1 ⎠ .
7
Discutir y resolver, según los valores de los pará-
metros a y m, este sistema de ecuaciones lineales:
⎧
⎨ x− y =2
⎩ 2x + ay = m.
Si esta matriz es la de coeficientes de cierto sistema de
ecuaciones lineales, ¿para qué valores del parámetro a
podemos afirmar que tal sistema admite solución cualesquiera que sean sus términos independientes?
I. SISTEMAS DE ECUACIONES LINEALES
RECAPITULACIÓN I
Ecuaciones lineales
Una ecuación lineal en
las m incógnitas (o variables) x1 , x2 , . . . , xm es una
admite infinitas soluciones, se dice que es compatible
indeterminado; y si no admite solución, se dice que es
expresión de la forma:
incompatible.
a1 x1 + a2 x2 + · · · + am xm = c,
(i )
donde a1 , a2 , . . . , am son números reales, llamados
coeficientes de la ecuación, y c es otro número real,
Dada una m-upla (s1 , s2 , . . . , sm ) de números, se
dice que es una solución de la ecuación lineal (i ) si al
sustituir, en la ecuación, x1 por s1 , x2 por s2 , . . . , xm
por sm , se obtiene una igualdad. Es decir, si se verifica:
las mismas incógnitas no admiten solución, también diremos que ambos son equivalentes.
Si en un sistema de ecuaciones lineales intercambiamos dos ecuaciones, o multiplicamos una ecuación
por un número no nulo, o sumamos a una ecuación un
original.
Las ecuaciones lineales se pueden multiplicar por
un número (decimos en este caso que hemos calculado
un múltiplo de la ecuación lineal) y se pueden sumar
miembro a miembro. Si sumamos a una ecuación lineal un múltiplo de otra, cualquier solución común a
las dos ecuaciones originales también será solución de
la ecuación lineal obtenida como resultado.
Representación matricial de un sistema de ecuaciones lineales
Una matriz de orden (n, m) (o de
orden n × m) es una disposición de n · m números
(reales) en forma rectangular en n filas y m columnas.
Los números que se escriben en una matriz se denominan términos de la matriz.
Se denomina matriz de coeficientes, o matriz aso-
Un sistema de
ecuaciones lineales es una lista (finita) de ecuaciones
lineales consideradas simultáneamente, todas en las
La expresión general de un sis-
tema de n ecuaciones lineales en las m incógnitas x1 ,
x2 , . . . , xm es:
⎧
a11 x1 + a12 x2 + · · · + a1m xm = c1
⎪
⎪
⎪
⎪
⎨
a21 x1 + a22 x2 + · · · + a2m xm = c2
⎪
⎪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
⎪
⎪
⎩
an1 x1 + an2 x2 + · · · + anm xm = cn .
Dos sistemas de ecuaciones lineales son equivalen-
múltiplo de otra, obtenemos un sistema equivalente al
a1 s1 + a2 s2 + · · · + am sm = c.
mismas incógnitas.
minafo, o bien es incompatible.
tes si tienen las mismas soluciones; si dos sistemas en
llamado término independiente de la ecuación.
Sistemas de ecuaciones lineales
Dado un sistema de ecuaciones lineales, o bien es
compatible determinado, o bien es compatible indeter-
ciada, del sistema de ecuaciones lineales (ii ) a esta matriz de orden (n, m):
⎛
a11 a12
⎜
⎜ a21 a22
⎜
⎜ .
.
⎜ .
..
⎝ .
an1 an2
...
...
..
.
...
⎞
a1m
⎟
a2m ⎟
⎟
.
. ⎟
.. ⎟
⎠
anm
Los términos de la i-ésima fila son los coeficientes de la
(ii )
Se llama solución de un sistema de n ecuaciones lineales y m incógnitas a toda m-upla que sea solución,
simultáneamente, de todas y cada una de las n ecuaciones lineales del sistema.
Si un sistema de ecuaciones lineales admite solución única, se dice que es compatible determinado; si
i-ésima ecuación del sistema, y los términos de la j-ésima columna son los coeficientes que acompañan a la
j-ésima incógnita en las ecuaciones del sistema.
Se denomina matriz ampliada del sistema de ecuaciones lineales (ii )
⎛
a11
⎜
⎜ a21
⎜
⎜ .
⎜ .
⎝ .
an1
a esta matriz de orden (n, m + 1):
⎞
a12 . . . a1m
c1
⎟
a22 . . . a2m
c2 ⎟
⎟
.
..
..
.. ⎟
..
⎟
.
.
.
. ⎠
an2 . . . anm
cn
RECAPITULACIÓN I
Esta matriz se diferencia de la de coeficientes en que
Una matriz escalonada reducida es una matriz es-
tiene una columna más, cuyos términos son los térmi-
calonada que satisface además estas dos condiciones:
nos independientes del sistema.
todos sus pivotes (si los tiene) son iguales a 1 (son unitarios), y en toda columna donde hay un pivote es este
Se denominan transformaciones elementales por
filas de una matriz, de tipo i, ii y iii, respectivamente,
a estos tres tipos de transformaciones que se ejecutan
en matrices:
• intercambiar dos filas;
• multiplicar una fila por un número no nulo;
• sumar a una fila un múltiplo de otra.
Estas transformaciones son un correlato, en las ma-
el único término no nulo.
Dada una matriz cualquiera, es posible obtener a
partir de ella, mediante la aplicación de transformaciones elementales sucesivas, una matriz escalonada reducida, de la que se dice que es la forma escalonada
reducida de la matriz original. La forma escalonada
reducida de una matriz es única.
trices ampliadas, de las operaciones en los sistemas
Dada una matriz escalonada reducida de or-
de intercambio de ecuaciones, multiplicación de una
ecuación por un número no nulo y suma a una ecuación
den (n, m), con r pivotes, si suponemos que estos
de un múltiplo de otra, respectivamente.
aplicación de intercambios de columnas adecuados), la
Si a la matriz ampliada de un sistema de ecuaciones
lineales se le aplica una transformación elemental, la
matriz resultante es la matriz ampliada de un sistema
de ecuaciones lineales equivalente al original.
En una matriz, una fila nula es una fila con todos
sus términos nulos. Una matriz nula es una matriz con
todos sus términos nulos. Dado un número natural k,
se dice que una fila no nula de una matriz tiene k ceros
iniciales si los k primeros términos de la fila son nulos
y el (k + 1)-ésimo no lo es.
ocupan las r primeras columnas (posiblemente tras la
matriz tiene esta forma:
⎛
1 0 ... 0 •
⎜
⎜0 1 ... 0 •
⎜
⎜.
.. . .
.
..
⎜.
. ..
⎜.
.
.
⎜
⎜0 0 ... 1 •
⎜
⎜
⎜0 0 ... 0 0
⎜
⎜.
.. . .
.
..
⎜ ..
. ..
.
.
⎝
0 0 ... 0 0
r
...
...
..
.
...
...
..
.
...
m−r
⎞
•
⎟
•⎟
⎟
.. ⎟
⎟
.⎟
⎟
•⎟
⎟
⎟
0⎟
⎟
.. ⎟
.⎟
⎠
0
⎫
⎪
⎪
⎪
⎪
⎪
⎬
⎪
⎪
⎪
⎪
⎪
⎭
⎫
⎪
⎪
⎪
⎬
r
⎪
⎪
⎪
⎭
n−r
.
Una matriz escalonada es una matriz que satisface
Las puntos: ‘•’, señalan posiciones que pueden ser ocu-
esta condición: o bien es nula, o bien sus filas no nulas
padas por cualquier número, nulo o no, y esta matriz
son las primeras, y cada una de ellas salvo la primera
tiene tantas columnas con términos de este tipo como
tiene más ceros iniciales que su precedente.
señala la diferencia m−r . También, la matriz tiene tan-
En una matriz escalonada, se llama pivote al primer término no nulo de cada fila. En cualquier matriz,
tas filas como indica la diferencia n − r . En esta matriz,
puede ocurrir que m − r = 0 o que n − r = 0 (o ambas
el número de pivotes es menor o igual que el número
igualdades a la vez).
de filas y menor o igual que el número de columnas.
Dada una matriz cualquiera, es posible obtener a
partir de ella, mediante la aplicación de transformaciones elementales sucesivas, una matriz escalonada; de la
matriz obtenida se dice que es una forma escalonada
de la matriz dada; también se dice que se ha escalonado la matriz original.
Cualquier matriz no nula admite infinitas formas
escalonadas (una matriz nula solo admite una: ella
misma).
Un método para discutir y resolver un sistema de
ecuaciones lineales
Por discutir un sistema de
ecuaciones lineales nos referimos a determinar de qué
tipo es: incompatible, compatible determinado o compatible indeterminado. Por resolver un sistema nos
referimos a encontrar efectivamente todas sus soluciones (cuando las admite).
Dado un sistema de ecuaciones lineales (con n
ecuaciones y m incógnitas), designemos por A su ma-
I. SISTEMAS DE ECUACIONES LINEALES
su matriz ampliada, y denotriz de coeficientes y por A
una forma escalonada (no necesariamente
temos por A
número de incógnitas y el número de pivotes (ello tam-
Hay tres posibilidades:
reducida) de la matriz A.
presenta un pivote en su última co• la matriz A
dos: para tales sistemas, la citada diferencia es nula).
lumna: sistema incompatible;
no presenta un pivote en su última
• la matriz A
columna y la cantidad de sus pivotes coincide con
la cantidad de incógnitas del sistema: sistema
compatible determinado;
no presenta un pivote en su última
• la matriz A
columna y la cantidad de sus pivotes es menor
que la cantidad de incógnitas del sistema: sistema compatible indeterminado.
Un sistema del cual sabemos que admite solución
puede resolverse de alguna de estas dos formas:
• Una. Se escribe el sistema cuya matriz ampliada
es una forma escalonada de la matriz ampliada
del sistema; este nuevo sistema es equivalente al
original y se puede resolver por sustitución hacia
atrás (se resuelve la última ecuación y el resultado se sustituye en las demás, se resuelve a continuación la penúltima y se sustituye de nuevo el
resultado en las restantes, y así sucesivamente).
• Dos. Se escribe el sistema cuya matriz anpliada
es la forma escalonada reducida de la matriz ampliada del sistema; este nuevo sistema también
es equivalente al original, y su resolución es inmediata (véase el párrafo siguiente).
En un sistema de ecuaciones lineales cuya matriz
ampliada es escalonada reducida, las incógnitas que figuran en primer lugar en alguna ecuación se denomi-
biuén es válido para sistemas compatibles determina-
Sistemas homogéneos
Un sistema de ecuaciones
lineales homogéneo es un sistema en el que es nulo el
término independiente de cada ecuación. En general,
un sistema homogéneo de n ecuaciones en las m incógnitas x1 , x2 , . . . , xm tiene esta forma:
⎧
⎪
a11 x1 + a12 x2 + · · · + a1mxm = 0
⎪
⎪
⎪
⎪
⎪
⎨ a21 x1 + a22 x2 + · · · + a2mxm = 0
⎪ ........................................
⎪
⎪
⎪
⎪
⎪
⎩
an1 x1 + an2 x2 + · · · + anmxm = 0.
Cualquier sistema homogéneo tiene al menos la
solución nula, dada por x1 = x2 = . . . = xm = 0; es
decir, esta m-upla: 0, 0, . . . , 0 .
m ceros
La discusión de un sistema homogéneo se reduce a
determinar si admite solamente la solución nula (compatible determinado) o si admite más soluciones (compatible indeterminado). Para ello, basta escalonar solamente la matriz de coeficientes del sistema y contar
sus pivotes: si tiene tantos como incógnitas, el sistema
es compatible determinado; si tiene menos pivotes que
incógnitas, el sistema es compatible indeterminado.
Si un sistema de ecuaciones lineales homogéneo
tiene más incógnitas que ecuaciones, entonces es compatible indeterminado.
Discusión y resolución de sistemas de ecuaciones li-
nan incógnitas básicas (o incógnitas principales); las
neales en los que figuran parámetros
restantes se denominan incógnitas libres (o paráme-
ramos también sistemas de ecuaciones lineales en los
Conside-
tros). Para escribir la solución del sistema, se despe-
que figura algún parámetro, los cuales se discuten y
jan las incógnitas básicas en función de las incógnitas
resuelven según los valores del parámetro o paráme-
libres. En la expresión final de la solución, se suelen
tros que tengan. En este contexto, un parámetro es una
sustituir las incógnitas libres por letras griegas (para
variable que figura en algún coeficiente o término inde-
distinguirlas en su notación de las básicas).
pendiente del sistema y puede tomar diferentes valores
En general, las soluciones de un sistema de ecuaciones lineales presentan tantas incógnitas libres (o
(habitualmente, cualquier número real); según los valores de esta variable, el sistema puede ser de una clase
tantos parámetros) como marca la diferencia entre el
u otra, o puede tener una solución u otra.
Capítulo II
MATRICES
II. MATRICES
ESQUEMA
3. Rangoysistemasdeecuacioneslineales
EjerciciosII.4
Presentación delcapítulo
1. Definicióndematriz
1. Definición de matriz . . . . . . . . . . . 119
2. Algunos tipos de matrices . . . . . . . . 121
3. Matrices columna y matrices fila de una
EjerciciosII.
2. Operacionesconmatrices
1. Adición de matrices . . . . . .
2. Multiplicación por un número de
triz . . . . . . . . . . . . . .
3. Multiplicación de matrices . . .
. .
una
. .
. .
. . . 127
ma. . . 129
. . . 130
EjemplosydefiniciónLanoconmutatividaddela
multiplicacióndematricesProductosde
matricesdadosporcolumnasoporfilas
Propiedadesdelamultiplicacióndematrices
• Notación matricial de un sistema de ecuaciones
lineales
EjerciciosII.2
3. Transformaciones elementales de una
matriz
1. TransformacioneselementalesporfilasTiposde
transformacioneselementalesporfilas
• Transformacioneselementalesinversas
2. Matrices elementales . . . . . . . . . . . 152
Definiciónyejemplos•Algunaspropiedades
EjerciciosII.3
4. Rangodeunamatriz
1. Definiciónderangodeunamatriz
2. Propiedadesdelrangodeunamatriz
5. Inversadeunamatrizcuadrada
1. Definición de inversa de una matriz cua
2. Propiedades de la inversa de una matriz
cuadrada . . . . . . . . . . . . . . . . 176
3. Método práctico para el cálculo de la ma EjerciciosII.5
6. Traspuestadeunamatriz
1. Traspuesta de una matriz . . . . . . . . . 188
Definiciónyejemplos•Propiedades
2. Traza de una matriz . . . . . . . . . . . 194
EjerciciosII.6
7. Otrostemassobrematrices
1. Transformaciones elementales por columnas . . . . . . . . . . . . . . . . . . . 199
2. Matriz triangular superior y matriz triangular inferior • Matriz simétrica y matriz antisimétrica•
Matrizortogonal•Matrizidempotenteymatriz
nilpotente
3. Inversa por la izquierda e inversa por la
derecha . . . . . . . . . . . . . . . . . 212
Inversa por la izquierda • Inversa por la
derecha
4. Matrices dadas por bloques . . . . . . . . 219
EjerciciosII.7
Recapitulación II
PRESENTACIÓN DEL CAPÍTULO
PRESENTACIÓN DEL CAPÍTULO
En el Capítulo I, ya hemos presentado las matrices, motivadas como una
forma de sintetizar los elementos que describen un sistema de ecuaciones lineales (coeficientes y términos independientes), y hemos visto cómo, gracias
a ellas, se pueden realizar de una forma muy cómoda los cálculos relacionados con el sistema. Pero las matrices tienen interés por sí mismas, más allá
—mucho más allá– de su utilidad para estudiar un sistema de ecuaciones
lineales.
En este capítulo, presentamos las matrices desde el principio. Esto hace
que —si echamos una mirada al Capítulo I— algunas definiciones estén
repetidas (como la misma definición de matriz, o la de transformación elemental por filas), pero no queríamos dejar de ofrecer un capítulo lo más
autosuficiente y completo posible.
La primera sección presenta la definición de matriz, y nos da un primer
listado de algunos tipos particulares de matrices que se utilizan en lugares
diversos (matriz fila y matriz columna, matriz diagonal, matriz identidad y
matriz nula). También se definen las llamadas matrices columna y matrices
fila de una matriz.
Las matrices son objetos matemáticos que en cierto sentido generalizan los números.
Un aspecto de esta generalización es que es posible
definir operaciones entre matrices como la adición o la multiplicación por
un número, con propiedades similares a las operaciones entre números. Hay
una operación, sin embargo, que no puede verse como una generalización
de ninguna operación entre números: nos referimos a la multiplicación matricial. De hecho, por ejemplo, esta multiplicación matricial no es en general conmutativa, como sí lo es la multiplicación de números reales (con
La motivación de la definición
de la multiplicación matricial
se ve cuando se estudian las
aplicaciones lineales.
números, el orden de los factores no altera el producto). La segunda sección
está dedicada a todas estas cuestiones. Al final de la sección, es de destacar
la llamada notación matricial de un sistema de ecuaciones lineales, que permite representar un sistema con la ayuda de un producto de matrices.
La tercera sección presenta las transformaciones elementales por filas.
Con respecto a lo ya visto en el Capítulo I, incluye cuestiones como las
transformaciones elementales inversas y las matrices elementales. Estas
últimas permiten ver la aplicación de una transformación elemental como
un producto de matrices.
La cuarta sección está dedicada al importante concepto de rango de una
matriz. Aquí nos permitimos recodar algunas cuestiones vistas con detalle
II. MATRICES
en el Capítulo I, como las matrices escalonadas y algunas de sus propiedades. La relación entre el concepto de rango y los sistemas de ecuaciones
lineales es muy estrecha, y no dejamos de dedicarle un apartado. Es verdad
que ya sabemos —del citado Capítulo I— cómo discutir y resolver un sistema de ecuaciones lineales, pero podemos explorar ahora cuestiones como
si un sistema admite o no solución para cualquier elección de los términos
independientes.
La quinta sección define lo que es la inversa de una matriz cuadrada, da
condiciones para saber si existe o no, y enseña a calcularla cuando existe.
La inversa de una matriz trata de dar respuesta a esta cuestión: dada una
matriz, ¿existe otra cuyo producto por la primera sea igual a una matriz
identidad?
La sexta sección nos enseña qué es la traspuesta de una matriz; también
qué es la traza de una matriz. Estos conceptos, sobre todo el primero, tienen
gran utilidad en diversos lugares.
Finalmente, la sección séptima incluye cuestiones adicionales sobre matrices que no dejan de ser importantes. Las transformaciones elementales por columnas posiblemente inquietan al lector desde que se estudian
las transformaciones por filas, y este es lugar para estudiarlas con detalle.
También se amplía el expediente de tipos de matrices, viendo las matrices triangulares, las simétricas o las idempotentes, por ejemplo. Asimismo,
se extiende el concepto de inversa para que pueda ser aplicado a matrices no necesariamente cuadradas (inversa por la izquierda e inversa por la
derecha). Finalmente, se ve brevemente el manejo de las matrices dadas por
bloques, que es una forma de agilizar la presentación de ciertas matrices de
gran tamaño.
II.1. DEFINICIÓN DE MATRIZ
II.1 DEFINICIÓN DE MATRIZ
1. Definición de matriz
Dedicamos este apartado a ver la definición general de matriz y a detallar la
forma de denotar las matrices.
¿Qué es una matriz?
106
Dados dos números naturales positivos n y m, una matriz de or-
den (n, m) (o de orden n × m) es una disposición de n · m números (reales)
en forma rectangular en n filas y m columnas, que son las filas y las columnas de la matriz. Los números que se escriben en una matriz se denominan
términos de la matriz.
Por ejemplo, una matriz de orden (2, 3) (o de orden 2 × 3) es una disposiUn primer ejemplo
ción en dos filas y en tres columnas de 2 · 3 = 6 números. Con la notación:
A=
2
1
−3
0
π
1/2
,
estamos introduciendo una matriz concreta de orden (2, 3). La estamos
designando por A (las matrices se suelen denotar con letras mayúsculas), y
tiene efectivamente dos filas y tres columnas.
En cualquier matriz, las filas se leen de arriba abajo y las columnas de
izquierda a derecha, así que la primera fila de la matriz A es la formada
por los números 2, −3 y π ; o dicho más formalmente: los términos de la
primera fila de la matriz A son 2, −3 y π . Análogamente, los términos de la
segunda fila de A son 1, 0 y 1/2; los términos de la primera columna de A
son 2 y 1; los de la segunda columna, −3 y 0; y los de la tercera, π y 1/2.
En la matriz A también observamos que, en la primera fila y en la segunda columna, por ejemplo, está situado el número −3; se dice que el término de posición (1, 2) de la matriz A es igual a −3, y se escribe: a12 = −3.
Los términos se denotan con la misma letra que designa la matriz pero en
minúscula, y figurando como subíndices el número de fila y el número de
columna, en este orden y sin comas. Análogamente, podemos decir que el
término de posición (2, 2) de la matriz A es igual a 0, y se escribe: a22 = 0.
Otros términos de A son: a11 = 2, a13 = π o a23 = 1/2.
Otro ejemplo
107
Consideremos la matriz:
⎛
1
⎜
B = ⎝0
9
3
2
1
5
1
0
⎞
2/3
⎟
−1 ⎠ .
1/5
II. MATRICES
La matriz B es de orden (3, 4): tiene tres filas y cuatro columnas. Los
términos de la segunda fila, por ejemplo, son 0, 2, 1 y −1; los de la tercera
columna: 5, 1 y 0.
El término de posición (2, 4), verbigracia, es igual a −1, lo cual se escribe
así: b24 = −1. También podemos escribir: b31 = 9, b34 = 1/5, o b14 = 2/3.
Notaciones para una matriz
general
108
En general, una matriz A de orden (n, m)
⎛
a11 a12 . . . a1j . . .
⎜
⎜ a21 a22 . . . a2j . . .
⎜
⎜ .
..
..
..
..
⎜ ..
.
.
.
.
⎜
A=⎜
⎜ ai1 ai2 . . . aij . . .
⎜
⎜ .
..
..
..
..
⎜ .
.
.
.
.
⎝ .
an1 an2 . . . anj . . .
se escribe así:
⎞
a1m
⎟
a2m ⎟
⎟
.. ⎟
. ⎟
⎟
⎟.
aim ⎟
⎟
.. ⎟
⎟
. ⎠
anm
Observemos que, si i es un número natural tal que 1 i n, entonces
los términos de la i-ésima fila de la matriz A son estos:
ai1 , ai2 , . . . , aim .
Vemos, en particular, que los términos de una misma fila tienen común el
primer subíndice.
Por otra parte, si j es un número natural tal que 1 j m, los términos
de la j-ésima columna son:
a1j , a2j , . . . , anj .
Los términos de una misma columna tienen en común el segundo subíndice.
Nota bene
El término de posición (i, j) en la matriz A es aij .
Para la matriz A, también se hace uso de la notación:
A = aij ; 1 i n, 1 j m ,
o bien (cuando no hay riesgo de confusión): A = aij .
Igualdad de matrices
Solo definimos la igualdad de
dos matrices cuando ambas
matrices son del mismo orden.
109
Dos matrices son iguales si son del mismo orden y sus términos
correspondientes son iguales (en la misma posición,
el mismo
número).
Dicho más formalmente, dos matrices A = aij y B = bij , ambas de
orden (n, m), son iguales si:
aij = bij
para cada 1 i n y cada 1 j m.
Si las matrices A y B son iguales, escribiremos: A = B.
II.1. DEFINICIÓN DE MATRIZ
2. Algunos tipos de matrices
Este apartado presenta los primeros tipos de matrices que utilizaremos.
Veremos más adelante otras clases de matrices (cf. § 223 y ss., p. 206).
Matriz fila
110
Una matriz puede tener una sola fila; de una matriz de este tipo se
dice que es una matriz fila.
Por ejemplo:
1 3
4 ,
0
0
−3
−1 ,
1/2
−1
34 .
Estas matrices son de orden (1, 3), (1, 5) y (1, 2), respectivamente. Cualquier matriz fila tiene orden (1, m) para algún número natural positivo m.
Nota bene
Al anotar una matriz, no se escriben comas u otros signos para se-
parar sus términos; solamente se deja un cierto espacio. En particular, los tér-
Ya vimos lo que es una terna
y lo que son sus componentes
(cf. p. 23).
minos de una matriz fila se escriben separadospor un espacio,
sin comas entre
ellos. No debe confundirse, pues, la matriz fila 1 3 4 con la terna (1, 3, 4),
111
Matriz columna
cuyas componentes sí se escriben separadas por comas.
También hay matrices con una sola columna; de una matriz así se
dice que es una matriz columna.
Por ejemplo:
⎛
⎞
1
⎜
⎟
⎝ 2 ⎠,
√
2
⎛
−1
0
,
⎞
2
⎜
⎟
⎜ −3 ⎟
⎜
⎟
⎜ 1/2 ⎟ ,
⎝
⎠
−2
las cuales son de orden (3, 1), (2, 1) y (4, 1), respectivamente. Cualquier
matriz columna es de orden (n, 1) para algún número natural positivo n.
Hay matrices que son, simultáneamente, una matriz fila y una matriz
columna: las de orden (1, 1). Tienen un solo término; por ejemplo: 2 . No
debe confundirse la matriz 2 con el número 2.
Matriz cuadrada
112
Son de especial interés las matrices que tienen el mismo número
de filas que de columnas: son las llamadas matrices cuadradas. Más en
concreto, una matriz cuadrada de orden n es una matriz con n filas y con n
columnas, es decir, una matriz de orden (n, n).
Por ejemplo, las siguientes matrices son cuadradas, de orden, respectivamente, 2, 3 y 4:
1
0
−3
1
⎛
,
3
⎜
⎝1
1
√
2
1/4
0
⎞
0
⎟
10 ⎠ ,
e2
⎛
1/3
⎜ 3
⎜π
⎜
⎜ 0
⎝
1
2
1/4
10−4
−2/7
−2
1
1
−1
⎞
5
⎟
4 ⎟
⎟.
√
3/2 ⎟
⎠
0
II. MATRICES
Términos de la diagonal
principal en una matriz
cuadrada
Un ejemplo de diagonal principal:
√
⎞
⎛
3
2
0
⎟
⎜
1
1/4
10
⎠.
⎝
2
1
0
e
En una matriz cuadrada de orden n, los términos de la diagonal principal son los que ocupan las posiciones (1, 1), (2, 2), . . . , (n, n). Verbigracia,
en la primera de las matrices cuadradas del párrafo anterior, los términos
de la diagonal principal son 1 y 1 —los de posición, respectivamente, (1, 1)
y (2, 2)—; en la segunda son 3, 1/4 y e2 —los de posición, respectivamente, (1, 1), (2, 2) y (3, 3)—; y en la tercera, 1/3, 1/4, 1 y 0.
Nota bene
Para las matrices cuadradas, decimos “orden n”, y no “orden (n, n)”.
113
Matriz diagonal
De una matriz cuadrada que tiene nulos los términos que no están
en la diagonal principal diremos es una matriz diagonal.
Por ejemplo, estas matrices son diagonales:
0
0
0
0
⎛
,
−1/2
⎜
⎝ 0
0
⎛
⎞
0
⎟
0 ⎠
2/3
0
1
0
0
⎜
⎜0
⎜
⎜0
⎝
0
y
0
−2
0
0
0
0
1/6
0
⎞
0
⎟
0 ⎟
⎟.
0 ⎟
⎠
2π
Nótese que, en una matriz diagonal, no se exige nada sobre los términos de
la diagonal principal: pueden ser iguales a cualquier número (en particular,
pueden ser nulos o no).
Cuando una matriz diagonal presenta los términos de la diagonal prinMatriz identidad (o unitaria)
cipal iguales a 1, decimos de ella que es una matriz identidad (o unitaria).
Para cada orden n hay una, que se denota In . Las de orden 2, 3 y 4 son,
respectivamente, las siguientes:
I2 =
1
0
0
1
⎛
,
1
⎜
I3 = ⎝ 0
0
0
1
0
⎛
⎞
0
⎟
0⎠
1
y
1
⎜
⎜0
I4 = ⎜
⎜0
⎝
0
0
1
0
0
0
0
1
0
⎞
0
⎟
0⎟
⎟.
0⎟
⎠
1
La genérica de orden n se puede escribir así:
⎛
1
⎜
⎜0
⎜
In = ⎜ .
⎜ ..
⎝
0
Letra griega δ (léase “delta”).
0
1
..
.
0
...
...
..
.
...
⎞
0
⎟
0⎟
⎟
.
.. ⎟
.⎟
⎠
1
Es frecuente designar los términos de
una matriz identidad con la letra
griega δ, de forma que se escribe In = δij (si nos referimos a la de orden n). Nótese entonces que, para i = j, estamos en la diagonal principal de
II.1. DEFINICIÓN DE MATRIZ
la matriz, y por tanto δij = 1; y que, para i ≠ j, estamos fuera de la diagonal
principal de la matriz, y así δij = 0. Es decir:
δij =
Nota
1,
si i = j;
0,
si i ≠ j.
La notación δij que se ha introducido para los términos de una matriz
identidad se denomina delta de KRONECKER.
Delta de KRONECKER
114
Matriz nula (o cero)
Destacamos finalmente otro tipo de matriz: la matriz nula. Una ma-
triz, del orden que sea (cuadrada o no), es una matriz nula (o también: una
matriz cero) si todos sus términos son iguales al número 0. Cualquier matriz nula se denota por O. De acuerdo con la notación
para matrices
general
vista en el § 108 (cf. p. 120), podemos escribir: O = 0 .
Por ejemplo, las siguientes matrices son nulas:
0
0 ,
⎛ ⎞
0
⎜ ⎟
⎝0⎠,
0
0
0
0
0
0
0
y
0
0
0
0
,
de orden, respectivamente, (1, 2), (3, 1), (2, 3) y (2, 2).
Nota bene
En la notación de una matriz nula, no se señala —en principio— el
orden de la matriz, el cual suele venir implícito por el contexto. La experiencia
muestra que ello no da lugar a confusión a poca atención que se ponga.
3. Matrices columna y matrices fila de una matriz
A partir de una matriz dada, se construyen con sus términos ciertas matrices columna y ciertas matrices fila que son utilizadas en varios contextos.
115
Empecemos con un ejemplo. Consideremos la siguiente matriz de
orden (3, 4):
Ejemplo de matrices columna
de una matriz
⎛
1/2
⎜
A=⎝ 3
1
2
1/4
−2/7
−2
1
−1
⎞
5
⎟
4⎠ .
0
La primera matriz columna de la matriz A se define como aquella matriz
columna cuyos términos son los de la primera columna de A. Se denota: C1 (A). Los términos de la primera columna de A son 1/2, 3 y 1, así que
⎛
1/2
⎜
⎝ 3
1
2
1/4
−2/7
−2
1
−1
⎞
5
⎟
4⎠
0
⎛
⎞
1/2
⎜
⎟
C1 (A) = ⎝ 3 ⎠ .
1
II. MATRICES
Análogamente se definen la restantes matrices columna de A, hasta hacer
un total de cuatro, dado que la matriz A tiene cuatro columnas:
⎛
⎛
⎛ ⎞
⎞
⎞
2
−2
5
⎜
⎜
⎜ ⎟
⎟
⎟
C2 (A) = ⎝ 1/4 ⎠ , C3 (A) = ⎝ 1 ⎠ y C4 (A) = ⎝ 4 ⎠ .
−2/7
−1
0
Una vez definidas las matrices columna de la matriz A, se considera la
llamada notación por columnas de A. Si A1 , A2 , A3 y A4 designan las cuatro
matrices columna de la matriz A, la notación por columnas de A es esta:
A = A1 A2 A3 A4 .
Ejemplo de matrices fila de
una matriz
116
También se consideran las matrices fila de una matriz, que se de-
finen, mutatis mutandis, como las matrices columna. Para la matriz A con
la que hemos trabajado en el § 115, su segunda matriz fila, verbigracia, que
⎛
1/2
⎜
⎝ 3
1
2
1/4
−2/7
−2
1
−1
⎞
5
⎟
4⎠
0
se denota por F2 (A), es esta:
F2 (A) = 3
1/4
4 ;
1
como vemos, sus términos son los de la segunda fila de A. Por supuesto,
hay tantas matrices fila como filas tiene la matriz: tres en este caso.
Análogamente se considera la notación por filas de la matriz A: si F1 , F2
y F3 son las tres matrices fila de la matriz A, la notación por filas de A es:
⎛ ⎞
F1
⎜ ⎟
⎜ ⎟
⎟
A=⎜
⎜ F2 ⎟ .
⎝ ⎠
F3
117
Para ver en general estos conceptos, consideremos una matriz A de
orden (n, m), que escribimos de forma que se enfatice una columna genérica:
Matrices columna de una
matriz
⎛
a11
⎜
⎜ a21
⎜
A=⎜ .
⎜ ..
⎝
an1
a12
a22
..
.
an2
...
...
..
.
...
a1j
a2j
..
.
anj
...
...
..
.
...
⎞
a1m
⎟
a2m ⎟
⎟
.
.. ⎟
. ⎟
⎠
anm
Fijemos un número natural j tal que 1 j m. Se define la j-ésima matriz
columna de la matriz A, que se denota: Cj (A), como aquella matriz columna
de orden (n, 1) cuyos términos son los de la j-ésima columna de A. Es decir:
⎛
a11
⎜a
⎜ 21
⎜
⎜ .
⎜ .
⎝ .
an1
. . . a1j
. . . a2j
.
..
.
.
.
. . . anj
...
...
..
.
...
⎞
a1m
a2m ⎟
⎟
⎟
. ⎟
. ⎟
. ⎠
anm
⎛
⎞
a1j
⎜
⎟
⎜ a2j ⎟
⎜
⎟
Cj (A) = ⎜ . ⎟ .
⎜ .. ⎟
⎝
⎠
anj
II.1. DEFINICIÓN DE MATRIZ
Notación por columnas
Si A1 , A2 , . . . , Am son las m matrices columna de la matriz A, la notación
por columnas de A es:
A = A1
118
A2
...
Am .
Sigamos considerando una matriz A de orden (n, m), pero esta vez
escribámosla así:
⎛
a11
⎜
⎜ a21
⎜
⎜ .
⎜ ..
⎜
A=⎜
⎜ ai1
⎜
⎜ .
⎜ .
⎝ .
an1
a12
a22
..
.
ai2
..
.
an2
...
...
..
.
...
..
.
...
⎞
a1m
⎟
a2m ⎟
⎟
.. ⎟
. ⎟
⎟
⎟,
aim ⎟
⎟
.. ⎟
⎟
. ⎠
anm
con el fin de resaltar una fila genérica. Fijemos un número natural i tal
Matrices fila de una matriz
⎛
a11
⎜
⎜ .
⎜ .
⎜ .
⎜
⎜ ai1
⎜
⎜ .
⎜ .
⎜ .
⎝
an1
a12
.
.
.
ai2
.
.
.
an2
...
..
.
...
..
.
...
Notación por filas
⎞
a1m
⎟
. ⎟
. ⎟
. ⎟
⎟
aim ⎟
⎟
. ⎟
. ⎟
. ⎟
⎠
anm
que 1 i n. Se define la i-ésima matriz fila de la matriz A, que se denota: Fi (A), como aquella matriz fila de orden (1, m) cuyos términos son los
de la i-ésima fila de A. Es decir:
Fi (A) = ai1
ai2
...
aim .
Si F1 , F2 , . . . , Fn son las n matrices fila de la matriz A, la notación por
filas de A es:
⎛
⎞
F1
⎜ ⎟
⎜ ⎟
⎜ F2 ⎟
⎜ ⎟
⎜ ⎟
A = ⎜ . ⎟.
⎜ . ⎟
⎜ . ⎟
⎜ ⎟
⎝ ⎠
Fn
II. MATRICES
Ejercicios II.1
1
Dada la matriz:
5
A=
2
1
0
5
2
−3
Considérense las siguientes dos matrices, donde
las letras minúsculas que figuran en los términos de,
signan números:
⎛
a
⎜
A=⎝1
0
se pide: determinar su orden, escribir el término de posición (1, 1), el de posición (2, 3) y el de posición (1, 3);
y escribir los términos de la primera fila y los de la tercera columna.
2
Escribir los términos de la diagonal principal, y
también la segunda matriz columna y la tercera matriz
fila, de la siguiente matriz:
⎛
1
⎜
B = ⎝ −2
1
−1
0
3
⎞
1
⎟
1⎠.
1
⎞
b2
⎟
−1 ⎠
c
⎛
y
0
⎜
B = ⎝d
0
⎞
1
⎟
−1 ⎠ .
e
Si nos dicen que estas matrices son iguales, es decir, si
escriben que A = B, ¿qué se puede deducir del valor
numérico de las letras a, b, c, d y e?
6
En una matriz cuadrada, a veces se consideran
los términos de la llamada diagonal secundaria: informalmente, son los que ocupan la diagonal que no es la
principal. A modo de ejemplo, señalamos tales términos en la siguiente matriz cuadrada:
3
Detallar todas las matrices columna y todas las
⎛
2
⎜
⎝1
0
matrices fila de la siguiente matriz:
C=
1
0
2
1
−1
2
.
2
−1
2
⎞
−4
⎟
0⎠.
−1
Escribir una definición formal para los términos de la
4
Encontrar todas las matrices nulas que tienen
exactamente seis términos.
diagonal secundaria de una matriz cuadrada de orden n.
II.2. OPERACIONES CON MATRICES
II.2 OPERACIONES CON MATRICES
Vemos en esta sección las operaciones básicas con matrices: adición (y substracción), multiplicación escalar (o multiplicación por un número de una
matriz) y multiplicación matricial.
1. Adición de matrices
La adición de matrices generaliza, en cierta forma, la adición de números.
Un primer ejemplo de suma
de dos matrices
OJO: debe distinguirse entre
adición (nombre que se da a
la operación) y suma (nombre
que se da al resultado de la
operación).
119
Si tenemos dos matrices del mismo orden, su suma es otra matriz,
también de este mismo orden, obtenida sumando los términos de la misma
posición de las matrices dadas.
Por ejemplo, dadas las matrices:
2 −1 1
A=
,
0
3 5
B=
−1
1
0
1
−3
−2
,
ambas del mismo orden: (2, 3), su suma, que se denota: A + B, es la matriz, también de orden (2, 3), obtenida sumando los términos de la misma
posición de A y B:
A+B =
=
120
2
0
−1
3
2 + (−1)
0+1
1
5
+
−1 + 0
3+1
−3
−2
1 + (−3)
5 + (−2)
=
1
1
−1
4
−2
3
.
En general, si A y B son dos matrices del mismo orden, ponga-
mos (n, m), es decir:
A = aij ; 1 i n, 1 j m
Definición de la adición de
matrices
0
1
−1
1
y
B = bij ; 1 i n, 1 j m ,
se define la suma de A y B, que se denota: A + B, como la matriz, también
de orden (n, m), siguiente:
A + B = aij + bij ; 1 i n, 1 j m .
Es decir, cada término de la matriz suma se obtiene sumando los términos
de la misma posición de las matrices sumandos.
121
¿Qué ocurre si a una matriz le sumamos una matriz nula (siendo
ambas del mismo orden, por supuesto)? Que obtenemos la misma matriz
original. Comprobémoslo, primero con un ejempo y después en general.
II. MATRICES
Como ejemplo nos puede valer este:
⎛
⎞ ⎛
⎞ ⎛
1 −1
0 0
1+0
⎜
⎟ ⎜
⎟ ⎜
5⎠ + ⎝0 0⎠ = ⎝ 2 + 0
⎝ 2
−3 −2
0 0
−3 + 0
Una propiedad de la adición
de matrices
A+O =O+A =A
⎞ ⎛
−1 + 0
1
⎟ ⎜
5 + 0⎠ = ⎝ 2
−2 + 0
−3
⎞
−1
⎟
5⎠ .
−2
Y en general, si A es una matriz cualquiera y O es la matriz nula que
tiene el mismo orden que A (para poder sumarlas), podemos escribir:
A + O = aij + 0 = aij + 0 = aij = A.
Y de la misma manera podríamos obtener que O + A = A.
122
Sabemos lo que es el opuesto de un número: si a es un número
cualquiera, su opuesto es −a (verbigracia, el opuesto de 2 es −2, el de −1/4
es −(−1/4) = 1/4, y el de 0 es él mismo: 0). En tanto hay una operación de
adición (que satisface la propiedad vista en el § 121), también se define un
opuesto para matrices.
Matriz opuesta
Dada una matriz A, la matriz opuesta de A, que se denota: −A, es la
matriz del mismo orden cuyos términos son los opuestos de los
términos
aij , entonces: −A = −aij . Por
correspondientes de A. Es decir, si A =
ejemplo:
⎛
1
⎜
si A = ⎝ 0
3
⎞
⎛
1/5
−1
√ ⎟
⎜
− 3 ⎠ , entonces: −A = ⎝ −0
−π 2
−3
⎞ ⎛
−1
−1/5
√ ⎟ ⎜
−(− 3 ) ⎠ = ⎝ 0
−(−π 2 )
−3
⎞
−1/5
√ ⎟
3 ⎠.
π2
Nótese que las matrices A y −A son efectivamente del mismo orden.
A + (−A) = O
Substracción de matrices
Es inmediato comprobar que A + (−A) = O para cualquier matriz A.
123
Al estar definido un opuesto, podemos considerar la substracción
de matrices: si A y B son dos matrices del mismo orden, entonces su diferencia es: A − B = A + (−B), de forma que la matriz A − B resulta del
mismo orden que A y B y tiene por términos la diferencia de los términos
correspondientes de las matrices A y B.
Por ejemplo, si
⎛
1
⎜
A=⎝ 2
−3
entonces:
⎛
1
⎜
A−B =⎝ 2
−3
⎞
−1
⎟
5⎠
−2
⎛
y
⎞ ⎛
−1
2
⎟ ⎜
5⎠ − ⎝1
−2
0
2
⎜
B = ⎝1
0
⎞
−1
⎟
0⎠,
3
⎞ ⎛
−1
−1
⎟ ⎜
0⎠ = ⎝ 1
3
−3
⎞
0
⎟
5⎠.
−5
II.2. OPERACIONES CON MATRICES
124
Dados dos números naturales positivos n y m, la notación Mnm (R)
designa el conjunto de las matrices de orden (n, m) cuyos términos son
números reales. En este libro, si no se dice expresamente otra cosa, trabajamos en todo momento con números reales, pero en la notación del conjunto de las matrices se incluye la letra R porque se podrían considerar
matrices con términos en otro conjunto (por ejemplo, con términos en C, el
conjunto de los números complejos).
Más propiedades de la adición
de matrices
En la adición de matrices, las matrices sumandos y la matriz suma tienen
el mismo orden, luego podemos considerar esta operación como una operación definida sobre el conjunto Mnm (R). La adición de matrices articula
el conjunto Mnm (R) como un grupo abeliano. ¿Qué significa esto? Significa
que se satisfacen las siguientes propiedades:
A + (B + C) = (A + B) + C
• La adición es asociativa; esto es, si A, B y C son tres matrices cualesquiera del mismo orden (n, m) (tres elementos de Mnm (R)), entonces se cumple: A + (B + C) = (A + B) + C.
• La adición tiene elemento neutro; es decir, existe una matriz, precisamente la nula de orden (n, m), tal que A+O = O+A = A para cualquier
matriz A de Mnm (R).
• Todo elemento de Mnm (R) es simetrizable; ello significa: para cualquier matriz A de Mnm (R), existe una matriz, la cual es precisamente
su opuesta: −A, que sumada a A nos da como resultado el elemento
neutro: A + (−A) = (−A) + A = O.
A+B =B+A
• La adición es conmutativa; con ello se quiere decir: si A y B son dos
matrices cualesquiera de Mnm (R), entonces se tiene: A + B = B + A.
Las propiedades primera y cuarta son de comprobación sencilla: se reducen
en definitiva a las mismas propiedades pero trasladadas a los números
reales; las propiedades segunda y tercera se comprobaron en los § 121 y 122,
respectivamente.
Note el lector que la propiedad asociativa nos permite escribir la suma
de tres matrices A, B y C (de un mismo orden) de esta manera: A + B + C,
sin necesidad de indicar paréntesis. Cómo llevemos a cabo tal suma es
indiferente: bien A + (B + C), bien (A + B) + C.
2. Multiplicación por un número de una matriz
Vemos en este apartado la multiplicación por un número de una matriz.
En este libro, puede entenderse el término escalar como
sinónimo de número, o de numérico.
Este tipo de multiplicación también se denomina multiplicación escalar,
para distinguirla de la multiplicación de matrices propiamente dicha, que
se verá en el apartado siguiente.
II. MATRICES
Un primer ejemplo de
producto por un número de
una matriz
Dados un número y una matriz, el producto por el número de la
125
matriz es la matriz que se obtiene multiplicando cada uno de los términos
de la matriz dada por el número.
Por ejemplo, dada la matriz:
A=
2
0
−1
3
1
5
,
el producto por el número 2 de la matriz A, producto que se denota: 2A, se
efectúa así:
2A = 2
2
0
−1
3
1
5
=
2·2
2·0
2 · (−1)
2·3
2·1
2·5
=
4
0
−2
6
2
10
.
Fíjese el lector en qué resultaría el producto por el número −1 de esta
matriz A:
(−1)A = (−1)
2
0
−1
3
1
5
=
=
(−1)A = −A
Definición de la multiplicación
escalar
(−1) · 2
(−1) · 0
−2
0
(−1) · (−1) (−1) · 1
(−1) · 3
(−1) · 5
1 −1
= −A.
−3 −5
Esta igualdad obtenida: (−1)A = −A, se verifica para cualquier matriz A.
126
En el caso general, dados una matriz A: A = aij , y un número λ,
se define el producto por λ de A, que se denota: λA, como la matriz siguiente:
λA =
λaij
.
Esto es, la matriz λA es la matriz cuyos términos son los de A multiplicados
por λ. Nótese que el orden de la matriz λA es el mismo que el de la matriz A.
3. Multiplicación de matrices
Pasamos ahora a estudiar la multiplicación matricial. Esta operación entre
matrices ya no puede verse como una generalización más o menos inmediata de una operación entre números.
Ejemplos y definición
Requisito previo para
multiplicar dos matrices:
nº de columnas de la primera
= nº de filas de la segunda
127
Lo primero que debe decirse de la multiplicación de matrices es
que no se pueden multiplicar dos matrices cualesquiera: deben cumplir un
requisito previo. Tal requisito es este: el número de columnas de la primera
matriz debe ser igual al número de filas de la segunda. Y cuando es el caso,
II.2. OPERACIONES CON MATRICES
el resultado de la multiplicación, es decir, el producto de las dos matrices, es
una matriz con tantas filas como tiene la primera y tantas columnas como
tiene la segunda.
Por ejemplo, el producto de dos matrices A y B (en este orden), la primera de orden (4, 3) y la segunda de orden (3, 2), puede efectivamente efectuarse, porque el número de columnas de la primera y el número de filas de
la segunda son el mismo —tres en este caso—. El producto, que se denota: AB, resultará ser una matriz de orden (4, 2): tantas filas como tiene A y
tantas columnas como tiene B.
Un primer ejemplo de
producto de dos matrices
128
Consideremos, a modo de ejemplo, estas dos matrices:
A=
2
1
−1
0
0
−3
⎛
y
−2
⎜
B=⎝ 2
1
1
0
1
0
−2
−3
⎞
1/3
⎟
1 ⎠.
2/3
La matriz A es de orden (2, 3) y la matriz B es de orden (3, 4). De acuerdo
con lo visto en el § 127, el producto AB puede efectivamente llevarse a cabo
(la matriz A tiene tantas columnas como filas tiene la matriz B), y será una
matriz de orden (2, 4) (el mismo número de filas que A y el mismo número
de columnas que B).
Para calcular el término de posición (i, j) de una matriz producto (en
este ejemplo, i es igual a 1 o a 2, y j es igual a 1, a 2, a 3 o a 4), intervienen
solamente los términos de la i-ésima fila de la primera matriz (A en este
caso) y los de la j-ésima columna de la segunda matriz (B en este caso), y
tal término es igual a la suma de los productos de los términos correspondientes de esa fila y de esa columna.
De acuerdo con ello, calculemos detalladamente, por ejemplo, el término
de posición (1, 2) de la matriz producto AB (con lo que i = 1 y j = 2). En
este cálculo intervienen solamente los términos de la primera fila de A: 2,
−1 y 0, y los de la segunda columna de B: 1, 0 y 1. ¿Qué hacemos con ellos?
·
2
1
2+
−1
0
0
1
0+0=2
Sumamos los productos de términos correspondientes:
2 · 1 + (−1) · 0 + 0 · 1 = 2.
Esquemáticamente, podríamos representar este cálculo de la siguiente manera (en las posiciones de la matriz producto cuyos términos son aún desconocidos colocamos un punto: ‘•’):
2
1
−1
0
0
−3
⎛
−2
⎜
⎝ 2
1
1
0
1
0
−2
−3
⎞
1/3
•
⎟
1 ⎠=
•
2/3
2 · 1 + (−1)0 + 0 · 1
•
•
•
•
•
,
II. MATRICES
y así:
2
1
0
−3
−1
0
⎛
1
0
1
−2
⎜
⎝ 2
1
0
−2
−3
⎞
1/3
•
⎟
1 ⎠=
•
2/3
2
•
•
•
•
•
.
Análogamente, en el cálculo del término de posición (1, 1) de la matriz AB concurren exclusivamente los términos de la primera fila de A y los
2
−2
·
−1
2
0
1
(−4) + (−2) + 0 = −6
de la primera columna de B:
2 · (−2) + (−1) · 2 + 0 · 1 = −6.
Esquemáticamente:
⎛
−2
2 −1
0 ⎜
⎝ 2
1
0 −3
1
1
0
1
de donde:
2
1
−1
0
0
−3
⎞
1/3
2(−2) + (−1)2 + 0 · 1
⎟
1 ⎠=
•
2/3
0
−2
−3
⎛
−2
⎜
⎝ 2
1
1
0
1
0
−2
−3
⎞
1/3
−6
⎟
1 ⎠=
•
2/3
2
•
•
•
•
•
2 • •
,
• • •
.
Otro término más: en el cálculo del de posición (2, 3), intervienen solo
los términos de la segunda fila de A y los de la tercera columna de B:
·
1
0
0+
0
−2
0+
−3
−3
9=9
2
1
0
−3
−1
0
=
−6
•
⎛
1
0
1
−2
⎜
⎝ 2
1
2
•
0
−2
−3
⎞
1/3
⎟
1 ⎠
2/3
•
1 · 0 + 0(−2) + (−3)(−3)
•
•
=
2
•
−6
•
•
9
•
•
.
De manera similar se calcularían los demás términos. El resultado final
es este:
¿Se anima al lector a comprobarlo?
Definición de la multiplicación
de matrices
También se dice que B se multiplica, por la izquierda, por A
para obtener C.
Y también que A se multiplica,
por la derecha, por B para obtener C.
AB =
129
2
1
−1
0
0
−3
⎛
−2
⎜
⎝ 2
1
1
0
1
0
−2
−3
⎞
1/3
−6
⎟
1 ⎠=
−5
2/3
2
−2
2
9
−1/3
−5/3
.
En el caso general, dadas dos matrices A y B, de orden, respectiva-
mente, (n, m) y (m, p):
A = aij ; 1 i n, 1 j m
y
B = bij ; 1 i m, 1 j p ,
se define el producto de Apor B, que se denota: AB,
como la matriz de
orden (n, p) siguiente: C = cij ; 1 i n, 1 j p , con términos:
cij =
m
k=1
aik bkj ,
1 i n, 1 j p.
II.2. OPERACIONES CON MATRICES
Nota bene
En esta definición, los órdenes de las matrices A y B son tales que
el número de columnas de A coincide con el número de filas de B, y la matriz
producto: C = AB, tiene el mismo número de filas que A y el mismo número de
columnas que B.
Detengámonos un momento para confirmar que esta definición efectivamente generaliza los cálculos del § 128. La matriz producto C = AB
tiene n filas y p columnas. Si i es cualquier número natural entre 1 y n,
y j es cualquier número natural entre 1 y p, examinemos cómo es el término de posición (i, j) de la matriz C, es decir, cómo es cij . La suma que
define cij presenta un sumando por cada valor posible del índice k entre 1
y m. En concreto, el primer sumando se obtiene con k = 1: ai1 b1j ; el segundo, con k = 2: ai2 b2j , y así sucesivamente hasta el último, que se obtiene
con k = m: aim bmj . Es decir:
cij =
m
aik bkj = ai1 b1j + ai2 b2j + · · · + aim bmj .
k=1
En este desarrollo, que es una suma de productos, los términos que proceden de la matriz A son ai1 , ai2 , . . . , aim , los cuales son todos los términos de
la i-ésima fila de la matriz A (son m términos y el primer subíndice en cada
uno es i); y los términos que proceden de la matriz B son b1j , b2j , . . . , bmj ,
los cuales son todos los términos de la j-ésima columna de B (de nuevo m
términos, y el segundo subíndice en cada uno es j). Esto es, la suma que
define cij es la suma de los productos de los términos correspondientes
de la fila i-ésima de A y de la columna j-ésima de B: precisamente lo que
calculábamos en el ejemplo del § 128.
Otro ejemplo de producto de
matrices
130
Veamos otro ejemplo de producto de matrices. Consideremos estas
dos:
A=
1
2
0
3
−1
4
⎛
y
0
⎜
B = ⎝1
1
⎞
2
⎟
−2 ⎠ ,
0
y calculemos el producto AB.
Las matrices A y B son de orden, respectivamente, (2, 3) y (3, 2), luego
efectivamente está definido el producto de A por B (el número de columnas
de A y el de filas de B es el mismo), y será una matriz C de orden (2, 2)
(tantas filas como A y tantas columnas como B).
En el cálculo del término c11 , intervienen exclusivamente los términos
de la primera fila de A: 1, 0 y −1, y los de la primera columna de B: 0, 1
y 1; y tal término c11 es igual a la suma de los productos de los términos
II. MATRICES
correspondientes de estas fila y columna: c11 = 1 · 0 + 0 · 1 + (−1) · 1 = −1.
Esquemáticamente:
⎛
0
1 0 −1 ⎜
⎝1
2 3
4
1
⎞
2
1 · 0 + 0 · 1 + (−1) · 1
⎟
−2 ⎠ =
•
0
•
•
=
−1
•
•
•
.
El término c12 es la suma de los productos de los términos correspondientes
1
2
0
3
−1
4
⎛
0
⎜
⎝1
1
⎞
2
⎟
−2 ⎠
0
de la primera fila de A y de la segunda columna de B:
c12 = 1 · 2 + 0 · (−2) + (−1) · 0 = 2.
Y análogamente: c21 = 2·0+3·1+4·1 = 7 y c22 = 2·2+3·(−2)+4·0 = −2.
En conclusión:
AB =
1
2
0
3
−1
4
⎛
0
⎜
⎝1
1
⎞
2
−1
⎟
−2 ⎠ =
7
0
2
−2
= C.
Por cierto, ¿pueden multiplicarse estas matrices A y B en el otro orden?;
es decir, ¿puede efectuarse el producto BA? Sí. El lector puede verlo —y
calcularlo— por sí mismo (lo recomendamos vivamente), pero el resultado
puede verse en el § 131.
La no conmutatividad de la multiplicación de matrices
El orden en la multiplicación
matricial importa
131
Quizá el lector ya se ha percatado de que, en general, no es indi-
ferente el orden en el que se escriben dos matrices A y B que se quieren
multiplicar, a diferencia de lo que ocurre con los números (con los cuales el
orden de los factores no altera el producto).
En primer lugar, puede estar definido el producto AB y no estar definido
el producto en el otro orden. Por ejemplo, para las matrices A y B cuyo
producto AB calculamos en el § 128, no estaría definido el producto BA: el
orden de la matriz B es (3, 4) y el de la matriz A es (2, 3), y no acontece que
el número de columnas de B (que sería ahora la primera matriz) sea igual al
número de filas de A (que sería la segunda matriz).
En segundo lugar, también puede ocurrir que tanto el producto AB como
el BA estén definidos, pero que sean matrices de distinto orden, y por ende
distintas. Por ejemplo, si A es de orden (2, 3) y B de orden (3, 2), ambos
productos se pueden efectuar, pero AB resultaría de orden (2, 2) y BA de
orden (3, 3). Las matrices A y B vistas en el § 130 están justamente en estas
circunstancias; en este parágrafo citado, la matriz AB ya fue calculada:
−1
2
AB =
,
7 −2
II.2. OPERACIONES CON MATRICES
y la matriz BA puede calcularse ahora:
⎛
¡Anímese el lector a calcular
por sí mismo esta matriz producto BA!
0
⎜
BA = ⎝ 1
1
⎞
2 ⎟ 1
−2 ⎠
2
0
0
3
−1
4
⎛
4
⎜
= ⎝ −3
1
⎞
8
⎟
−9 ⎠ .
−1
6
−6
0
Finalmente, puede ocurrir que ambos productos, tanto AB como BA,
estén definidos y sean matrices del mismo orden, pero ser ambas matrices
producto distintas. En el § 132 vemos un ejemplo de esta situación.
El orden en la multiplicación
matricial importa
(continuación)
132
Consideremos las matrices siguientes:
A=
0
1
1
0
y
2
0
B=
0
−2
.
Ambas son cuadradas de orden 2 (ambas son de orden (2, 2), si se quiere),
con lo que los dos productos AB y BA están definidos y son también, a su
vez, matrices cuadradas de orden 2. Pero estos dos productos son distintos:
AB =
BA =
0
1
1
0
2
0
0
−2
2
0
0
−2
0
1
1
0
=
=
0
2
−2
0
0
−2
2
0
,
.
Por otra parte, consideremos estas otras matrices cuadradas de orden 2:
S=
1
1
0
1
y
T =
0
−3
0
0
.
También están definidos los dos productos ST y T S, y ambos son matrices
cuadradas de orden 2. Pero en este caso ambos productos coinciden:
ST =
TS =
Matrices que conmutan y
matrices que no conmutan
133
1
1
0
−3
0
1
0
0
0
−3
1
1
0
0
0
1
=
=
0
−3
0
0
0
−3
0
0
,
.
Cuando dos matrices A y B son tales que están definidos sus pro-
ductos AB y BA y estos son dos matrices iguales, se dice que las matrices A
y B conmutan. Si los productos AB y BA están definidos y son del mismo
orden, pero no son iguales, se dice que las matrices A y B no conmutan.
Por ejemplo, las matrices A y B del § 133 no conmutan, pero las matrices S y T vistas en ese mismo parágrafo sí conmutan.
II. MATRICES
Nota
Si dos matrices A y B son tales que los dos productos AB y BA están
definidos y tienen el mismo orden (sean los productos iguales o no), entonces
necesariamente las matrices A y B son cuadradas del mismo orden (cf. ejerci
cio 5, p. 147).
La no conmutatividad de la
multiplicación de matrices
134
Si n es un número natural mayor o igual que 1, recordemos que
la notación Mnn (R) designa el conjunto de las matrices de orden (n, n)
cuyos términos son números reales (cf. § 124, p. 129). Es decir, el conjunto Mnn (R) es el de las matrices cuadradas de orden n (con términos
números reales). Como el producto de dos matrices cuadradas de orden n
puede efectuarse —tanto en un orden como en el otro— y el resultado sigue
siendo una matriz cuadrada de orden n, podemos considerar la multiplicación de matrices como una operación sobre el conjunto Mnn (R).
¿Qué propiedades verifica esta operación sobre Mnn (R)? Veremos algunas propiedades de la multiplicación de matrices en los epígrafes siguientes,
pero ya podemos dar noticia de una propiedad que no se verifica, al menos
cuando n 2: la conmutatividad. Las dos matrices A y B vistas en el § 133,
las cuales no conmutan, nos avisan de ello para el caso n = 2, pero no es
difícil escribir algún ejemplo similar con matrices cuadradas de cualquier
orden mayor.
La multiplicación de matrices cuadradas de orden n, con n 2, no es
conmutativa.
Y en el caso n = 1, ¿qué
Las
cuadradas de orden 1 solo
ocurre?
matrices
a y B = b son dos matrices cualesquiera de
tienen un término. Si A =
orden 1, se tiene:
AB =
a
b
a = BA.
= ab = ba = b
Esto es: la multiplicación de matrices cuadradas de orden 1 sí es una operación conmutativa.
Productos de matrices dados por columnas o por filas
Producto dado por columnas
135
Presentamos ahora una fórmula que expresa el producto de dos
matrices cuando una de ellas, en concreto la segunda, viene escrita en su
notación por columnas.
Consideremos para ello dos matrices A y B tales que está definido el producto AB. Sabemos que el número de columnas de la matriz producto AB
II.2. OPERACIONES CON MATRICES
es el mismo que el número de columnas de la matriz B; denotemos este
número de columnas por p. Acontece lo siguiente: si Bj es la j-ésima matriz columna de la matriz B (y por tanto 1 j p), entonces la j-ésima
matriz columna de la matriz producto AB es ABj . Escrito de otra forma
(recordando la notación para las matrices columna de una matriz, cf. § 115,
p. 123):
Cj (AB) = A Cj (B),
¿Cómo podemos demostrar estas igualdades? Nótese que son p igualdades. Para cada número natural j,
1 j p.
cir: el de posición (1, 1)) es justamente el término de
posición (1, j) de la matriz AB, que es:
con 1 j p, se trata de demostrar la igualdad entre
m
las matrices Cj (AB) y A Cj (B).
Lo primero que debemos comprobar es que se trata
de matrices del mismo orden. La matriz Cj (AB) tiene
tantas filas como el producto AB, y este producto tiene
tantas filas como su primer factor, que es la matriz A;
Por otra parte, el primer término de la matriz A Cj (B)
es el término de posición (1, 1) de este producto:
⎞
b1j
⎟
⎜
⎜ b2j ⎟
⎟
⎜
A Cj (B) = A ⎜ . ⎟ ,
⎜ . ⎟
.
⎠
⎝
bmj
⎛
las como su primer factor, que también es A. Por otro
lado, la matriz Cj (AB) es una matriz columna, y la matriz producto A Cj (B) tiene tantas columnas como su
segundo factor, que también es una matriz columna.
orden: ambas tienen tantas filas como la matriz A y
una sola columna.
que es también igual a
m
Comprobemos ahora que los términos de la misma
posición en ambas matrices son iguales. Veámoslo
con
detalle con el primero de ellos. Pongamos A = aij
y B = bij , y designemos por m el número de colum-
a1k bkj .
k=1
Análogamente se probaría la igualdad de los restantes
términos.
En efecto se tiene que Cj (AB) = A Cj (B), y ello para
nas de A (que es el mismo que el número de filas de B).
El primer término de la matriz Cj (AB) (queremos de-
a1k bkj .
k=1
asimismo, la matriz producto A Cj (B) tiene tantas fi-
Las matrices Cj (AB) y A Cj (B) son, pues, del mismo
(1)
cada 1 j p.
De acuerdo con (1), si la notación por columnas de la matriz B es
B = B1 B2 . . . Bp ,
entonces la notación por columnas del producto AB es
AB = AB1 AB2 . . . ABp .
Es decir:
A B1
B2
...
Bp = AB1
AB2
...
ABp .
II. MATRICES
Un ejemplo
136
Fijémonos, a modo de ejemplo, en estas dos matrices:
⎛
⎞
⎛
⎞
1 0 1
⎜
⎟
0 0 1 1
⎜2 1 2⎟
⎜
⎟
⎟
A = ⎝1 3 2 1⎠ y B = ⎜
⎜1 1 1⎟,
⎝
⎠
0 0 1 1
3 1 3
cuyo producto AB podemos efectuar. Como la segunda de ellas tiene dos
columnas iguales —la primera y la tercera—, para calcular el producto puede
valer la pena hacer uso del resultado visto en el § 135.
Las matrices columna de la matriz B son:
⎛ ⎞
⎛ ⎞
⎛ ⎞
1
0
1
⎜ ⎟
⎜ ⎟
⎜ ⎟
⎜2⎟
⎜1⎟
⎜2⎟
⎜ ⎟
⎜ ⎟
⎟
B1 = ⎜
⎜ 1 ⎟ , B2 = ⎜ 1 ⎟ y B3 = ⎜ 1 ⎟ ,
⎝ ⎠
⎝ ⎠
⎝ ⎠
3
1
3
y su notación por columnas es B = B1 B2 B3 . De acuerdo con el resul tado citado: AB = A B1 B2 B3 = AB1 AB2 AB3 . Esto es:
• la primera matriz columna de AB es:
⎛
0
⎜
AB1 = ⎝ 1
0
0
3
0
1
2
1
⎛ ⎞
⎞ 1
⎛
⎞
1 ⎜ ⎟
4
⎟ ⎜
2
⎟⎜
⎟
⎟
1⎠⎜
⎜ 1 ⎟ = ⎝ 12 ⎠ ;
⎝ ⎠
1
4
3
• la segunda matriz columna de AB es:
⎛
0
⎜
AB2 = ⎝ 1
0
0
3
0
1
2
1
⎛ ⎞
⎞ 0
⎛ ⎞
1 ⎜ ⎟
2
⎜
⎟
⎟ 1⎟ ⎜ ⎟
1⎠⎜
6⎠;
=
⎝
⎜1⎟
⎝ ⎠
1
2
1
• y la tercera matriz columna de AB es AB3 , pero como B3 = B1 , resulta:
⎛
⎞
4
⎜
⎟
AB3 = AB1 = ⎝ 12 ⎠ .
4
Finalmente:
AB = AB1
Nota bene
AB2
AB3
⎛
4
⎜
= ⎝ 12
4
2
6
2
⎞
4
⎟
12 ⎠ .
4
Cuando se efectúa un producto de matrices, si la segunda matriz
tiene dos (o más) columnas iguales, también las tendrá iguales la matriz pro
ducto (y serán las de la misma posición).
II.2. OPERACIONES CON MATRICES
Producto dado por filas
137
Vemos ahora una fórmula para el producto de dos matrices cuando
una de ellas, esta vez la primera, viene escrita en su notación por filas.
Recordemos que el número de filas del producto de dos matrices es igual
al número de filas de la primera matriz. Dadas dos matrices A y B para las
cuales el producto AB está definido, denotando por n el número de filas
de A (que es entonces el mismo que el número de filas de AB), acontece lo
siguiente: para cada 1 i n, si Fi es la i-ésima matriz fila de la matriz A,
entonces la i-ésima matriz fila de la matriz producto AB es Fi B. En otras
La prueba de estas n igualdades es completamente análoga a la vista en el § 135 para
las p igualdades del producto
por columnas.
palabras (con la ayuda de la notación para las matrices fila de una matriz,
cf. § 115, p. 123):
Fi (AB) = Fi (A) B,
1 i n.
De acuerdo con lo anterior, si la notación por filas de la matriz A es
⎛ ⎞
F1
⎜ ⎟
⎜ ⎟
⎜ F2 ⎟
⎜ ⎟
⎜ ⎟
A = ⎜ . ⎟,
⎜ . ⎟
⎜ . ⎟
⎜ ⎟
⎝ ⎠
Fn
entonces la notación por filas de la matriz producto AB es
⎞
⎛
F1 B
⎟
⎜
⎟
⎜
⎜ F2 B ⎟
⎟
⎜
⎟
⎜
AB = ⎜ . ⎟ .
⎜ . ⎟
⎜ . ⎟
⎟
⎜
⎠
⎝
Fn B
Esto es:
Un ejemplo
138
⎞
⎛
⎞
F1 B
F1
⎜
⎟
⎜ ⎟
⎜
⎟
⎜ ⎟
⎜ F2 B ⎟
⎜ F2 ⎟
⎜
⎟
⎜ ⎟
⎜
⎟
⎜ ⎟
⎟,
⎜ ⎟B = ⎜
⎜ .. ⎟
⎜ .. ⎟
⎜ . ⎟
⎜ . ⎟
⎜
⎟
⎜ ⎟
⎝
⎠
⎝ ⎠
Fn
Fn B
⎛
Para ver un ejemplo del resultado recién estudiado en el § 137, con-
sideremos de nuevo las matrices con las que trabajamos en el § 136:
⎛
⎞
⎛
⎞
1 0 1
⎜
⎟
0 0 1 1
⎜2 1 2⎟
⎜
⎟
⎟
A = ⎝1 3 2 1⎠ y B = ⎜
⎜1 1 1⎟.
⎝
⎠
0 0 1 1
3 1 3
II. MATRICES
La primera de estas matrices tiene dos filas iguales —primera y tercera—,
luego puede resultar útil hacer uso del resultado citado.
La expresión de A en notación por filas es:
⎛ ⎞
F1
⎜ ⎟
⎜ ⎟
⎟
A=⎜
⎜ F2 ⎟ ,
⎝ ⎠
F3
siendo:
F1 = 0
0
1
1 ,
F2 =
1
3
2
1
y
F3 = 0
0
1
1 .
De acuerdo con el resultado del § 137, se tiene:
⎛ ⎞
⎞
⎛
F1
F1 B
⎜ ⎟
⎟
⎜
⎜ ⎟
⎟
⎜
⎟ B = ⎜ F2 B ⎟ .
F
AB = ⎜
2
⎜ ⎟
⎟
⎜
⎝ ⎠
⎠
⎝
F3
F3 B
Esto es:
• la primera matriz fila de AB es:
F1 B = 0
0
1
⎛
1
⎜
⎜2
1 ⎜
⎜1
⎝
3
• la segunda matriz fila de AB es:
⎛
F2 B =
1
3
2
1
⎜
⎜2
1 ⎜
⎜1
⎝
3
⎞
1
⎟ 2⎟
⎟= 4
1⎟
⎠
3
2
4 ;
⎞
1
⎟ 2⎟
⎟ = 12
1⎟
⎠
3
6
12 ;
0
1
1
1
0
1
1
1
• la tercera matriz fila de AB es F3 B, pero dado que F3 = F1 , resulta:
F3 B = F1 B = 4 2 4 .
Finalmente:
Nota bene
⎛
⎞
⎛
⎟
⎜
4
⎟ ⎜
⎜
⎟ = ⎝ 12
F
B
AB = ⎜
2
⎟
⎜
⎠
⎝
4
F3 B
F1 B
2
6
2
⎞
4
⎟
12 ⎠ .
4
En un producto de matrices, si la primera matriz tiene dos (o más)
filas iguales, también las tendrá iguales la matriz producto (y serán las de la
misma posición).
II.2. OPERACIONES CON MATRICES
Propiedades de la multiplicación de matrices
Nota
En este epígrafe, y con ánimo de ganar claridad, debajo de algunas matrices escribiremos su orden. Por ejemplo, la notación A significará que la
139
Propiedad asociativa
(n,m)
matriz A es de orden (n, m).
La multiplicación de matrices, como la de números (reales), es aso-
ciativa. ¿Qué significa esto? Que si A, B y C son tres matrices (de órdenes
adecuados), entonces se verifica:
A ( B
C )=( A
(n,m) (m,p) (p,q)
aij , B = bij y C = cij , y
designemos a su vez por D = dij y E = eij los
Pongamos: A =
productos AB y BC, respectivamente: D = AB y E = BC.
Es claro que las matrices (AB)C y A(BC) son del
mismo orden: (n, q), con lo que solo resta comprobar
que los términos de la misma posición en ambas matrices son iguales. Fijemos una posición cualquiera (i, j),
con 1 i n y 1 j q. El término de esta posición
mino de posición (i, j) de la matriz A(BC), esto es, de
la matriz AE, es el siguiente:
m
aik ekj =
k=1
l=1
dil clj =
p m
l=1 k=1
m
aik
k=1
p
p
m bkl clj =
aik bkl clj ,
l=1
k=1 l=1
donde se ha considerado que ekj es el término de posición (k, j) del producto BC. Las dos sumas obtenidas:
p m
en la matriz (AB)C, es decir, en la matriz DC, es este:
p
B ) C .
(n,m) (m,p) (p,q)
p m
aik bkl clj =
aik bkl clj ,
aik bkl clj
l=1 k=1
p
m y
aik bkl clj ,
k=1 l=1
son iguales. Los términos de una misma posición de las
l=1 k=1
donde hemos hecho uso de que dil es el término de
posición (i, l) del producto AB. Por otra parte, el tér-
matrices (AB)C y A(BC) son, pues, iguales.
Efectivamente se cumple que A(BC) = (AB)C.
En virtud de la propiedad asociativa, podemos hablar del producto de
más de dos matrices, y se hace innecesario escribir paréntesis cuando tengamos que expresarlo. Verbigracia, escribiremos simplemente ABC en vez
de A(BC) o (AB)C.
Propiedad distributiva
140
La multiplicación de matrices es distributiva, tanto por la derecha
como por la izquierda, respecto de la adición de matrices. Esto significa
lo siguiente: dadas unas matrices A, A1 y A2 , y B, B1 y B2 (de órdenes
adecuados), se cumple:
A ( B1 + B2 )
(m,p)
(n,m) (m,p)
= A
B1 + A
B2 ,
(n,m) (m,p)
(n,m) (m,p)
( A1 + A2 ) B
= A1
y también:
(n,m)
(n,m) (m,p)
B
(n,m) (m,p)
+ A2
B .
(n,m) (m,p)
II. MATRICES
Los números satisfacen una propiedad análoga: si a, b y c son tres
números, entonces a(b + c) = ab + ac, y también: (a + b)c = ac + bc.
Esta propiedad es la que nos permite realizar la conocida “manipulación”
de sacar factor común en una suma de productos cuando hay un factor
que se repite en todos los productos. Vemos que con las matrices también
puede llevarse a cabo este tipo de manipulación.
La propiedad distributiva para matrices se deduce sin dificultad de la
definición del producto de dos matrices y de la propiedad distributiva para
números. Dejamos al lector su justificación.
Producto por una matriz
identidad
141
El producto de una matriz por una matriz identidad, tanto por la
derecha como por la izquierda, nos devuelve la matriz original. Es decir,
si A es una matriz, entonces se cumple:
In
A
(n,n) (n,m)
= A
(n,m)
= A
Im
(n,m) (m,m)
(recuérdese que con In y Im se designan las matrices identidad de orden,
respectivamente, n y m).
Para comprobar la igualdad In A = A, fijemos una posición cualquiera (i, j), con 1 i n y 1 j m. El término de esta posición en
la matriz producto In A y el de esta misma posición en la matriz A son,
respectivamente, estos:
n
δikakj
y
aij ,
k=1
donde δik designa el término de posición (i, k) de la matriz identidad In
(cf. § 113, p. 122). Pero estos términos son iguales:
En esta suma, cuando el índice k recorre todos los valores de 1 a n, el factor δik se
anula para todos ellos excepto
para k = i, para el cual resulta
igual a 1.
Producto por una matriz nula
n
δik akj = δii aij = aij .
k=1
Las matrices In A y A son, efectivamente, la misma matriz. La otra igualdad: AIm = A, se probaría de forma similar.
142
El producto, tanto por la derecha como por la izquierda, por una
matriz nula tiene como resultado otra matriz nula: si A es una matriz, entonces se verifica:
O
A
(p,n) (n,m)
=
O
(p,m)
y
A
O = O .
(n,m) (m,q)
(n,q)
Esta propiedad se concluye inmediatamente de la definición del producto de dos matrices y del hecho de que todos los términos de una matriz
nula son iguales a 0.
II.2. OPERACIONES CON MATRICES
El producto de dos matrices
no nulas puede ser una
matriz nula
143
Si a y b son dos números tales que ab = 0, entonces a = 0 o b = 0
(quizá ambas cosas a la vez). Sin embargo, las matrices no verifican una propiedad análoga; queremos decir: si A y B son dos matrices tales que AB = O,
no podemos deducir de ello que deba ser nula alguna de las matrices A o B.
Por ejemplo, el siguiente es un producto de dos matrices no nulas que
es igual a una matriz nula:
1
1
1
1
1
−1
−1
1
=
0
0
0
0
.
Notación matricial de un sistema de ecuaciones lineales
Un sistema de ecuaciones
lineales como un producto de
matrices
144
La multiplicación de matrices puede aprovecharse para escribir los
sistemas de ecuaciones lineales de una forma más sintética.
Consideremos un sistema de n ecuaciones lineales en las m incógnitas x1 , x2 , . . . , xm (cf. § 42, p. 55):
⎧
a11 x1 + a12 x2 + · · · + a1m xm = c1
⎪
⎪
⎪
⎪
⎨
a21 x1 + a22 x2 + · · · + a2m xm = c2
⎪
⎪ ........................................
⎪
⎪
⎩
an1 x1 + an2 x2 + · · · + anm xm = cn .
(2)
Ya sabemos que la matriz de coeficientes (o matriz asociada) de este sistema
es la matriz de orden (n, m) siguiente (cf. § 53, p. 62):
⎛
a11
⎜
⎜ a21
⎜
A=⎜ .
⎜ ..
⎝
an1
a12
a22
..
.
an2
...
...
..
.
...
⎞
a1m
⎟
a2m ⎟
⎟
.
.. ⎟
. ⎟
⎠
anm
Pero a partir del sistema se pueden definir otras matrices. La matriz de
Matriz de incógnitas
incógnitas es la matriz columna de orden (m, 1) cuyos términos son las
incógnitas del sistema: x1 , x2 , . . . , xm ; se denota por X:
⎞
x1
⎟
⎜
⎜ x2 ⎟
⎟
⎜
X = ⎜ . ⎟.
⎜ .. ⎟
⎠
⎝
xm
⎛
Matriz de términos
independientes
También se define la matriz de términos independientes: es la matriz columna, esta vez de orden (n, 1), cuyos términos son los términos indepen-
II. MATRICES
dientes del sistema: c1 , c2 , . . . , cn ; se denota por C:
⎛
⎞
c1
⎜ ⎟
⎜ c2 ⎟
⎜ ⎟
C = ⎜ . ⎟.
⎜ .. ⎟
⎝ ⎠
cn
Considerando las matrices anteriores, el sistema de ecuaciones lineales (2) es equivalente a la igualdad matricial AX = C.
En efecto. El producto AX está definido (la matriz A tiene m columnas, tantas como filas tiene la matriz X), y el resultado es una matriz de
orden (n, 1) —matriz columna, por tanto—, que es precisamente el orden
de la matriz C. Por otra parte, los términos de la primera fila de la matriz A son a11 , a12 , . . . , a1m , y los términos de la única columna de la matriz X son x1 , x2 , . . . , xm ; el término de posición (1, 1) del producto AX
(si queremos, el primer término de esta matriz columna) es, pues, igual
a a11 x1 + a12 x2 + · · · + a1m xm , que es justamente el primer miembro de
la primera ecuación del sistema (2). Análogamente, para cada número natural i tal que 1 i n, el término de posición (i, 1) del producto AX es igual
al primer miembro de la i-ésima ecuación del sistema (2). También acontece
que los términos de la matriz columna C son los segundos miembros de
las ecuaciones del sistema. El sistema (2) es, pues, una forma de escribir la
igualdad entre los términos correspondientes de las matrices AX y C.
De la igualdad matricial AX = C diremos es la notación matricial del
sistema de ecuaciones lineales (2).
Un ejemplo
145
A modo de ejemplo de notación matricial, recordemos el sistema de
ecuaciones lineales (40) (cf. p. 93) del Capítulo I:
⎧
⎪
⎪
⎪ x1 + x2 + x3 + 2x4 = 1
⎨
x1 + 2x2 + 3x3 + 2x4 = 3
⎪
⎪
⎪
⎩ x + x + 2x + 6x = 1.
1
2
3
4
La matriz de coeficientes del sistema es esta:
⎛
1
⎜
A = ⎝1
1
1
2
1
1
3
2
⎞
2
⎟
2⎠,
6
y la matriz de incógnitas y la matriz de términos independientes son, res-
II.2. OPERACIONES CON MATRICES
pectivamente, las siguientes:
⎞
x1
⎟
⎜
⎜ x2 ⎟
⎟
X=⎜
⎜x ⎟
⎝ 3⎠
x4
⎛
y
⎛ ⎞
1
⎜ ⎟
C = ⎝3⎠.
1
La notación matricial del sistema es: AX = C; específicamente:
⎞
⎛
⎛
⎛ ⎞
⎞ x1
⎟
1 1 1 2 ⎜
1
⎟
⎜
x
⎜
⎜ ⎟
⎟
2⎟
3⎠.
=
⎝1 2 3 2⎠⎜
⎝
⎜x ⎟
3⎠
1 1 2 6 ⎝
1
x4
(3)
El lector puede comprobar que este producto de matrices expresa lo mismo
que las ecuaciones del sistema propiamente dicho.
Solución de un sistema en
notación matricial
146
Ya sabemos que una solución de un sistema de ecuaciones linea-
les en las m incógnitas x1 , x2 , . . . , xm es una m-upla (s1 , s2 , . . . , sm ) donde
los m números s1 , s2 , . . . , sm tienen esta propiedad: al sustituir, en cada
una de las ecuaciones, x1 por s1 , x2 por s2 , . . . , xm por sm , se obtiene una
igualdad. Si el sistema de ecuaciones lineales está escrito en notación matricial, resulta cómodo llamar solución también a la matriz columna cuyos
términos son los números s1 , s2 , . . . , sm :
⎛ ⎞
s1
⎜ ⎟
⎜ s2 ⎟
⎜ ⎟
⎜ . ⎟.
⎜ .. ⎟
⎝ ⎠
sm
Nótese que si AX = C es la notación matricial de un sistema de ecuaciones lineales con m incógnitas, afirmar que una matriz columna X1 de
orden (m, 1) es solución del sistema es lo mismo que afirmar que el producto de matrices AX1 es igual a la matriz C; esto es: AX1 = C.
Por ejemplo, el sistema que hemos recordado en el § 145, y cuya notación
matricial hemos escrito en (3), tiene por solución todas las cuaternas de la
forma (cf. § 91, p. 95):
−1 − 6λ, 2 + 8λ, −4λ, λ ,
donde λ es un número cualquiera.
De acuerdo con lo dicho, podemos afirmar también que todas sus soluciones
son las matrices columna de la forma:
⎛
⎞
−1 − 6λ
⎜
⎟
⎜ 2 + 8λ ⎟
⎜
⎟
⎜ −4λ ⎟ , donde λ es un número cualquiera.
⎝
⎠
λ
II. MATRICES
Por ejemplo, el primer término
del producto AX1 quedaría:
Y, efectivamente, si denotamos la matriz columna anterior por X1 , el producto de la matriz A por la matriz X1 tiene por resultado:
⎛
(−1 − 6λ) + (2 + 8λ)
1
⎜
AX1 = ⎝ 1
1
+ (−4λ) + 2λ
= (−1 + 2)
+ (−6 + 8 − 4 + 2)λ = 1.
1
2
1
1
3
2
⎛
⎞
⎞ −1 − 6λ
⎛ ⎞
2 ⎜
⎟
1
⎟ ⎜ ⎟
2
+
8λ
⎟⎜
⎜
⎟
2⎠⎜
= ⎝ 3 ⎠ = C,
−4λ ⎟
⎠
6 ⎝
1
λ
y ello para cualquier número λ.
Una observación final: una matriz columna como la X1 se escribe a veces
de esta manera:
Notación matricial de un
sistema homogéneo
147
⎛
⎞
−1 − 6λ
⎜
⎟
⎜ 2 + 8λ ⎟
⎜
⎟
⎜ −4λ ⎟ =
⎝
⎠
λ
⎛
⎞
⎛
⎞
−1
−6
⎜
⎟
⎜
⎟
⎜ 2⎟
⎜
⎟
⎜
⎟ + λ⎜ 8⎟.
⎜ 0⎟
⎜ −4 ⎟
⎝
⎠
⎝
⎠
0
1
Los sistemas de ecuaciones lineales homogéneos —ya lo sabemos
del Capítulo I— son los que tienen todos los términos independientes nulos: si los escribimos en notación matricial, su matriz de términos independientes es entonces una matriz nula. La notación matricial de un sistema
homogéneo de matriz de coeficientes A y matriz de incógnitas X es, pues,
así: AX = O.
Por ejemplo, podemos recordar el sistema de ecuaciones lineales homogéneo (45) (cf. p. 98):
⎧
⎨ x1 − 2x2 + x3 = 0
⎩ x1
− 2x3 = 0.
Introduciendo las matrices:
A=
1
1
−2
0
1
−2
⎞
x1
⎟
⎜
X = ⎝ x2 ⎠
x3
⎛
y
(matriz de coeficientes y matriz de incógnitas, respectivamente, del sistema), la notación matricial del sistema sería: AX = O, o más específicamente:
1
1
−2
0
1
−2
⎞
x1
0
⎟
⎜
.
⎝ x2 ⎠ =
0
x3
⎛
Adicionalmente, recordemos que el sistema homogéneo anterior fue resuelto en el § 97 (cf. p. 99); sus soluciones son las ternas de la forma:
3
2λ, λ, λ ,
2
donde λ es un número cualquiera.
II.2. OPERACIONES CON MATRICES
Podemos añadir que las soluciones del sistema también son las matrices
columna de la forma:
⎛
⎞
2
⎜
⎟
λ ⎝ 3/2 ⎠ ,
1
donde λ es un número cualquiera.
Ejercicios II.2
1
Dadas las matrices A y B siguientes:
⎛
2
⎜
A = ⎝1
5
⎞
⎛
1
⎟
−1 ⎠
3
2
⎜
y B = ⎝3
3
6
⎞
0
⎟
1⎠,
−2
calcular la suma de A y B. Calcular también la matriz
opuesta de A.
2
Dadas las matrices:
⎛
⎞
⎛
1
1
−2
⎜
⎟
⎜
⎜ −2
⎟
⎜ −1
0
⎟ y B=⎜
A=⎜
⎜ 0
⎜ 3
3⎟
⎝
⎠
⎝
4 −1
4
⎞
−1
⎟
0⎟
⎟,
−3 ⎟
⎠
−1
7
a)
A=
2
−1
Cj (A) = A Cj (Im),
3
y
⎛ ⎞
1
⎜ ⎟
B = ⎝0⎠,
3
por A: BA.
Calcular este producto de matrices:
a b
u
u v
,
c d
v
donde las letras escritas designan números (reales).
¿Qué queda cuando b = c?
5
Fijado 1 j m, probar que la j-ésima ma-
propia matriz A y la j-ésima matriz columna de la ma-
b)
Nos dan dos matrices A y B tales que los dos
1 j m.
Fijado 1 i n, demostrar que la i-ésima ma-
triz fila de la matriz A es igual al producto de la i-ésima
matriz fila de la matriz identidad In por la matriz A:
Fi (A) = Fi (In ) A,
calcular el producto de A por B: AB, y el producto de B
4
Se considera una matriz A de orden (n, m):
triz columna de la matriz A es igual al producto de la
Con las matrices
⎞
1
⎟
0⎠.
1
triz identidad Im ; en símbolos:
escribir la matriz 2A − 3B.
3
Estudiar si conmutan las matrices A y B en los
siguientes casos:
a)
A= 3
y B = −2 ;
1
2
3
0
b)
A=
y B=
;
2 −1
1 −1
⎛
⎞
⎛
1
1 −1
2 −1
⎜
⎟
⎜
0⎠ y B = ⎝0
1
1
c)
A=⎝ 0
−1 −1
2
1
0
c)
1 i n.
Comprobar los resultados de los apartados an-
teriores con la primera matriz columna y la primera
matriz fila de la matriz
A=
8
2
3
Dadas las matrices:
1 2
A=
3 5
1
−2
y
.
C=
1
,
5
productos AB y BA están definidos y son matrices del
encontrar alguna matriz columna X1 tal que AX1 = C.
mismo orden. Demostrar que las matrices A y B deben
ser cuadradas y del mismo orden.
Interpretar el resultado en el contexto de los sistemas
de ecuaciones lineales.
II. MATRICES
9
Consideremos el sistema de ecuaciones lineales
siguiente:
10
⎧
⎨ 2x1 + x2 − x3 = 1
⎩ x1 + x2
= −1.
por A2 ; esto es: A2 = AA. Demostrar que si A y B son
matrices cuadradas del mismo orden, se tiene:
a)
Encontrar todas sus soluciones.
b)
Escribirlo en notación matricial: AX = C.
c)
Si X y C son las matrices fila cuyos términos
son, respectivamente, los términos de las matrices co-
(A + B)2 = A2 + AB + BA + B 2 .
Nota bene
X = x1
x2
x3
y
C = 1
Si las matrices A y B no conmutan, en-
tonces (A + B)2 es distinto de A2 + 2AB + B 2 ,
lumna X y C del apartado anterior, es decir:
Si A es una matriz cuadrada, el producto de A
por A está definido, y la matriz producto AA se denota
a diferencia de lo que ocurre con los números;
recordemos que si a y b son dos números, enton-
−1 ,
ces: (a + b)2 = a2 + 2ab + b2 .
encontrar alguna matriz B tal que X B = C .
d)
En general: si AX = C es la notación matricial
11
Nos dan la matriz:
de un sistema de n ecuaciones lineales y m incógnitas,
¿cómo es una matriz B tal que X B = C , donde X y C se construyen a partir de X y C, respectivamente, como
en el apartado anterior?
1
0
1
1
.
Calcular A2 (cf. ejercicio 10), y calcular también la po-
Nota bene
Con las notaciones de este ejercicio, la
igualdad matricial X B = C (con la matriz B adecuada que se obtiene tras resolverlo) es equivalente
al sistema de ecuaciones lineales cuya notación matricial es AX = C.
A=
tencia A3 (donde A3 = AAA). Asimismo, encontrar una
expresión para la potencia An , donde n es un número
natural positivo y An se define de la forma:
An = AA
·· · A .
n veces
II.3. TRANSFORMACIONES ELEMENTALES DE UNA MATRIZ
II.3 TRANSFORMACIONES ELEMENTALES DE UNA MATRIZ
Se definen también transformaciones elementales por columnas. Las veremos a partir
del § 212 (cf. p. 199).
Ya hemos visto las transformaciones elementales (por filas) en el Capítulo I. En esta sección las recordamos sucintamente y presentamos contenidos relacionados con ellas que todavía no hemos estudiado, como las
transformaciones elementales inversas y las matrices elementales.
1. Transformaciones elementales por filas
Recordamos aquí los tres tipos de transformaciones elementales por filas
de una matriz e introducimos la idea de transformación elemental inversa.
Tipos de transformaciones elementales por filas
Los tres tipos de
transformaciones elementales
por filas (recordatorio)
148
Llamamos transformaciones elementales (por filas) a cualquiera de
los tres tipos de transformaciones siguientes, que se aplican sobre matrices:
• Tipo i: intercambiar dos filas. Si las filas que se intercambian son la
i-ésima y la j-ésima, esta transformación se denota: Fi ↔ Fj . Nótese
que las otras filas —las que no se intercambian— no sufren variación.
• Tipo ii: multiplicar una fila por un número no nulo. Si la fila es la
i-ésima y el número no nulo se designa por λ, la transformación se
denota: Fi ← λFi . Tras esta transformación, las restantes filas quedan
inalteradas.
• Tipo iii: sumar a una fila un múltiplo de otra. Si a la fila i-ésima se
le suma un múltiplo de la fila j-ésima (con j ≠ i), es decir, se le suma
esta fila j-ésima previamente multiplicada por un número, digamos α
Letra griega α (léase “alfa”).
(nulo o no), entonces la transformación se denota: Fi ← Fi + αFj . Es
especialmente importante notar que esta transformación solo puede
alterar una fila: aquella a la que se suma el múltiplo de otra; las otras
filas, incluyendo aquella cuyo múltiplo se calcula, quedan inalteradas.
Un ejemplo de transformación
elemental por filas de cada
tipo
149
Aunque en el citado Capítulo I hemos visto ya bastantes ejemplos
de transformaciones elementales por filas, veamos ahora alguno más. Consideremos para ello la matriz
⎛
0
⎜
⎝2
1
1
0
1
3
−4
3
⎞
2
⎟
2⎠.
1
II. MATRICES
La transformación elemental, de tipo i, de intercambiar entre sí las filas
primera y segunda, aplicada a esta matriz, tiene este efecto:
⎛
0
⎜
⎝2
1
1
0
1
3
−4
3
⎛
⎞
2
2
⎟ F1 ↔F2 ⎜
2 ⎠ →
⎝0
1
1
0
1
1
⎞
2
⎟
2⎠.
1
−4
3
3
La transformación elemental, de tipo ii, por la cual se multiplica por el
número 1/2 —que es no nulo— la segunda fila de la matriz dada tiene como
resultado:
⎛
0
⎜
⎝2
1
1
0
1
3
−4
3
⎛
⎞
0
2
⎟ F2 ←(1/2)F2 ⎜
2 ⎠ →
⎝1
1
1
1
0
1
3
−2
3
⎞
2
⎟
1⎠.
1
Y la transformación elemental, de tipo iii, que suma a la segunda fila la
tercera multiplicada por el número −2, ejecutada en la matriz considerada,
da como resultado:
⎛
0
⎜
⎝2
1
1
0
1
3
−4
3
⎛
⎞
2
0
⎟ F2 ←F2 +(−2)F3 ⎜
2 ⎠ →
⎝ 0
1
1
1
−2
1
3
−10
3
⎞
2
⎟
0⎠.
1
No queremos dejar de enfatizar que, en esta última matriz, solo ha cambiado la segunda fila; las demás no se han alterado, incluida la tercera (la cual
solo se ha multiplicado por −2 a efectos de ser sumado el resultado a la
segunda fila).
Transformaciones elementales inversas
Transformaciones
elementales inversas
150
Dada cualquier transformación elemental, existe otra con esta pro-
piedad: al aplicar ambas sucesivamente, en un orden o en el otro, a cualquier matriz (de un orden adecuado1 ), se obtiene como resultado la matriz
original. Diremos, en este caso, que cualquiera de ellas es transformación
elemental inversa de la otra (o que ambas son inversas entre sí).
. . . de tipo I
Por ejemplo, fijémonos en la transformación elemental F1 ↔ F2 (intercambiar las filas primera y segunda). Si la aplicamos a una matriz dada, ¿se
nos ocurre una transformación elemental que podríamos ejecutar tras ella
para obtener la matriz de origen? Nos sirve ella misma, aplicada entonces
1 Decimos
orden adecuado porque, verbigracia, no podríamos aplicar la transformación
elemental F1 ↔ F4 a una matriz de solo tres filas. A partir de ahora, y en ausencia de otra
especificación, las matrices genéricas a las que nos refiramos serán del orden adecuado para
aquello de lo que se esté hablando.
II.3. TRANSFORMACIONES ELEMENTALES DE UNA MATRIZ
de nuevo. Lo vemos en un caso concreto:
⎛
⎛
⎛
⎞
⎞
1 −2
−4
0
1
⎜
⎟ F1 ↔F2 ⎜
⎟ F1 ↔F2 ⎜
0 ⎠ →
⎝ 1 −2 ⎠ →
⎝ −4
⎝ −4
0 −1
0 −1
0
⎞
−2
⎟
0⎠,
−1
y obviamente es lo mismo en el otro orden.
En general, una transformación elemental de tipo i, pongamos Fi ↔ Fj ,
es inversa de sí misma. Tras aplicar ambas, una después de otra, a una
Recuérdese cómo denotamos
las matrices fila de una matriz
(cf. § 118, p. 125).
. . . de tipo II
matriz cualquiera, obtenemos la matriz de partida:
⎞
⎞
⎞
⎛
⎛
⎛
.
.
.
⎜ .. ⎟
⎜ .. ⎟
⎜ .. ⎟
⎟
⎟
⎟
⎜
⎜
⎜
⎟
⎟
⎟
⎜
⎜
⎜
⎜ F (A) ⎟
⎜ F (A) ⎟
⎜ F (A) ⎟
⎟
⎟
⎟
⎜ j
⎜ i
⎜ i
⎟
⎟
⎟
⎜
⎜
⎜
⎟ F ↔F ⎜
⎟ F ↔F ⎜
⎟
⎜
⎜ .. ⎟ i j ⎜ .. ⎟ i j ⎜ .. ⎟
⎜ . ⎟ →
⎜ . ⎟ →
⎜ . ⎟ .
⎟
⎟
⎟
⎜
⎜
⎜
⎟
⎟
⎟
⎜
⎜
⎜
⎟
⎟
⎟
⎜
⎜
⎜
⎜ Fi (A) ⎟
⎜ Fj (A) ⎟
⎜ Fj (A) ⎟
⎟
⎟
⎟
⎜
⎜
⎜
⎟
⎟
⎟
⎜
⎜
⎜
⎝ . ⎠
⎝ . ⎠
⎝ . ⎠
..
..
..
151
Fijémonos ahora en las transformaciones elementales de tipo ii. Si
en una matriz multiplicamos una de sus filas por un número λ no nulo,
podemos aplicar una segunda transformación elemental de tipo ii para recuperar la matriz original: multiplicar la misma fila por el número 1/λ. Por
ejemplo:
⎛
⎞
⎛
−2
3/2
⎟ F1 ←(3/2)F1 ⎜
0 ⎠ →
⎝−4
−1
0
1
⎜
⎝ −4
0
⎛
⎞
−3
1
⎟ F1 ←(2/3)F1 ⎜
0 ⎠ →
⎝ −4
−1
0
⎞
−2
⎟
0⎠.
−1
En general, las transformaciones elementales, de tipo ii, Fi ← λFi (siendo λ ≠ 0) y Fi ← (1/λ)Fi son inversas una de la otra:
⎞
⎞
⎞
⎛
⎛
..
..
..
.
⎟
⎜ . ⎟
⎜
⎜ . ⎟
⎟
⎟
⎟
⎜
⎜
⎜
⎟
⎟
⎟
⎜
⎜
⎜
i
i
⎜ Fi (A) ⎟ Fi←λF
⎜ λ Fi (A) ⎟ Fi←(1/λ)F
⎜ Fi (A) ⎟ ,
→
→
⎟
⎟
⎟
⎜
⎜
⎜
⎟
⎟
⎟
⎜
⎜
⎜
⎠
⎝ . ⎠
⎝
⎝ . ⎠
.
..
..
..
⎛
y se llega a lo mismo aplicando las transformaciones en el otro orden.
. . . de tipo III
152
Finalmente, consideremos las transformaciones elementales de ti-
po iii. Si en una matriz sumamos a una fila un múltiplo de otra, podemos recuperar la matriz original restando a la misma fila lo que habíamos
II. MATRICES
sumado: ese mismo múltiplo. Por ejemplo, si sumamos a la segunda fila
la primera multiplicada por 4, desde la matriz que resulta obtenemos la
de partida sumando a la segunda fila la primera multiplicada por −4 (que
es tanto como restar la primera fila multiplicada por 4). Lo vemos con la
matriz que venimos considerando en los ejemplos de este apartado:
⎛
⎞
⎛
⎛
⎞
⎞
1 −2
1 −2
1 −2
⎜
⎟ F2 ←F2 +4F1 ⎜
⎟ F2 ←F2 −4F1 ⎜
⎟
0 ⎠ →
0⎠ .
⎝ 0 −8 ⎠ →
⎝ −4
⎝ −4
0 −1
0 −1
0 −1
En el caso general, podemos decir que son inversas una de la otra las
Nótese que el número α puede ser nulo o no.
transformaciones elementales, de tipo iii, Fi ← Fi + αFj y Fi ← Fi − αFj ,
donde α es un número cualquiera y i ≠ j:
⎞
⎞
⎞
⎛
⎛
⎛
..
..
..
.
.
.
⎟
⎟
⎟
⎜
⎜
⎜
⎟
⎟
⎟
⎜
⎜
⎜
⎟ Fi ←Fi +αFj ⎜
⎟ Fi ←Fi −αFj ⎜
⎟
⎜
⎜ Fi (A) ⎟ →
⎜ Fi (A) + α Fj (A) ⎟ →
⎜ Fi (A) ⎟ .
⎟
⎟
⎟
⎜
⎜
⎜
⎟
⎟
⎟
⎜
⎜
⎜
⎠
⎝ . ⎠
⎝
⎝ . ⎠
.
..
..
..
Si ejecutáramos ambas transformaciones en el otro orden, llegaríamos al
mismo resultado.
2. Matrices elementales
Presentamos en este apartado las matrices elementales, que permiten relacionar las transformaciones elementales con la multiplicación de matrices.
Definición y ejemplos
153
Las matrices elementales son las matrices que se obtienen cuando
se aplica una transformación elemental a una matriz identidad.
Matriz elemental de orden n
asociada a una
transformación elemental
Más en concreto, si n es un número natural, llamaremos matriz elemental de orden n asociada a una transformación elemental a la matriz que
resulta tras aplicar la transformación elemental a la matriz identidad de
orden n.
Hay, por supuesto, tres tipos de matrices elementales, según el tipo de
transformación elemental a la cual estén asociadas. Empecemos viendo un
. . . de tipo I
ejemplo de matriz elemental de tipo i. La matriz elemental de orden n = 3
asociada a la transformación elemental F1 ↔ F3 , verbigracia, se obtiene intercambiando las filas primera
⎛
1 0
⎜
I3 = ⎝ 0 1
0 0
y tercera de la matriz identidad I3 :
⎛
⎞
⎞
0
0 0 1
⎟ F1 ↔F3 ⎜
⎟
0 ⎠ →
⎝0 1 0⎠.
1
1 0 0
II.3. TRANSFORMACIONES ELEMENTALES DE UNA MATRIZ
Resulta cómodo en estos casos escribir las matrices en su notación por filas.
Si designamos (como haremos en todo este apartado) por L1 , L2 , . . . , las
matrices fila de la matriz identidad, podemos escribir la igualdad anterior
de esta forma:
⎞
⎛ ⎞
L1
L3
⎜ ⎟
⎜ ⎟
⎜ ⎟ F1 ↔F3 ⎜ ⎟
⎟
⎟
I3 = ⎜
⎜
⎜ L2 ⎟ →
⎜ L2 ⎟ .
⎝ ⎠
⎝ ⎠
L3
L1
⎛
La matriz
⎛
⎞
⎛
⎜ ⎟
0
⎜ ⎟ ⎜
⎜ L2 ⎟ = ⎝ 0
⎜ ⎟
⎝ ⎠
1
L1
L3
⎞
1
⎟
0⎠
0
0
1
0
es entonces la matriz elemental de orden 3 asociada a la transformación
elemental F1 ↔ F3 .
Otro ejemplo. ¿Cuál es la matriz elemental de orden 4 asociada a la
transformación elemental F2 ↔ F3 ? Esta:
⎛ ⎞
L1
⎛
⎜ ⎟
⎜ ⎟ ⎜1 0
⎜ L3 ⎟ ⎜ 0 0
⎜ ⎟ ⎜
⎜ ⎟=⎜
⎜L ⎟ ⎝0 1
⎜ 2⎟
⎝ ⎠
0 0
L4
0
1
0
0
⎞
0
⎟
0⎟
⎟.
0⎟
⎠
1
En general, la matriz elemental de orden n asociada a la transformación
elemental Fi ↔ Fj toma el aspecto:
⎛
⎞
.
⎜ .. ⎟
⎜ ⎟
⎜ ⎟
⎟
i-ésima→ ⎜
⎜ Lj ⎟
⎜ ⎟
⎜ . ⎟
⎜ . ⎟=
⎜ . ⎟
⎜ ⎟
⎜ ⎟
⎟
j-ésima→⎜
⎜ Li ⎟
⎜ ⎟
⎝ . ⎠
..
⎛
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎝
1
i-ésima
j-ésima
↓
⎞
..
.
..
.
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎠
↓
..
.
...
0 ... 1 ...
.. . .
.
. ..
.
...
1 ... 0 ...
..
.. . .
.
.
.
1
(lo que no está escrito —matrices fila o términos— debe entenderse igual a
lo correspondiente en la matriz identidad In ).
. . . de tipo II
154
Una matriz elemental de tipo ii es la que resulta, simplemente, de
multiplicar por algún número no nulo una de las filas de la matriz identidad
II. MATRICES
correspondiente. Por ejemplo, la matriz elemental de orden 3 asociada a la
transformación elemental F3 ← 3F3 es esta:
⎛
⎞
⎛
L1
⎜
⎟
1 0
⎜
⎟ ⎜
⎜ L2 ⎟ = ⎝ 0 1
⎜
⎟
⎝
⎠
0 0
3L3
⎞
0
⎟
0⎠,
3
resultante de multiplicar por el número no nulo 3 la tercera fila de la matriz
identidad I3 .
En general, la matriz elemental de orden n asociada a la transformación
elemental Fi ← λFi (con λ ≠ 0) toma la forma:
⎛
⎞
..
⎜ . ⎟
⎜
⎟
⎜
⎟
⎟
i-ésima→ ⎜
λL
⎜ i⎟=
⎜
⎟
⎝ . ⎠
..
⎛
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎝
i-ésima
1
..
.
↓
⎞
..
.
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎠
... λ
..
.
...
..
.
1
(de nuevo, lo no escrito debe entenderse igual a lo de la misma posición en
la matriz In ).
. . . de tipo III
155
Finalmente, una matriz elemental de tipo iii se obtiene, a partir de la
matriz identidad correspondiente, sumando a una fila un múltiplo de otra.
Por ejemplo, la matriz elemental de orden 4 asociada a la transformación
elemental F2 ← F2 + 3F1 es la siguiente:
⎛
L1
⎞
⎛
⎟
⎜
⎟ ⎜1
⎜
⎜ L2 + 3L1 ⎟ ⎜ 3
⎟ ⎜
⎜
⎟=⎜
⎜
⎟ ⎝0
⎜
L
⎟
⎜
3
⎠
⎝
0
L4
0
1
0
0
0
0
1
0
⎞
0
⎟
0⎟
⎟,
0⎟
⎠
1
resultado de sustituir la segunda fila de la matriz identidad I4 por la suma
de ella misma y el resultado de multiplicar la primera por 3.
Otro ejemplo: la matriz elemental de orden 3 asociada a la transformación elemental F1 ← F1 + (−2)F3 es
⎛
⎞
⎛
L1 − 2L3
⎜
⎟
1
⎜
⎟ ⎜
⎜
⎟ = ⎝0
L2
⎜
⎟
⎝
⎠
0
L3
0
1
0
⎞
−2
⎟
0⎠.
1
II.3. TRANSFORMACIONES ELEMENTALES DE UNA MATRIZ
La matriz elemental de orden n asociada a la transformación elemental Fi ← Fi + αFj (con α un número cualquiera y i ≠ j) es así:
⎛
⎞
..
.
⎟
⎜
⎟
⎜
⎟
⎜
⎟
i-ésima→ ⎜
L
+
αL
j⎟
⎜ i
⎟
⎜
⎟=
⎜
..
⎟
⎜
⎟
⎜
.
⎟
⎜
⎟
⎜
⎠
⎝
..
.
⎛
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎝
i-ésima
1
↓
..
j-ésima
↓
⎞
..
.
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎠
.
... 1 ... α ...
.
..
. ..
1
..
.
1
(recuérdese que lo no escrito se debe rellenar con los elementos correspondientes de In ).
Algunas propiedades
Efectuar una transformación
elemental es como
multiplicar, por la izquierda,
por su matriz elemental
156
Vemos en este parágrafo una propiedad que permite relacionar la
aplicación de transformaciones elementales con la multiplicación de matrices; a saber: efectuar una transformación elemental en una matriz es lo
mismo que multiplicarla, por la izquierda, por la matriz elemental correspondiente.
A modo de ejemplo, consideremos la transformación elemental (de tipo iii) F1 ← F1 + (−2)F3 , y consideremos
⎛
1
1
⎜
0
A = ⎝ −1
1 −1
también esta matriz:
⎞
0 1
⎟
1 2⎠,
2 1
la cual tiene tres filas (con lo que se le puede aplicar la transformación elemental anterior). La matriz elemental de orden 3 asociada a la transformación elemental se obtiene aplicándo esta a la matriz identidad de orden 3:
⎛
⎛
⎞
⎞
1 0 0
1 0 −2
⎜
⎟ F1 ←F1 +(−2)F3 ⎜
⎟
0 ⎠ = M.
⎝ 0 1
I3 = ⎝ 0 1 0 ⎠ →
0 0 1
0 0
1
Acontece que la matriz resultante de aplicar a la matriz A la transformación
elemental F1 ← F1 + (−2)F3 es igual, justamente, al producto MA. En efecto;
de la primera manera, obtenemos:
⎛
⎛
⎞
1
1 0 1
−1
⎜
⎟ F1 ←F1 +(−2)F3 ⎜
0 1 2 ⎠ →
A = ⎝ −1
⎝ −1
1 −1 2 1
1
3
0
−1
−4
1
2
⎞
−1
⎟
2⎠,
1
II. MATRICES
y de la segunda:
⎛
1
⎜
MA = ⎝ 0
0
0
1
0
⎞⎛
−2
1
⎟⎜
0 ⎠ ⎝ −1
1
1
1
0
−1
0
1
2
⎞ ⎛
1
−1
⎟ ⎜
2 ⎠ = ⎝ −1
1
1
3
0
−1
−4
1
2
⎞
−1
⎟
2⎠;
1
y vemos que llegamos a la misma matriz de una forma y de otra.
Para verlo en general, consideremos una matriz A
En el primer caso, se tiene que Fk (B) = Fk (A). Pero
y una transformación elemental que se puede aplicar a
ella, de la que resulta una matriz que denotamos por B.
también queda inalterada la k-ésima fila de la matriz In
cuando se le aplica la transformación elemental para
Si la matriz A tiene n filas, y M es la matriz elemen-
obtener la matriz elemental M, así que Fk (M) = Fk (In).
tal de orden n asociada a la transformación elemental,
De acuerdo con el citado resultado del § 137 y con la
comprobemos que MA = B. Con este fin, fijemos un
igualdad (4), podemos escribir:
número natural k entre 1 y n, y veamos que la k-ésima
Fk (MA) = Fk (M)A = Fk (In )A = Fk (A) = Fk (B).
matriz fila del producto MA es igual a la k-ésima matriz
fila de la matriz B: Fk (MA) = Fk (B).
En el segundo caso, supongamos que la transfor-
En lo que sigue, haremos uso de esta igualdad:
Fk (A) = Fk (In )A,
mación elemental es de tipo ii, digamos Fk ← λFk
(4)
la cual es consecuencia de aplicar el resultado del § 137
(cf. p. 139) a la igualdad In A = A (cf. ejercicio II.2.7,
para algún número λ ≠ 0. Entonces: Fk (B) = λ Fk (A)
y Fk (M) = λ Fk (In ). De nuevo de acuerdo con el resultado del § 137 y con la igualdad (4), deducimos:
p. 147).
Al ejecutar la transformación elemental en la ma-
Fk (MA) = Fk (M)A = λ Fk (In )A = λ Fk (A) = Fk (B).
triz A, hay dos posibilidades para su k-ésima fila: que
Si la transformación elemental fuera de cualquiera de
permanezca inalterada o que cambie.
los otros dos tipos, la prueba sería análoga.
Dada una matriz de n filas, se obtiene el mismo resultado llevando a cabo
una transformación elemental que multiplicando, por la izquierda, por la
matriz elemental de orden n asociada a la transformación elemental.
El producto de las matrices
elementales asociadas a
transformaciones elementales
inversas es la matriz
identidad
157
Si multiplicamos dos matrices elementales del mismo orden aso-
ciadas a transformaciones elementales inversas, el producto es la matriz
identidad correspondiente. Más en concreto, si M es la matriz elemental
de orden n asociada a una transformación elemental, y M es la matriz elemental del mismo orden asociada a la transformación elemental inversa,
entonces: MM = M M = In .
A modo de ejemplo, las transformaciones elementales F1 ← F1 + 3F3
y F1 ← F1 − 3F3 son inversas una de la otra. Sus matrices elementales de
II.3. TRANSFORMACIONES ELEMENTALES DE UNA MATRIZ
orden 3 son, respectivamente:
⎛
⎞
1 0 3
⎜
⎟
M = ⎝0 1 0⎠
0 0 1
⎛
y
1
⎜
M = ⎝ 0
0
⎞
−3
⎟
0⎠.
1
0
1
0
Si las multiplicamos, obtenemos la matriz identidad
⎛
⎞⎛
⎞ ⎛
1 0 3
1 0 −3
1
⎜
⎟⎜
⎟ ⎜
0⎠ = ⎝0
MM = ⎝ 0 1 0 ⎠ ⎝ 0 1
0 0 1
0 0
1
0
I3 :
0
1
0
⎞
0
⎟
0 ⎠ = I3 ,
1
y lo mismo en el otro orden: M M = I3 .
En el caso general, esta propiedad es consecuencia de la probada en el
§ 156. El producto MM coincide con la aplicación, a la matriz M , de la
transformación elemental de matriz elemental asociada M. Pero esta transformación elemental es inversa de la que tiene a M como matriz elemental
asociada, luego devuelve esta matriz M a la matriz identidad In . Es decir: MM = In . Análogamente se probaría la otra igualdad.
Ejercicios II.3
1
Consideremos esta matriz:
1 1
A=
.
0 2
Se pide:
a)
Aplicando transformaciones elementales sucesi-
vas a la matriz A, obtener la matriz identidad I2 .
b)
e)
maciones elementales inversas de las transformaciones
obtenidas en el primer apartado; el producto —en un
orden adecuado— de las matrices elementales de orden 3 de estas transformaciones elementales inversas
proporciona lo que se pide.)
Aplicar las mismas transformaciones elementa-
les obtenidas en el apartado anterior, y en el mismo
2
1
⎜
A=⎝ 2
−1
Denotando por B la matriz que resulta en el
apartado anterior, efectuar los productos AB y BA.
d)
Calcular las matrices elementales (de orden 3) de
las transformaciones obtenidas en el primer apartado,
y multiplicarlas en orden (si M1 es la matriz elemental
de la primera transformación, y M2 es la de la segunda,
nos referimos a multiplicarlas en el orden M2 M1 , y de
Se considera la matriz:
⎛
orden, a la matriz identidad I2 .
c)
Escribir la matriz A como un producto de ma-
trices elementales. (Indicación: Escribir las transfor-
a)
2
2
−2
⎞
0
⎟
1⎠.
1
Obtener, a partir de la matriz A, la matriz identi-
dad I3 mediante la aplicación de transformaciones elementales sucesivas.
b)
Ejecutar las transformaciones obtenidas en el
la misma manera si hay más transformaciones). ¿Qué
apartado anterior, y en el mismo orden, en la matriz
matriz se obtiene?
identidad I3 . Multiplicar la matriz resultante por A.
II. MATRICES
II.4 RANGO DE UNA MATRIZ
En esta sección, introducimos el concepto de rango de una matriz y vemos
algunas de sus propiedades. Asimismo, lo relacionamos con los sistemas de
ecuaciones lineales.
1. Definición de rango de una matriz
Este apartado presenta la definición de rango de una matriz. Ello requiere
que recordemos, aun sucintamente, las matrices escalonadas, ya vistas con
detalle en el Capítulo I.
De nuevo las matrices
escalonadas
158
Empezamos recordando que una fila no nula de una matriz tiene k
ceros iniciales si los primeros k términos de la fila son nulos pero el término
(k + 1)-ésimo no lo es. Con ello, una matriz escalonada es una matriz que
cumple lo siguiente: o bien es nula, o bien sus filas no nulas son las primeras, y cada una de ellas, salvo la primera, tiene más ceros iniciales que la
precedente. En una matriz escalonada, el primer término no nulo de cada
fila recibe el nombre de pivote.
Por ejemplo, consideremos estas tres matrices:
⎛
−1
⎜
⎜ 0
⎜
⎜ 0
⎝
0
0
3
0
0
⎞
2
⎟
−3 ⎟
⎟,
7⎟
⎠
0
0
0
1
0
−2
0
1/2
4
⎛
y
1
⎜
−1
⎝
0
2
0
−2
−1
−2
3
⎞
−1
⎟
2⎠.
−1
(5)
Las dos primeras son escalonadas: en ambas, las filas no nulas son las primeras (la segunda matriz, de hecho, no tiene filas nulas), y el número de
ceros iniciales en estas filas no nulas es creciente según las leemos en su
orden habitual de arriba abajo (verbigracia, en la segunda matriz pasamos
de un cero inicial en la primera fila a tres en la segunda); además, como es
costumbre, las hemos escrito remarcando los pivotes: apreciamos que cada
fila no nula tiene uno y solo uno (el primer término no nulo), y que la fila
nula (de la primera matriz) no tiene pivote. La tercera matriz escrita no es
escalonada: sus filas primera y segunda tienen ambas el mismo número de
ceros iniciales (en este caso, ninguno).
En el capítulo citado, también aprendimos que a partir de cualquier matriz es posible obtener una matriz escalonada mediante la aplicación de
transformaciones elementales sucesivas. De la matriz escalonada resultante
se dice que es una forma escalonada de la matriz original. También vimos
II.4. RANGO DE UNA MATRIZ
un procedimiento para obtener una forma escalonada de cualquier matriz
(o, como también se dice, para escalonar cualquier matriz). A modo de
recordatorio, escalonamos la tercera de las matrices del párrafo anterior:
⎛
1
⎜
⎝ −1
0
2
0
−2
−1
−2
3
⎞
⎛
−1
1
⎟ F2 ←F2 +F1 ⎜
2 ⎠ →
⎝0
−1
0
⎛
1
⎜
→
⎝0
0
F3 ←F3 +F2
2
2
−2
2
2
0
⎞
−1
⎟
1⎠
−1
−1
−3
3
−1
−3
0
⎞
−1
⎟
1⎠.
0
Vemos que obtenemos una matriz escalonada con dos pivotes.
Rango de una matriz
En general, la forma escalonada de una matriz no es única (de he-
159
cho, salvo que sea nula, toda matriz admite infinitas formas escalonadas).
Sin embargo, dada una matriz, sí acontece que todas sus formas escalonadas tienen el mismo número de pivotes (cf. § 99, p. 101). A este número se
le denomina rango de la matriz. Si la matriz se denota por A, su rango se
designa así: rango A.
El rango de una matriz es, pues, el número de pivotes de cualquiera de
sus formas escalonadas. Dado que en toda matriz escalonada hay exactamente un pivote por cada fila no nula y viceversa, el rango de una matriz
Definición alternativa
también puede definirse como el número de filas no nulas de cualquiera de
sus formas escalonadas.
A modo de ejemplo, calculemos el rango de esta matriz:
⎛
1
⎜
A = ⎝ −1
−1
2
1
4
⎞
−2
⎟
3⎠.
0
Para calcular el rango de una matriz, basta escalonarla y contar los pivotes;
escalonemos, pues, la matriz A:
⎛
1
⎜
A = ⎝ −1
−1
2
1
4
⎛
⎞
F2 ←F2 +F1
1
−2
⎟ F3 ←F3 +F1 ⎜
3 ⎠ →
⎝ 0
0
0
2
3
6
⎛
⎞
−2
1
⎟ F3 ←F3 −2F2 ⎜
1 ⎠ →
⎝0
0
−2
2
3
0
⎞
−2
⎟
1 ⎠ = A .
−4
La matriz escalonada A tiene tres pivotes, luego: rango A = 3. Nótese que
tres es a su vez la cantidad de filas no nulas de la forma escalonada A .
Más ejemplos
160
¿Cuál es el rango de las tres matrices escritas en (5) (cf. p. 158)? Las
dos primeras ya son escalonadas, así que nos limitamos a contar sus pivotes
II. MATRICES
(o sus filas no nulas):
⎛
−1 0
⎜
⎜ 0 3
rango ⎜
⎜ 0 0
⎝
0 0
⎞
2
⎟
−3 ⎟
⎟=3 y
7⎟
⎠
0
rango
0
0
1
0
−2
0
1/2
4
= 2.
Por el contrario, la tercera matriz escrita en (5) no es escalonada, aunque la
escalonamos en el § 158; la forma escalonada que obtuvimos para ella tiene
dos pivotes (o dos filas no nulas), con lo que podemos escribir:
⎛
⎞
1
2 −1 −1
⎜
⎟
0 −2
2 ⎠ = 2.
rango ⎝ −1
0 −2
3 −1
Nota bene
Para calcular el rango de una matriz que ya es escalonada, directa-
mente se cuentan sus pivotes (o sus filas no nulas).
2. Propiedades del rango de una matriz
Vemos ahora las propiedades más importantes del rango. Definimos también lo que se entiende por matriz de rango máximo, y vemos algunas propiedades de las matrices de este tipo que son cuadradas.
Rango de una matriz nula
161
Como una matriz nula es escalonada y no tiene pivotes, el rango de
una matriz nula es igual a 0; es decir: rango O = 0. Por ejemplo:
⎛
⎞
0 0
0 0 0
⎜
⎟
rango
= 0 y rango ⎝ 0 0 ⎠ = 0.
0 0 0
0 0
Entre las matrices que son escalonadas, solamente las nulas no tienen pivotes.
Recíprocamente, si una matriz tiene rango igual a 0, entonces es necesariamente una matriz nula.
En definitiva, afirmar que una matriz tiene rango igual a 0 es lo mismo
que afirmar que la matriz es nula. En símbolos, si A es una matriz, podemos
El signo ‘⇐⇒’ es el signo de
equivalencia (cf. nota p. 168).
Relación entre el rango y el
número de filas y el de
columnas
En símbolos, si una matriz A
es de orden (n, m), entonces:
rango A n y rango A m.
escribir:
rango A = 0 ⇐⇒ A = O.
162
Vimos en el Capítulo I (cf. § 65, p. 70) que el número de pivotes de
una matriz escalonada es menor o igual que el número de filas y menor o
igual que el número de columnas. De acuerdo con ello:
El rango de una matriz es menor o igual que el número de sus filas y menor
o igual que el número de sus columnas.
II.4. RANGO DE UNA MATRIZ
Matriz de rango máximo
Diremos que una matriz tiene rango máximo cuando su rango coin-
163
cide con el número de filas o con el número de columnas (o con ambos si
la matriz es cuadrada). En otras palabras, diremos que una matriz A de
orden (n, m) tiene rango máximo si rango A = n o rango A = m.
Por ejemplo, de las tres matrices escritas en (5) (cf. p. 158) —cuyos rangos están consignados en el § 160—, las dos primeras tienen rango máximo,
pero la tercera no (el de esta es igual a 2, que no coincide ni con el número
de filas ni con el de columnas). La matriz A vista en el § 159 también tiene
rango máximo; para esta, que es cuadrada, el rango coincide tanto con el
número de filas como con el de columnas.
Nótese que, de acuerdo con el resultado del § 162, afirmar que una maHablamos de mínimo de dos
números. . .
El rango no varía al aplicar
transformaciones elementales
(por filas)
triz A de orden (n, m) tiene rango máximo es tanto como afirmar que el
rango de A es igual al mínimo de los números n y m. (El mínimo de una
lista finita de números se define como el menor de los números de la lista.)
Las transformaciones elementales conservan el rango; es decir, si
164
aplicamos una transformación elemental a una matriz, el rango de la matriz
antes y después de la transformación elemental es el mismo.
Para verlo, consideremos dos matrices A y B tales
tal inversa (cf. § 150, p. 150) de la que originalmente
que B puede obtenerse de A mediante una transforma-
transforma A en B, para después aplicar las transfor-
ción elemental, y denotemos por A una forma escalo-
maciones elementales sucesivas que llevan A a A . Al
nada de A. Acontece que la matriz A también es una
ser la matriz A una forma escalonada tanto de la ma-
forma escalonada de la matriz B: basta llevar la ma-
triz A como de la matriz B, estas dos matrices tienen el
triz B hasta la matriz A por la transformación elemen-
mismo rango.
Por ejemplo, las tres matrices que escribimos en el § 159:
⎛
1
⎜
A = ⎝ −1
−1
2
1
4
⎞
−2
⎟
3⎠,
0
⎛
1
⎜
⎝0
0
2
3
6
⎞
−2
⎟
1⎠
−2
⎛
y
1
⎜
A = ⎝ 0
0
2
3
0
⎞
−2
⎟
1⎠,
−4
tienen el mismo rango —igual a 3—, pues puede obtenerse cada una de las
otras mediante la aplicación de transformaciones elementales sucesivas. De
hecho, la tercera es una forma escalonada de las otras dos.
Si aplicamos una transformación elemental (por filas) a una matriz, la matriz resultante tiene el mismo rango que la original.
II. MATRICES
Rango de una matriz
identidad
rango In = n
165
Una matriz identidad es escalonada y tiene tantos pivotes como
columnas (o tantos como filas, pues es cuadrada): es, pues, una matriz de
rango máximo. Más en concreto, el rango de la matriz identidad In es igual
a n. Por ejemplo:
rango I2 = rango
1
0
0
1
⎛
= 2,
y
1
⎜
rango I3 = rango ⎝ 0
0
0
1
0
⎞
0
⎟
0 ⎠ = 3.
1
El rango de la matriz identidad In es igual a n.
Rango de una matriz
elemental
166
Recordemos que una matriz elemental se obtiene tras aplicar a
una matriz identidad una transformación elemental (cf. § 153, p. 152). De
acuerdo con el resultado del § 164, el rango de una matriz elemental es
igual al de la matriz identidad de la que proviene (en particular, también es
máximo); es decir: el rango de una matriz elemental de orden n es igual a n.
Verbigracia, las siguientes matrices elementales de orden 3:
⎛
1
⎜
⎝0
0
0
0
1
⎞
0
⎟
1⎠,
0
⎛
1
⎜
⎝0
0
0
3
0
⎞
0
⎟
0⎠
1
⎛
y
1
⎜
⎝0
0
2
1
0
⎞
0
⎟
0⎠
1
(obtenidas tras aplicar a la matriz identidad I3 las transformaciones elementales F2 ↔ F3 , F2 ← 3F2 y F1 ← F1 +2F2, respectivamente), tienen todas rango
igual a 3.
El rango de cualquier matriz elemental de orden n es igual a n.
De nuevo las matrices
escalonadas reducidas
167
En este punto, y antes de pasar a ver la siguiente propiedad del ran-
go, conviene recordar las matrices escalonadas reducidas, que vimos también con detalle en el Capítulo I.
Una matriz escalonada reducida es una matriz escalonada con estas dos
características adicionales: todos sus pivotes (si los tiene) son unitarios (es
decir, iguales a 1), y en cada columna donde hay un pivote es este el único
término no nulo.
Entre estas tres matrices escalonadas:
⎛
⎞
⎛
⎞
1 −2 0 0
1 0
⎜
⎟
⎜
⎟
0 1 0⎠, ⎝0 1⎠
⎝0
0
0 0 1
0 0
⎛
y
1
⎜
⎝0
0
2
3
0
⎞
−2
⎟
1⎠,
−4
(6)
II.4. RANGO DE UNA MATRIZ
son escalonadas reducidas las dos primeras: sus pivotes son unitarios y
las columnas de estos tienen nulos los otros términos; por el contrario, la
tercera no lo es: no todos sus pivotes son unitarios, por ejemplo.
Nota bene
Para que una matriz escalonada sea escalonada reducida, a una co-
lumna que no tiene pivote no se le exige que sus términos no nulos sean unitarios. Al respecto de esto, véase, verbigracia, la segunda columna de la primera
matriz de las escritas en (6), que es escalonada reducida.
En el capítulo citado, también vimos un procedimiento que permite obtener una matriz escalonada reducida a partir de una matriz dada. De la
matriz obtenida decimos que es la forma escalonada reducida de la matriz
original. Y decimos la, y no una, porque acontece que dada una matriz su
forma escalonada reducida es única (cf. § 100, p. 102). El procedimiento
del que hablamos para llegar a la forma escalonada reducida de una matriz
pasa, en primer lugar, por escribir una forma escalonada de la matriz dada;
en segundo lugar, a partir de ella se hacen unitarios los pivotes, y finalmente
se hacen nulos los restantes términos de las columnas de los pivotes. Por
ejemplo, para la matriz A del § 159 (cf. p. 159), podemos calcular la forma
escalonada reducida a partir de la forma escalonada A que obtuvimos para
Esta matriz A es justamente
la tercera de las matrices escritas en (6).
ella en ese parágrafo:
⎛
1
⎜
A = ⎝0
0
2
3
0
⎛
⎞ F ←(1/3)F
2
2
−2
1
⎟ F3 ←(−1/4)F3 ⎜
1 ⎠ →
⎝ 0
−4
0
⎛
1
F1 ←F1 −2F2
⎜
→
⎝ 0
0
F1 ←F1 +(8/3)F3
⎛
1
F2 ←F2 −(1/3)F3 ⎜
→
⎝ 0
0
2
1
0
⎞
−2
⎟
1/3 ⎠
1
0
1
0
⎞
−8/3
⎟
1/3 ⎠
1
0
1
0
⎞
0
⎟
0 ⎠ = A .
1
La matriz A obtenida es la forma escalonada reducida de la matriz A.
Nótese que coincide con la matriz identidad I3 .
Matrices cuadradas de rango
máximo
168
Una matriz cuadrada de rango máximo (es decir, con rango igual
tanto al número de filas como al de columnas) tiene por matriz escalonada
reducida la matriz identidad de su mismo orden. En otras palabras: a partir
de una matriz cuadrada de rango máximo se puede obtener, mediante la
aplicación de transformaciones elementales sucesivas, la matriz identidad.
II. MATRICES
Más en concreto, si A es una matriz cuadrada de orden n y de rango igual
a n, entonces la forma escalonada reducida de A es la matriz identidad In .
En efecto: como el rango de la matriz A es igual a n, todas sus formas
escalonadas, incluida la reducida, tienen n pivotes. Pero la única matriz,
cuadrada de orden n, que es escalonada reducida y presenta n pivotes es
justamente la matriz identidad In (pueden consultarse los detalles de esta
última afirmación en el § 77, p. 80).
Por ejemplo, en el § 159 (cf. p. 159) trabajamos con esta matriz:
⎛
⎞
1 2 −2
⎜
⎟
3⎠.
A = ⎝ −1 1
−1 4
0
Es cuadrada de orden 3 y su rango es igual a 3. En el § 167, obtuvimos su
forma escalonada reducida: precisamente la matriz identidad I3 .
Por otra parte, si una matriz cuadrada de orden n tiene por forma escalonada reducida la matriz identidad In , entonces su rango es igual a n (pues
la matriz In tiene n pivotes). En definitiva, concluimos:
Dada una matriz cuadrada de orden n, afirmar que su rango es igual a n
es equivalente a afirmar que su forma escalonada reducida es la matriz
identidad In .
Matrices cuadradas de rango
máximo (continuación)
169
Las matrices cuadradas de rango máximo tienen otra propiedad in-
teresante: se pueden escribir como un producto de matrices elementales.
Consideremos una matriz A, cuadrada de orden n,
con rango igual a n. Existe una lista de transformacio-
miten recuperar la matriz A. Si M1 , M2 , . . . , Mp es la
lista correspondiente de las matrices elementales de
nes elementales que, aplicadas sucesivamente a la ma-
orden n asociadas a estas transformaciones elemen-
triz A, nos llevan a la matriz In (cf. § 168). La lista de
tales inversas, de acuerdo con el resultado del § 156
las inversas de estas transformaciones, leída al revés,
(cf. p. 155), podemos escribir: Mp Mp−1 · · · M1 In = A;
es una lista de transformaciones elementales que, apli-
es decir: A = Mp Mp−1 · · · M1 . La matriz A es efectiva-
cadas sucesivamente a la matriz identidad In , nos per-
mente igual a un producto de matrices elementales.
Veamos un ejemplo de este resultado. Busquemos expresar como un
producto de matrices elementales la siguiente matriz cuadrada de orden 2:
1 2
A=
.
−1 3
Lo hacemos siguiendo el esquema sugerido por la demostración anterior.
II.4. RANGO DE UNA MATRIZ
En primer lugar, la escalonamos para confirmar que su rango es máximo:
1 2 F2 ←F2 +F1
1 2
A=
→
= A ;
−1 3
0 5
la matriz escalonada A presenta dos pivotes, luego: rango A = 2. Calculemos ahora la forma escalonada reducida de la matriz A; seguimos con transformaciones elementales a partir de su forma escalonada A :
1 2 F2 ←(1/5)F2
1 2 F1 ←F1 −2F2
1 0
A =
→
→
= A .
0 5
0 1
0 1
Vemos que la forma escalonada reducida de A es precisamente la matriz
identidad I2 : A = I2 , lo que a su vez nos confirma el resultado del § 168.
Llegados a este punto, si nos fijamos, hemos obtenido la matriz I2 aplicando a la matriz A las siguientes transformaciones elementales:
F2 ← F2 + F1 ,
F2 ← (1/5)F2
y
F1 ← F1 − 2F2 ,
y en este mismo orden. Podemos recuperar la matriz A a partir de la matriz I2 haciendo uso de las transformaciones elementales inversas de las
anteriores, pero aplicadas a su vez en orden contrario al escrito. Es decir, aplicamos a la matriz I2 , en primer lugar, la transformación elemental F1 ← F1 + 2F2 , que es la inversa de F1 ← F1 − 2F2 ; en segundo lugar,
la transformación elemental F2 ← 5F2 , inversa a su vez de F2 ← (1/5)F2;
y, finalmente, la transformación F2 ← F2 − F1 , inversa de F2 ← F2 + F1 . Lo
comprobamos:
1 0 F1 ←F1 +2F2
1
I2 =
→
0 1
0
2
1
F2 ←5F2
→
1
0
2
5
F2 ←F2 −F1
→
1
−1
2
3
= A.
Para terminar, escribamos las matrices elementales (de orden 2) asociadas a las transformaciones elementales que acabamos de aplicar a la matriz I2 : F1 ← F1 + 2F2 , F2 ← 5F2 y F2 ← F2 − F1 ; tales matrices elementales
son, respectivamente, estas:
1 2
1
M1 =
, M2 =
0 1
0
0
5
y
M3 =
1
−1
0
1
.
Sabemos que aplicar una transformación elemental es lo mismo que multiplicar, por la izquierda, por su matriz elemental asociada (cf. § 156, p. 155),
luego aplicar sucesivamente a la matriz I2 las tres transformaciones elementales anteriores es equivalente a multiplicar por la izquierda esta matriz,
sucesivamente también, por las matrices elementales M1 , M2 y M3 . Como el
II. MATRICES
resultado de lo primero es la matriz A, también es esta matriz el resultado
de lo segundo; es decir:
A = M3 M2 M1 In ,
de donde: A = M3 M2 M1 .
Con ello ya tenemos escrita la matriz A como un producto de matrices elementales. Animamos al lector a realizar la comprobación:
1 0
1 0
1 2
1 2
=
= A.
M3 M2 M1 =
−1 1
0 5
0 1
−1 3
La matriz A no es necesariamente cuadrada, ni necesariamente de rango máximo.
La matriz T resulta ser cuadrada de rango máximo (véase,
más adelante, § 171).
Una propiedad del rango de
un producto de matrices
Nota
Exactamente con el mismo argumento que se ha empleado en este pará-
grafo, podría demostrarse este otro resultado más general: si A es una matriz
cualquiera, y A es su forma escalonada reducida, entonces la matriz A puede
escribirse de la forma: A = T A , donde T es una matriz cuadrada que a su vez
se puede escribir como un producto de matrices elementales.
170
¿Hay alguna relación entre el rango de un producto de matrices y el
rango de las matrices que se multiplican? Podemos dar una respuesta afirmativa aquí mismo en un caso particular: cuando la primera de las matrices
es cuadrada y de rango máximo.
En concreto, acontece que el rango de una matriz no varía cuando se la
multiplica, por la izquierda, por una matriz cuadrada de rango máximo.
Consideremos una matriz A, cuadrada de orden n y
con rango igual a n, y una matriz B de n filas, de forma
aplicar a la matriz B la transformación elemental cuya
matriz elemental asociada es M1 ; como la aplicación
que el producto AB está definido. De acuerdo con lo
de una transformación elemental mantiene el rango
probado en el § 169, podemos encontrar una lista de
(cf. § 164, p. 161), el rango del producto M1 B es el
matrices elementales M1 , M2 , . . . , Mp , de orden n, tales
mismo que el de la matriz B. El mismo argumento,
que A = Mp Mp−1 · · · M1 . Así:
aplicado a los sucesivos productos, por la izquierda,
por las matrices elementales M2 , . . . , Mp , nos permite
AB = Mp Mp−1 · · · M1 B.
concluir que el rango del producto AB es finalmente el
Ahora bien, el producto M1 B es igual al resultado de
mismo que el de la matriz B.
Dada una matriz B cualquiera, si A es una matriz cuadrada de rango máximo tal que el producto AB está definido, entonces: rango(AB) = rango B.
El producto de matrices
cuadradas de rango máximo
171
Una consecuencia del resultado del § 170 es que el producto de
matrices cuadradas (del mismo orden, por supuesto) de rango máximo es, a
su vez, una matriz cuadrada de rango máximo.
II.4. RANGO DE UNA MATRIZ
En efecto, si A y B son dos matrices cuadradas del mismo orden y ambas
tienen rango máximo, entonces el producto AB está definido y su rango
coincide con el de B (§ 170), y por tanto es máximo. El lector puede apreciar
que este resultado se extiende sin dificultad al producto de más de dos
matrices.
El producto de matrices cuadradas de rango máximo (en tanto esté definido) es una matriz cuadrada de rango máximo. En particular, cualquier producto de matrices elementales del mismo orden es una matriz
cuadrada de rango máximo.
Otra propiedad del rango de
un producto de matrices
172
De nuevo con la ayuda del resultado del § 170, podemos deducir
otra propiedad del rango de un producto de matrices; a saber: el rango de
un producto de dos matrices es menor o igual que el rango de la primera de
las matrices.
De acuerdo con la nota del final del § 169, la ma-
cia de la fórmula del producto dado por filas, cf. § 137,
triz A se puede escribir así: A = T A , donde T es una
matriz cuadrada que es igual a un producto de matri-
p. 139). De acuerdo con ello, como la matriz A es escalonada reducida, y por tanto sus últimas filas son nulas,
ces elementales y A es la forma escalonada reducida
el producto A B tiene también nulas sus últimas filas,
de A. Por lo visto en el § 171, la matriz cuadrada T es de
y tiene de estas al menos tantas como la matriz A .
rango máximo, con lo que el producto, por la izquierda,
Cuando escalonemos la matriz A B, estas últimas filas
por ella no cambia el rango de una matriz. Es decir:
nulas seguirán siéndolo. De esta manera, tendremos
rango(AB) = rango(T A B) = rango(AB).
una forma escalonada de la matriz A B con una cantidad de filas no nulas menor o igual que la cantidad de
Ahora bien, en un producto de matrices, cada fila nula
filas no nulas de la matriz A . Es decir, el rango de A B
de la primera matriz nos lleva a que la fila correspondiente del producto también es nula (es una consecuen-
es menor o igual que el de A .
En conclusión: rango(AB) rango A.
Si A y B son dos matrices tales que el producto AB está definido, entonces: rango(AB) rango(A).
3. Rango y sistemas de ecuaciones lineales
Detallamos ahora la relación entre la discusión de un sistema de ecuaciones
lineales y el rango de las matrices que se definen a partir del sistema.
173
La caracterización de la discusión de un sistema de ecuaciones li-
neales que hemos visto en el Capítulo I, formulada en términos de los
II. MATRICES
pivotes de una forma escalonada de la matriz ampliada del sistema, puede
reformularse fácilmente en términos de rangos. El resultado de tal reformulación es el llamado teorema de ROUCHÉ–FROBENIUS.
Consideremos un sistema de ecuaciones lineales, con matriz de coefi Sabemos que la matriz A
se forma adjuncientes A y matriz ampliada A.
tando a la matriz A una columna más, con los términos independientes del
una forma escalonada de la matriz ampliada A;
sistema. Denotemos por A
su última columna, la matriz que resulta, desi eliminamos en la matriz A
notémosla por A, es una forma escalonada de la matriz de coeficientes A.
no tiene un pivote en su última
Sabemos que si la matriz escalonada A
columna, entonces el sistema admite solución (es compatible, bien determinado, bien indeterminado). También tenemos noticia del recíproco: si el
no presenta un pivote en su
sistema admite solución, entonces la matriz A
última columna (si lo tuviera, sería incompatible). Según son las matrices A
no tiene un pivote en su última columna es
y A , afirmar que la matriz A
lo mismo que afirmar que ambas matrices tienen el mismo número de pi y A tienen el mismo
votes, y esto es tanto como afirmar que las matrices A
rango. En definitiva: afirmar que el sistema admite solución es equivalente
a afirmar que el rango de su matriz de coeficientes y el rango de su matriz
ampliada coinciden.
Acabamos de demostrar el siguiente resultado:
Teorema de ROUCHÉ–FROBENIUS
Teorema 1
Una condición necesaria y suficiente para que un sistema
de ecuaciones lineales admita solución es que su matriz de coeficientes y
su matriz ampliada tengan el mismo rango.
Nota
El signo para indicar equivalencia es: ‘⇐⇒’.
Podemos escribir:
el sistema admite solución
rango A = rango A.
Discusión de un sistema en
términos de rangos
Una observación sobre el lenguaje. Afirmar que un enunciado es condición
necesaria y suficiente para otro enunciado significa que ambos enunciados son
equivalentes; es decir: si es verdadero el primero, entonces es verdadero el
segundo, y si es verdadero el segundo, entonces es verdadero el primero.
En el teorema anterior, estamos afirmando, pues, dos condiciones simultáneamente. Una: si un sistema admite solución, entonces el rango de su matriz
de coeficientes y el rango de su matriz ampliada coinciden. Dos: si el rango de
la matriz de coeficientes y el rango de la matriz ampliada coinciden, entonces
el sistema admite solución. Una condición es recíproca de la otra.
174
De acuerdo con el teorema de Rouché–Frobenius, la discusión de
un sistema de ecuaciones lineales de matriz de coeficientes A y matriz am puede formularse así:
pliada A
II.4. RANGO DE UNA MATRIZ
y este valor común del rango es igual al número
• Si rango A = rango A
de incógnitas del sistema, entonces el sistema es compatible determinado.
y este valor común del rango es menor que el
• Si rango A = rango A
número de incógnitas del sistema, entonces el sistema es compatible
indeterminado.
entonces el sistema es incompatible.
• Si rango A < rango A,
Nota bene
No es posible el caso en el que el rango de la matriz de coeficientes A
sea mayor que el rango de la matriz ampliada A.
Cuando la matriz de
coeficientes tiene rango igual
al número de ecuaciones
175
Vale la pena que analicemos qué ocurre en un sistema de ecuaciones
lineales cuando su matriz de coeficientes tiene rango máximo. Distinguiremos para ello dos casos, que no son excluyentes: que el rango sea máximo
por coincidir con el número de filas de la matriz (y por tanto con el número
de ecuaciones del sistema), o que sea máximo por coincidir con el número
de columnas de la matriz (y por ende con el número de incógnitas del sistema). Examinamos ahora el primero.
Consideremos entonces un sistema de n ecuaciones lineales con m incógnitas, y —como es habitual— denotemos por A su matriz de coeficientes
su matriz ampliada. La matriz A es de orden (n, m) y la matriz A
es
y por A
de orden (n, m + 1) (recordemos que la segunda se construye adjuntando
a la primera una columna más, con los términos independientes). Supon-
Como la matriz A es de orden (n, m), si rango A = n,
entonces n m (cf. § 162,
p. 160).
gamos que la matriz A tiene rango igual al número de filas (o lo que es lo
mismo: rango igual al número de ecuaciones); esto es: rango A = n.
también es igual a n. En efecto. El
Acontece que el rango de la matriz A
n, pues tiene n
rango de esta matriz no puede ser mayor que n: rango A
n, pues sus primeras m columfilas. Y sí es al menos igual a n: rango A
nas, siendo m n, son las mismas que las m columnas de A, con lo que de
ellas saldrá el mismo número de pivotes (n en total).
y de acuerdo con la
Al ser iguales los rangos de las matrices A y A,
discusión de los sistemas de ecuaciones lineales en términos de rangos
(cf. § 174), el sistema admite solución, y admite una (compatible determinado) o infinitas (compatible indeterminado) según sea el valor común del
rango igual o menor, respectivamente, que el número de incógnitas (o lo que
es equivalente: según sea n = m o n < m, respectivamente). Pero lo más
llamativo es que todas estas conclusiones se verifican cualesquiera que sean
los términos independientes del sistema.
Es decir: un sistema de ecuaciones lineales cuya matriz de coeficien-
II. MATRICES
tes tiene rango igual al número de ecuaciones admite solución, y ello cualesquiera que sean sus términos independientes. Y será una única solución
o serán infinitas según sea el rango igual o menor, respectivamente, que el
número de incógnitas. En particular, la cantidad de soluciones no depende
de los términos independientes.
El recíproco de un enunciado
del tipo “si P , entonces Q”
es el enunciado “si Q, entonces P ”, donde P y Q son afirmaciones.
También se cumple el recíproco: si un sistema de ecuaciones lineales admite solución cualesquiera que sean los términos independientes, entonces
el rango de su matriz de coeficientes es necesariamente igual al número de
ecuaciones del sistema.
Consideremos un sistema de n ecuaciones lineales
único término no nulo procedente de ella sería el de
y m incógnitas que admite solución para cualquier elec-
posición (r + 1, m + 1). Con ello formaríamos una ma-
ción de los términos independientes. Denotemos por A
su matriz de coeficientes, y por A una forma escalo-
triz de orden (n, m+1), denotémosla por B, que tendría
un pivote en su última columna, y que sería por tanto
nada de A; ambas matrices son, pues, de orden (n, m).
la matriz ampliada de un sistema incompatible. Pero
Supongamos que el rango de A, que denotare-
el sistema cuya matriz ampliada es B sería equivalente
mos por r , no es igual al número de filas (es decir,
al original para alguna elección en este de los térmi-
suponemos que r es menor que n). Entonces la ma-
nos independientes, lo que va en contra de lo supuesto
triz A tendría n − r filas nulas (por supuesto, las úl-
desde el principio: que el sistema admite solución cua-
timas, pues es escalonada), y podríamos adjuntar a la
lesquiera que sean los términos independientes.
matriz A , a su derecha, una columna de este tipo: el
Debemos suponer, pues, que rango A = n; esto es,
término que acompaña a la primera de las filas nulas
es distinto de 0 y todos los demás son nulos; es de-
que la matriz de coeficientes del sistema original tiene
rango igual al número de filas, o lo que es lo mismo:
cir, podríamos adjuntar una columna de forma que el
rango igual al número de ecuaciones.
Para los clásicos, reductio ad
absurdum.
Nota bene
Hemos justificado el resultado anterior por reducción al absurdo:
hemos supuesto que es falso (al suponer que el rango de A es distinto del
número de filas) y hemos llegado a una contradicción (que el sistema original
no tiene solución para alguna elección de los términos independientes). Este
método de demostración es muy habitual.
Reuniendo en una las dos afirmaciones que hemos probado en este parágrafo (una recíproca de la otra), podemos en definitiva afirmar lo siguiente:
Una condición necesaria y suficiente para que un sistema de ecuaciones
lineales admita solución para cualquier elección de los términos independientes es que el rango de la matriz de coeficientes sea igual al número de
ecuaciones.
II.4. RANGO DE UNA MATRIZ
Un ejemplo
176
A modo de ejemplo de lo afirmado en el § 175, discutamos, según
los valores de los parámetros a, b y c, el siguiente sistema de ecuaciones
lineales:
⎧
⎪
x1 + 2x2 − 2x3 = a
⎪
⎪
⎨
−x1 + x2 + 3x3 = b
⎪
⎪
⎪
⎩ −x + 4x
= c.
1
2
(7)
La matriz de coeficientes del sistema es
⎛
⎞
1 2 −2
⎜
⎟
3⎠,
A = ⎝ −1 1
−1 4
0
matriz cuyo rango calculamos en el § 159 (cf. p. 159): rango A = 3. Como
este rango coincide con el número de ecuaciones del sistema, de acuerdo
con el resultado del § 175, el sistema admite solución para cualquier elección
de los términos independientes, es decir, cualesquiera que sean a, b y c. Por
otra parte, como el rango también coincide con el número de incógnitas, el
sistema es de solución única. En resumen: independientemente del valor de
los parámetros a, b y c, el sistema (7) es compatible determinado.
Y ya que estamos en ello, para cada valor de a, b y c, ¿cuál es la única
solución del sistema (7)? En el citado § 159 y en el § 167 (cf. p. 162), calculamos una forma escalonada y la forma escalonada reducida, respectivamente, de la matriz A. Aplicamos estas transformaciones elementales:
F2 ← F 2 + F1 ,
F3 ← F3 + F1 ,
F3 ← F3 − 2F2 ,
1
1
8
1
F2 , F3 ← − F3 , F1 ← F1 − 2F2 , F1 ← F1 + F3 , F2 ← F2 − F3 ,
3
4
3
3
y en este mismo orden. Aplicándolas sucesivamente a la matriz ampliada
F2 ←
del sistema:
obtenemos:
⎛
1
⎜
⎝ −1
−1
2
1
4
−2
3
0
⎞
a
⎟
b⎠,
c
⎛
⎞
3a + 2b − 2c
⎟
3
⎟
⎟
3a + 2b + c ⎟
⎟.
1 0
⎟
12
⎟
⎟
a + 2b − c ⎠
0 1
4
Así, fijados a, b y c, la solución única del sistema de ecuaciones lineales (7)
⎜1
⎜
⎜
⎜
⎜0
⎜
⎜
⎜
⎝
0
es esta terna:
0
0
3a + 2b − 2c 3a + 2b + c a + 2b − c ,
,
.
3
12
4
II. MATRICES
Cuando la matriz de
coeficientes tiene rango igual
al número de incógnitas
177
Cuando la matriz de coeficientes de un sistema de ecuaciones linea-
les es tal que su rango coincide con el número de incógnitas del sistema,
entonces acontece que el sistema admite a lo más una solución.
En efecto. En principio, el sistema puede admitir o no solución. Pero si
la admite, según hemos visto en la discusión de los sistemas de ecuaciones
lineales en términos de rangos (cf. § 174), es porque el rango de su matriz de
coeficientes y el de su matriz ampliada coinciden; si este valor común del
rango es además igual al número de incógnitas, el sistema es compatible
determinado, esto es, de solución única. El sistema, efectivamente, o no
admite solución, o admite solo una.
También se verifica este otro resultado: si un sistema de ecuaciones
lineales admite una única solución (es compatible determinado), entonces
el rango de su matriz de coeficientes es igual al número de incógnitas.
De nuevo es una consecuencia del citado § 174: si el sistema admite
solución, el rango de la matriz de coeficientes y el de la matriz ampliada
son iguales; pero este valor común del rango no puede ser menor que el
número de incógnitas, porque en tal caso el sistema resultaría compatible
indeterminado. El rango de la matriz del sistema es, pues, igual al número
de incógnitas.
Cuando la matriz de
coeficientes tiene rango igual
al número de incógnitas:
sistemas homogéneos
178
Particularizadas a sistemas de ecuaciones lineales homogéneos, las
afirmaciones del § 177 no son más que una transcripción, en términos de
rangos, de lo que ya vimos sobre este tipo de sistemas en el § 96 (cf. p. 99).
En concreto, como los sistemas homogéneos tienen al menos una solución (la nula), se verifica lo siguiente: si su matriz de coeficientes tiene rango
igual al número de incógnitas, un sistema homogéneo admite solamente la
solución nula; y también: si un sistema homogéneo admite solamente la
solución nula, entonces el rango de su matriz de coeficientes coincide con
el número de incógnitas.
Ambos enunciados son recíprocos el uno del otro. En definitiva:
Una condición necesaria y suficiente para que un sistema de ecuaciones
lineales homogéneo admita solución única (la cual sería la nula) es que el
rango de su matriz de coeficientes sea igual al número de incógnitas del
sistema.
II.4. RANGO DE UNA MATRIZ
Ejercicios II.4
1
a)
b)
c)
d)
e)
f)
2
Calcular el rango de estas matrices:
1 1
1 1
y
;
1 0
1 1
0 0
1 0 0
y
;
0 0
0 0 0
1
1 2
y
;
2
⎛
⎞
⎛
⎞
1 0 0
0 0 1
⎜
⎟
⎜
⎟
⎝ 0 1 0 ⎠ y ⎝ 0 1 0 ⎠;
0 0 1
1 0 0
⎛
⎞
⎛
⎞
1 2
1
1 2
1
⎜
⎟
⎜
⎟
3⎠ y ⎝1 2
3 ⎠;
⎝1 2
1 2 −1
1 2 −2
⎛
⎞
⎛
⎞
0 1 0
0 1 0
⎜
⎟
⎜
⎟
⎜1 0 1⎟
⎜1 0 1⎟
⎜
⎟
⎜
⎟
⎜ 0 1 0 ⎟ y ⎜ 0 1 1 ⎟.
⎝
⎠
⎠
⎝
1 1 1
1 1 1
Entre las matrices del ejercicio anterior, ¿cuáles
tienen rango máximo? Para las que se encuentre que lo
tienen, escribir la forma escalonada reducida; ¿es posible hacerlo sin escalonar explícitamente la matriz?
6
Escribir como un producto de matrices elemen-
tales las siguientes matrices:
7
2
1
0
1
y
1/2
−1/2
0
1
.
Escribir como un producto de matrices elemen-
tales la siguiente matriz:
8
1
1
2
1
.
Se considera el siguiente sistema de ecuaciones
lineales, en el que a, p, q y r son parámetros:
⎧
⎪
x + 3y + 2z = p
⎪
⎪
⎨
−x
+ z=q
⎪
⎪
⎪
⎩ ax + 6y + 3z = r .
Se pide:
a)
determinar para qué valores de a se verifica esta
afirmación: el sistema de ecuaciones admite solución
cualesquiera que sean p, q y r ;
3
Si dos matrices del mismo orden tienen el mismo
rango, ¿es posible obtener una de la otra mediante la
aplicación de transformaciones elementales (por filas)
b)
discutir el sistema según los valores de los pará-
metros a, p, q y r .
sucesivas?
9
4
Calcular, según los valores del parámetro a, el
rango de estas matrices:
⎛
1
⎜
⎝1
1
2
2
2
⎞
1
⎟
3⎠
a
⎛
y
0
⎜
⎜1
⎜
⎜0
⎝
1
Siendo a y b dos parámetros, nos dan este sis-
tema de ecuaciones lineales homogéneo:
⎧
⎪
2x + 3y + 5z = 0
⎪
⎪
⎨
5y − z = 0
⎪
⎪
⎪
⎩ 2x + ay + bz = 0.
⎞
1
0
1
1
0
⎟
1⎟
⎟.
a⎟
⎠
1
Se pide:
5
Calcular, según los valores de los parámetros a
y b, el rango de estas matrices:
⎛
⎞
⎛
2 3
5
1
⎜
⎟
⎜
⎝ 0 5 −1 ⎠ y ⎝ −1
2 a
b
a
3
0
6
⎞
2
⎟
1⎠.
b
a)
calcular los valores de a y b para los que el sis-
tema admite solamente la solución nula;
b)
discutir el sistema según los valores de los pará-
metros a y b.
II. MATRICES
II.5 INVERSA DE UNA MATRIZ
CUADRADA
Dedicamos esta sección a presentar el importante concepto de inversa de
una matriz cuadrada. Además de la definición y las propiedades más importantes, veremos un método práctico para calcularla cuando existe, el
cual está basado en las transformaciones elementales.
1. Definición de inversa de una matriz cuadrada
La definición de inversa de una matriz trata de generalizar, en alguna forma,
la definición de inverso de un número. Vemos en este apartado los detalles.
Inversa de una matriz
cuadrada
179
Sabemos lo que es el inverso de un número: si a es un número no
nulo, su inverso es un número b tal que ab = ba = 1; este número b se
denota por 1/a, o también por a−1 . Por ejemplo, el inverso de 2 es 1/2, el
de −2/3 es −3/2, y el de 1 es él mismo. Y sabemos que cualquier número
distinto del número 0 admite inverso. Para matrices, al menos para matrices
cuadradas de cierto tipo, se puede proceder de manera similar y también
definir un inverso.
Una matriz cuadrada es matriz inversa de otra matriz cuadrada (del
mismo orden) si el producto de ambas, tanto en un orden como en el otro, es
igual a la matriz identidad. Más en concreto, dada una matriz A, cuadrada
de orden n, de una matriz B, también cuadrada de orden n, diremos es
matriz inversa (o simplemente inversa) de la matriz A si se verifica:
AB = BA = In .
Cuando una matriz cuadrada admite matriz inversa, se dice que es inverti-
Matriz invertible
ble.
Por ejemplo, consideremos estas dos matrices:
1 2
−1
2
A=
y B=
.
1 1
1 −1
Acontece que la segunda es matriz inversa de la primera, pues:
1 2
−1
2
1 0
AB =
=
= I2 ,
1 1
1 −1
0 1
y también se comprueba que BA = I2 . Pero podemos decir más: la matriz A
Las matrices A y B son inversas entre sí.
es, a su vez, matriz inversa de la matriz B, pues BA = AB = I2 . Las dos
matrices A y B son, pues, invertibles, y una es inversa de la otra.
II.5. INVERSA DE UNA MATRIZ CUADRADA
Otro ejemplo. Estudiemos si existe alguna matriz inversa para la matriz
1 1
C=
.
1 1
De existir, sería
una
matriz D que verificaría: CD = DC = I2 . Con la notación
habitual D = dij , la igualdad CD = I2 sería equivalente a:
o bien:
¡Ni d11 + d21 , ni d12 + d22,
pueden ser iguales, a la vez,
a 1 y a 0!
1
1
1
1
d11 + d21
d11 + d21
d11
d21
d12
d22
d12 + d22
d12 + d22
=
1
0
=
0
1
1
0
,
0
1
.
¡Pero esta última igualdad matricial no es posible! Debemos asumir, pues,
que la matriz C no admite matriz inversa: la matriz C no es invertible.
Y un ejemplo más: ¿es invertible una matriz cuadrada nula? No, y ello
cualquiera que sea el orden de la matriz, porque el producto por ella tiene
como resultado una matriz nula, de ninguna forma una matriz identidad.
Nótese lo siguiente: entre los números, solo el número 0 no admite inverso, pero la matriz C del ejemplo anterior no admite matriz inversa y no
es una matriz nula. ¿Qué matrices son invertibles y qué matrices no lo son?
Lo veremos más adelante en esta misma sección.
Unicidad de la inversa.
Notación para la inversa.
180
Acontece lo siguiente: si una matriz es invertible, entonces su ma-
triz inversa es única.
En efecto, si una matriz A, cuadrada de orden n y que admite una inversa B, admite eventualmente otra inversa C, se tiene que BA = CA (ambos
La matriz inversa, si existe, es
única.
productos son iguales a In ), de donde (multiplicando por la derecha por la
matriz B):
BAB = CAB,
o bien: B(AB) = C(AB);
de ello: BIn = CIn (pues AB = In ), y así: B = C; es decir, no hay una segunda
inversa distinta.
La notación para la inversa de
la matriz A es: A−1 .
Si la matriz A es invertible, su (única) matriz inversa se denotará por A−1 .
Es decir, dada una matriz A, cuadrada de orden n e invertible, la matriz A−1
es la única matriz que verifica: AA−1 = A−1 A = In .
Verbigracia, con las matrices A y B vistas en el § 179, podemos escribir: B = A−1 (B es la inversa de A) y A = B −1 (A es la inversa de B).
−1 −1
A
=A
Si la matriz A es invertible, también lo es A−1 , y su inversa es justa
−1
mente la propia matriz A; es decir: A−1
= A.
Nota bene
II. MATRICES
2. Propiedades de la inversa de una matriz cuadrada
Pasamos ahora a detallar algunas de las propiedades más importantes de
las matrices invertibles (y de sus inversas). Es de destacar la caracterización
de las matrices invertibles en términos del rango.
Inversa de una matriz
identidad
181
Como le ocurre al número 1 (que admite inverso y es igual a él mis-
mo), la matriz identidad de cualquier orden es invertible, y su inversa es ella
misma. Dado cualquier orden n, se trata de una simple consecuencia de la
−1
In
= In
−1
igualdad In In = In , que nos permite escribir: In
= In .
Inversa de una matriz
elemental
182
En el § 157 (cf. p. 156), vimos la siguiente propiedad de las matrices
elementales: si multiplicamos las matrices elementales, del mismo orden,
asociadas a transformaciones elementales inversas, obtenemos la matriz
identidad correspondiente. Más en concreto, dada una transformación elemental, si M es la matriz elemental de orden n asociada a ella, y M es la
matriz elemental del mismo orden asociada a su transformación elemental inversa, entonces: MM = M M = In . Después de haber definido (en el
apartado anterior) lo que es una matriz invertible y lo que es una inversa,
esta igualdad nos dice, por supuesto, que la matrices elementales M y M son invertibles, y que una es inversa de la otra.
Esto es: cualquier matriz elemental es invertible, y su inversa es otra
matriz elemental; y es más: decir que dos matrices elementales del mismo
orden son inversas una de la otra es tanto como decir que las transformaciones elementales a las que están asociadas son, a su vez, inversas entre sí.
Recordemos:
⎛
1
⎜
M = ⎝0
0
⎛
1
⎜
M = ⎝ 0
0
Nos sirven como ejemplo de lo afirmado las matrices M y M con las
0
1
0
0
1
0
⎞
3
⎟
0⎠,
1
⎞
−3
⎟
0⎠.
1
que trabajamos en el citado § 157: se trata de las matrices elementales
de orden 3 asociadas, respectivamente, a las transformaciones elementales F1 ← F1 + 3F3 y F1 ← F1 − 3F3 , las cuales son inversas entre sí. Comprobamos allí que MM = I3 ; lo repetimos aquí:
⎛
1
⎜
MM = ⎝ 0
0
0
1
0
⎞⎛
3
1
⎟⎜
0⎠⎝0
1
0
0
1
0
⎞ ⎛
−3
1
⎟ ⎜
0⎠ = ⎝0
1
0
0
1
0
⎞
0
⎟
0 ⎠ = I3 ,
1
y dejamos de nuevo al lector la comprobación en el otro orden: M M = I3 .
−1
Podemos, pues, escribir: M = M −1 , y también: M = (M )
Inversa de un producto
183
.
Si multiplicamos dos matrices invertibles, su producto es una ma-
triz que también es invertible. Es más: si A y B son las matrices invertibles
(AB)−1 = B −1 A−1
que multiplicamos (en particular, ambas son cuadradas del mismo orden),
entonces la inversa de su producto es B −1 A−1 ; es decir: (AB)−1 = B −1 A−1 .
II.5. INVERSA DE UNA MATRIZ CUADRADA
¿Cómo lo comprobamos? La manera más directa de certificar que dos
matrices dadas son una inversa de la otra es multiplicándolas, tanto en
un orden como en el otro, para ver que se obtiene la matriz identidad. Si
ponemos que las matrices A y B tienen orden n, al multiplicar la matriz AB
por la matriz B −1 A−1 , obtenemos:
(AB)(B −1A−1 ) = A(BB −1)A−1 = AIn A−1 = AA−1 = In ,
donde hacemos uso de las propiedades de la multiplicación de matrices y
del hecho de que B y A son invertibles (con lo que BB −1 = AA−1 = In ); análogamente, tendríamos la otra igualdad: (B −1 A−1 )(AB) = In . Con todo ello
comprobamos que efectivamente la inversa de AB es B −1 A−1 .
Podemos comprobar el resultado con estas matrices:
1 2
1 −1
A=
y B=
,
1 1
0
1
La matriz A es la misma A escrita en el § 179, y ya conocemos su inversa.
las cuales son invertibles:
Esté tranquilo el lector: aprenderá a calcular inversas enseguida. Por ahora, acepte, por
favor, la de B.
Se tiene:
A
−1
=
−1
1
2
−1
y
B
−1
=
1
0
1
1
.
1 2
1 −1
1 1
AB =
=
,
1 1
0
1
1 0
1 1
−1
2
0
1
=
,
B −1 A−1 =
0 1
1 −1
1 −1
y estas dos matrices obtenidas son efectivamente inversas una de la otra:
1 1
0
1
0
1
1 1
1 0
=
=
.
1 0
1 −1
1 −1
1 0
0 1
Nota
Es fácil extender el resultado anterior al producto de tres matrices: si A,
B y C son tres matrices, cuadradas del mismo orden e invertibles, entonces
(ABC) −1 = C −1 B −1 A−1
su producto: ABC, es también invertible, y su inversa es C −1 B −1 A−1 . Y de la
misma manera se extiende al producto de cualquier cantidad de matrices: dado
un número natural positivo p, si A1 , A2 , . . . , Ap son p matrices, cuadradas del
mismo orden e invertibles, entonces su producto también es invertible, y se
tiene: (A1 A2 · · · Ap )
Caracterización de las
matrices invertibles
184
−1
−1 −1
= A−1
p · · · A2 A1 .
Todavía no hemos dicho nada sobre cómo son las matrices que ad-
miten inversa (esto es, las matrices invertibles), o sobre cómo son las matrices que no la admiten. El resultado fundamental (que consideraremos un
teorema) es este: las matrices cuadradas invertibles son precisamente las
matrices cuadradas de rango máximo (cf. § 163, p. 161).
II. MATRICES
Consideremos una matriz A cuadrada. Para com-
forma escalonada reducida de A. Con el mismo argu-
probar la afirmación anterior, debemos comprobar dos
mento del párrafo anterior, deducimos que la matriz T
cosas. Una: si la matriz A tiene rango máximo, enton-
es invertible (es producto de matrices elementales, que
ces es invertible. Dos: si la matriz A es invertible, entonces su rango es máximo. (Nótese que ambos enun-
son invertibles). En la igualdad A = T A , multiplicamos, por la izquierda, por la inversa de T :
ciados son recíprocos uno del otro.)
T −1 A = T −1 T A ,
Veamos lo primero. Supongamos que la matriz A es
de rango máximo, y deduzcamos de ello que es inverti-
de donde: T −1 A = A .
Como las matrices T −1 y A son invertibles (la segunda
ble. La matriz A, al ser cuadrada de rango máximo, es
lo es de acuerdo con lo supuesto), su producto, a su
igual a un producto de matrices elementales (cf. § 169,
p. 164). Como las matrices elementales son inverti-
vez, es una matriz invertible. Es decir, la matriz A es
una matriz cuadrada, escalonada reducida e invertible.
bles (cf. § 182), y el producto de matrices invertibles
Ahora bien: una matriz invertible no puede tener filas
tiene como resultado una matriz invertible (cf. nota del
nulas: si tuviera alguna, al multiplicarla por cualquier
§ 183), deducimos que la matriz A es, efectivamente,
matriz seguiríamos obteniendo en la matriz producto
invertible.
Veamos lo segundo. Supongamos ahora que la ma-
una fila nula, y tal matriz producto no podría ser igual
a una matriz identidad. Como la matriz escalonada A
triz A es invertible, y obtengamos de ello que su rango
no tiene filas nulas, el número de sus pivotes coincide
es máximo. De acuerdo con la nota del citado § 169,
con el número de sus filas. El rango de la matriz A es,
la matriz A se puede escribir de esta forma: A = T A ,
pues, igual al número de filas; como es cuadrada, este
donde T es una matriz que a su vez se puede escribir
rango coincide también con el número de columnas, y
como un producto de matrices elementales y A es la
en definitiva es máximo.
Como ejemplo, recordemos las matrices A y C vistas en el § 179:
A=
1
1
2
1
y
C=
1
1
1
1
.
Como ambas son cuadradas de orden 2, tener rango máximo significa para
ellas que su rango es igual a 2. ¿Lo es? El de la primera sí, pero el de la
segunda no:
A=
1
1
2
1
F2 ←F2 −F1
→
1
0
2
−1
,
C=
1
1
1
1
F2 ←F2 −F1
→
1
0
1
0
.
Confirmamos lo que ya sabíamos del mismo § 179: la matriz A es invertible
(tiene rango máximo) y la matriz C no lo es (no tiene rango máximo).
Si A es cuadrada de orden n:
A es invertible
rango A = n.
Teorema 2
Una condición necesaria y suficiente para que una matriz
cuadrada de orden n sea invertible es que su rango sea igual a n.
Nota
Sobre condición necesaria y suficiente, véase nota p. 168.
II.5. INVERSA DE UNA MATRIZ CUADRADA
Un poquito de nomenclatura
• Matriz regular
185
Es usual la siguiente nomenclatura. Dada una matriz cuadrada, se
dice que es regular, o no singular, si su rango es máximo (es decir, igual
al número de sus filas, que coincide con el de columnas); y se dice que es
• Matriz singular
singular si su rango no es máximo (esto es, menor que el número de filas y
menor que el número de columnas).
Verbigracia, las matrices vistas en el ejemplo del § 184: A y C, resultan
ser regular la primera y singular la segunda.
De acuerdo con el resultado del citado § 184 (teorema 2), las matrices invertibles son las matrices regulares, y las matrices no invertibles son las matrices singulares. Por supuesto, una matriz cuadrada nula es singular, pero
es claro que entre las matrices cuadradas de orden mayor o igual que 2 hay
matrices singulares que no son nulas. En esto apreciamos una diferencia importante con el inverso de un número, pues entre los números solo el 0 no
admite inverso. ¿Y las matrices cuadradas de
1? Entre ellas, solo hay
orden
una matriz singular: la nula; en concreto: 0 . Las operaciones entre matrices cuadradas de orden 1, incluida la inversión, se reducen en definitiva
a operaciones entre los números que figuran como sus únicos términos.
Aplicación de la inversa a
sistemas de ecuaciones
lineales
186
Dado un sistema de ecuaciones lineales, si su matriz de coeficientes
es cuadrada y regular, el sistema es compatible determinado. En este caso,
además, la inversa de la matriz de coeficientes (nótese que esta matriz resulta invertible al ser cuadrada y regular) juega un importante papel para
calcular la única solución del sistema.
Discusión del sistema.
Veamos esto con detalle. Consideremos un sistema de n ecuaciones lineales con n incógnitas, y —como es habitual— denotemos por A su matriz
de coeficientes, que resulta así ser cuadrada de orden n. Supongamos que la
matriz A es regular; esto es: rango A = n. La matriz A es entonces una matriz de coeficientes cuyo rango coincide tanto con el número de ecuaciones
del sistema como con el número de incógnitas. Por lo primero, el sistema
admite solución (cf. § 175, p. 169); por lo segundo, esa solución es única
(cf. § 177, p. 172).
Resolución del sistema.
Y ahora, ¿cómo podemos encontrar la única solución del sistema de
ecuaciones lineales? Recordemos la notación matricial de los sistemas de
ecuaciones lineales (cf. § 144, p. 143): si X y C son, respectivamente, las
Recuérdese que para sistemas
escritos en notación matricial
se “amplía” el concepto de solución, y se considera como tal
también una matriz columna
(cf. § 146, p. 145).
matrices de incógnitas y de términos independientes del sistema (ya sabemos: la matriz columna cuyos términos son las incógnitas y la matriz columna cuyos términos son los términos independientes), entonces la notación matricial del sistema es la igualdad matricial AX = C. Con el sistema
así escrito, buscar su única solución es equivalente a buscar la única matriz
II. MATRICES
columna X1 tal que AX1 = C. Ahora bien, la matriz A es invertible, con lo
que podemos multiplicar, por la izquierda, en la igualdad AX1 = C por la
inversa A−1 :
A−1 AX1 = A−1 C,
Ayuda: A−1 AX1 = In X1 = X1 .
de donde:
X1 = A−1 C.
La matriz columna así obtenida: A−1 C, es la única solución del sistema de
ecuaciones lineales.
Recuérdese el citado § 175.
Si nos fijamos en la discusión del sistema, para concluir que este es
compatible determinado no han influido los términos independientes (solo
intervienen en la resolución del sistema, para el cálculo efectivo de la solución). Podemos afirmar lo siguiente sobre la discusión del sistema: cuando
la matriz de coeficientes es regular, el sistema es compatible determinado
para cualquier elección de los términos independientes.
Dado un sistema de ecuaciones lineales con el mismo número de ecuaciones que de incógnitas, si la matriz de coeficientes es regular, el sistema
es compatible determinado cualesquiera que sean los términos independientes. Si el sistema en notación matricial es AX = C, entonces su única
solución es la matriz columna A−1 C.
Un ejemplo
187
Queremos mostrar un primer ejemplo de aplicación de lo visto en el
§ 186. Es verdad que todavía no sabemos calcular, en la práctica, la inversa
de una matriz (ello llegará en el apartado siguiente), pero el ejemplo no
dejará por ello de ser ilustrativo.
Consideremos el siguiente sistema de ecuaciones lineales:
⎧
⎨ x1 + 2x2 = 1
⎩ x1 + x2 = −1.
(8)
Tiene el mismo número de ecuaciones que de incógnitas —dos de cada—, y
la matriz de coeficientes, la de incógnitas y la de términos independientes
son, respectivamente, estas:
1 2
A=
,
1 1
X=
x1
x2
y
C=
1
−1
,
de forma que la notación matricial del sistema es AX = C. La matriz A
es cuadrada de orden 2, y es regular (calculamos su rango en el § 184). El
sistema de ecuaciones lineales (8) es, pues, compatible determinado.
¿Y cuál es la solución única del sistema? De acuerdo con lo afirmado
en el § 186, esta solución única, como matriz columna, es igual al producto A−1 C. Recordando la inversa de la matriz A (cf. § 179, p. 174), el cálculo
II.5. INVERSA DE UNA MATRIZ CUADRADA
de la solución nos queda:
A
−1
C=
−1
1
2
−1
1
−1
=
−3
2
.
Podemos decir la única solución del sistema de ecuaciones lineales (8) es
tanto esta matriz columna recién obtenida como el par ordenado (−3, 2).
Otro ejemplo
188
Discutamos y resolvamos, según los valores de los parámetros a
y b, este sistema de ecuaciones lineales:
⎧
⎨ x1 + 2x2 = a
⎩ x1 + x2 = b.
(9)
Notemos, antes de nada, que el sistema (8) (que estudiamos en el § 187)
es un caso particular de este nuevo sistema: basta tomar a = 1 y b = −1.
De todas formas, ambos sistemas tiene la misma matriz de coeficientes,
que es cuadrada y regular, por lo que el sistema (9) también es compatible
determinado, y ello para cualquier valor de los parámetros a y b.
Ahora, la solución única del sistema (9) se puede hallar de la misma manera que la del (8): multiplicando la inversa de la matriz de coeficientes por
la matriz de los términos independientes. Solo esta última matriz cambia
con respecto a los cálculos que llevamos a cabo para el sistema (8) (en el
§ 187): si denotamos la nueva matriz de coeficientes por D, de forma que
la notación matricial del sistema es AX = D, el cálculo de su solución única
queda así:
A−1 D =
−1
1
2
−1
a
b
=
2b − a
a−b
.
Esta matriz columna obtenida, o bien el par ordenado (2b − a, a − b), es la
única solución del sistema de ecuaciones lineales (9).
3. Método práctico para el cálculo de la matriz inversa
Procedemos ahora a desarrollar un método, basado en las transformaciones
elementales, para calcular efectivamente la inversa de una matriz de la cual
sabemos que es invertible.
Un método para calcular la
inversa
189
Nos dan una matriz cuadrada que sabemos es invertible, y quere-
mos calcular su inversa. La matriz, por ser invertible, tiene rango máximo
(cf. § 184, p. 177), y por ser cuadrada de rango máximo puede obtenerse de
ella, mediante la aplicación de transformaciones elementales sucesivas, la
II. MATRICES
matriz identidad (cf. § 168, p. 163). Acontece que estas mismas transformaciones elementales, aplicadas en el mismo orden, llevan la propia matriz
identidad a la matriz inversa que buscamos.
Justifiquémoslo. Denotemos la matriz cuadrada invertible por A y pongamos que es de orden n. Hay entonces una lista de transformaciones elementales que aplicadas sucesivamente a la matriz A nos la llevan a la matriz
identidad In . Si M1 , M2 , . . . , Mp son las matrices elementales de orden n
asociadas a estas transformaciones, podemos escribir:
Mp · · · M2 M1 A = In ,
(10)
en virtud de la propiedad de que aplicar una transformación elemental es
equivalente a multiplicar, por la izquierda, por su matriz elemental correspondiente (cf. § 156, p. 155). Mire despacio el lector, por un momento, el
producto anterior: el producto M1 A es el resultado de aplicar a A la primera
transformación elemental; el producto M2 M1 A = M2 (M1 A) es el resultado
de aplicar, a lo obtenido tras esa primera aplicación, la segunda transformación elemental; y así sucesivamente.
Ahora, en (10) multiplicamos, por la derecha, por la matriz A−1 :
Note el lector:
AA−1 = In
y
In A−1 = A−1 .
Mp · · · M2 M1 AA−1 = In A−1 ,
de donde:
Mp · · · M2 M1 In = A−1 .
Fijemos nuestra atención en esta última igualdad: Mp · · · M2 M1 In = A−1 . Su
segundo miembro es la matriz que buscamos: A−1. Su primer miembro es el
producto, por la izquierda, de la matriz In por varias matrices elementales,
producto que puede entonces interpretarse como la aplicación sucesiva, a
la matriz In , de las transformaciones elementales correspondientes. ¡Pero
estas matrices elementales son justamente las asociadas a las transformaciones elementales que nos llevan A a In ! Es decir: podemos obtener la
matriz A−1 aplicando a la matriz In las mismas transformaciones elementales, y en el mismo orden, que nos permiten obtener la matriz In a partir de
la matriz A.
Debemos enfatizar un detalle importante: la matriz identidad In es precisamente la forma escalonada reducida de la matriz invertible A (porque
así es la forma escalonada reducida de una matriz cuadrada de orden n y
de rango igual a n; véase el ya citado § 168). De esta forma, cuando busquemos transformaciones elementales que nos lleven la matriz A a la matriz In ,
podemos simplemente poner en práctica el procedimiento ya conocido para
obtener la forma escalonada reducida de una matriz.
Por otra parte, como deberemos aplicar a la matriz In las mismas transformaciones elementales, y en el mismo orden, que nos llevaron la matriz A
II.5. INVERSA DE UNA MATRIZ CUADRADA
hasta la matriz In , en la práctica
cómodo escribir yuxtapuestas las
resulta
A In (en una suerte de matriz ampliada
matrices A y In , de esta forma:
más grande), y aplicar las transformaciones elementales correspondientes a
ambas matrices a la vez. Terminaremos cuando logremos sustituir la matriz A por la matriz In : la matriz que obtengamos
junto a la matriz In será
precisamente A−1 ; es decir, se llegará a In A−1 .
Un primer ejemplo
Como primer ejemplo, apliquemos el método descrito para calcular
190
la inversa de la matriz A que introdujimos en el § 179 (cf. p. 174):
A=
1
1
2
1
.
Para ello, aplicamos transformaciones elementales sucesivas para llevar la
matriz A a la matriz identidad I2 ; simplemente, lo que haríamos para obtePor no ser necesario, no señalamos los pivotes.
ner la forma escalonada reducida de A:
1 2 F2 ←F2 −F1
1
2 F2 ←−F2
1
A=
→
→
1 1
0 −1
0
2
1
F1 ←F1 −2F2
→
1
0
0
1
= I2 .
Anotamos estas transformaciones, sin cambiar el orden, y las aplicamos de
nuevo, pero a la matriz I2 :
I2 =
1
0
0
1
F2 ←F2 −F1
→
1
−1
0
1
F2 ←−F2
→
1
1
0
−1
F1 ←F1 −2F2
→
−1
1
2
−1
.
La matriz final obtenida es la buscada inversa de la matriz A: A−1 ; lo podemos comprobar directamente (multiplicándola por A y viendo que se obtiene I2 ), o confirmarla en el citado § 179.
Pero, como comentábamos
del § 189, resulta más cómodo yux al final
I
A
taponer las matrices A y I2 :
2 , y aplicar a ambas a la vez las sucesivas
transformaciones elementales. Ello toma esta forma:
1 2 1 0
1
2
1
F2 ←F2 −F1
A I2 =
→
1 1 0 1
0 −1 −1
F2 ←−F2
→
F1 ←F1 −2F2
→
0
1
1
0
2
1
1
1
0
−1
1
0
0
1
−1
1
2
−1
= I2
A−1 .
Como la primera de estas matrices es la matriz I2 , el proceso termina, y la
matriz A−1 es la que acompaña a I2 ; desde luego, es la que ya conocíamos.
II. MATRICES
Calculemos, si existe, la inversa de esta matriz:
191
Otro ejemplo
⎛
−1
⎜
A=⎝ 1
0
⎞
1
⎟
2⎠.
1
0
1
0
Antes de nada, deberíamos cerciorarnos de que la matriz A es efectivamente invertible, lo cual puede conseguirse calculando su rango y viendo
que es igual a 3. Pero este cálculo del rango puede simultanearse con el proceso de cálculo efectivo de la inversa, pues al llevar la matriz A a la matriz
identidad I3 pasamos en algún momento por alguna forma escalonada de A:
llegados a ese punto, simplemente contamos los pivotes.
Empezamos, pues, sin
Trabajando sobre el par de las
más preámbulos.
matrices yuxtapuestas: A I3 , buscamos llevar la matriz A a la matriz I3 :
A
I3
⎛
= ...
−1
⎜
⎝ 1
0
0
1
0
1
2
1
1
0
0
0
1
0
⎛
⎞
0
1
⎟ F1 ←(−1)F1 ⎜
0 ⎠ →
⎝ 1
1
0
⎛
1
⎜
→
⎝ 0
0
La primera matriz del par es
escalonada y tiene tres pivotes: rango A = 3. Seguimos. . .
I3
A−1
F2 ←F2 −F1
⎛
1
⎜
→
⎝ 0
0
F1 ←F1 +F3
F2 ←F2 −3F3
= ...
0
1
0
−1
2
1
1
0
0
0
1
0
⎞
0
⎟
0⎠
1
0
1
0
−1
3
1
−1
1
0
0
1
0
⎞
0
⎟
0⎠
1
0
1
0
0
0
1
−1
1
0
0
1
0
⎞
1
⎟
−3 ⎠ .
1
Finalmente, la matriz A−1 es la que acompaña a la matriz I3 en el último par
de matrices yuxtapuestas:
⎛
A−1
−1
⎜
=⎝ 1
0
0
1
0
⎞
1
⎟
−3 ⎠ .
1
Enfatizamos lo que decíamos sobre el cálculo del rango: tras la segunda
transformación elemental, de la matriz A se ha obtenido una matriz escalonada con tres pivotes:
⎛
1
⎜
⎝0
0
0
1
0
⎞
−1
⎟
3⎠,
1
lo que confirma, una vez iniciado el proceso, que el rango de A es igual a 3,
y por tanto que esta matriz es invertible.
II.5. INVERSA DE UNA MATRIZ CUADRADA
Y otro ejemplo más
B
I3
= ...
Ya tras la primera transformación: rango B = 3, pues:
⎞
⎛
1 1 −1
⎟
⎜
0⎠.
⎝0 1
0 0
1
Calculemos, si existe, la inversa de esta matriz:
⎛
⎞
1
1 −1
⎜
⎟
1
0⎠.
B=⎝ 0
−1 −1
2
Escribimos el par de matrices yuxtapuestas B I3 y buscamos llevar,
192
con transformaciones elementales, la matriz B hasta la matriz
⎛
⎛
⎞
0 0
1 1 −1 1
1
1 −1 1
⎜
⎟ F3 ←F3 +F1 ⎜
1 0 ⎠ →
0 0
1
0 0
⎝0 1
⎝ 0
0 1
0 0
1 1
−1 −1
2 0
⎛
1
⎜
→
⎝0
0
F1 ←F1 −F2
⎛
I3
B −1
1
⎜
→
⎝0
0
F1 ←F1 +F3
= ...
La matriz que figura adjuntada a la matriz
⎛
2 −1
⎜
1
B −1 = ⎝ 0
1
0
Otro ejemplo, con “trampa”
I3 :
0
1
0
⎞
0
⎟
0⎠
1
0
1
0
−1
0
1
1
0
1
−1
1
0
⎞
0
⎟
0⎠
1
0
1
0
0
0
1
2
0
1
−1
1
0
⎞
1
⎟
0⎠.
1
I3 es la inversa de la matriz B:
⎞
1
⎟
0⎠.
1
Calculemos, si existe, la inversa de la siguiente matriz:
2
1
A=
.
1 1/2
193
Empezamos
como es habitual: considerando el par de matrices yuxta
puestas A I2 . Obtenemos:
A
I2
=
2
1
1
1/2
1
0
0
1
F2 ←F2 −(1/2)F1
→
2
0
1
0
1
−1/2
0
1
...
Pero aquí debemos parar. ¿Qué ocurre? La primera de las matrices del par
que hemos obtenido, la cual es una matriz que proviene justamente de la
matriz A, es escalonada, y solo tiene un pivote:
2 1
.
0 0
Es decir: rango A = 1. La matriz A no es invertible. Huelga seguir; por
supuesto, no podremos obtener de ninguna manera la matriz identidad I2
como primera matriz del par de matrices yuxtapuestas.
II. MATRICES
La matriz genérica de orden 2
Consideremos esta matriz cuadrada general de orden 2:
a b
A=
.
c d
194
Veamos bajo qué condiciones es invertible, y en su caso calculemos su inversa.
Formamos el habitual par de matrices yuxtapuestas:
A
I2 , y empe-
zamos. En primer lugar, supongamos que a ≠ 0, para poder realizar una
primera transformación elemental que deje la primera columna con los términos a y 0:
Nótese:
d−
c
ad − bc
b=
.
a
a
A
I2
⎛
⎜
=⎝
a
b
1
0
c
d
0
1
⎛
⎞
⎟ F2 ←F2 −(c/a)F1 ⎜
⎝
⎠ →
a
b
0
ad − bc
a
1
c
−
a
0
1
⎞
⎟
⎠.
En este punto, debemos parar un momento: si fuera ad−bc igual a 0, entonces la primera de las matrices anteriores (la que viene de A) admitiría solo un
pivote y la matriz A no sería invertible. Supongamos, pues, que ad− bc ≠ 0,
y continuemos. Dividimos la primera fila por a y la segunda por (ad−bc)/a,
y obtenemos:
⎛
⎜1
⎜
⎜
⎝
0
¿Ayuda? Veamos:
1 b
−c
+ −
·
a
a
ad − bc
=
bc
1
+
a
a(ad − bc)
=
(ad − bc) + bc
a(ad − bc)
=
d
.
ad − bc
b
a
1
1
a
−c
ad − bc
⎞
0
a
ad − bc
⎟
⎟
⎟.
⎠
Y solo resta sumar a la primera fila la segunda multiplicada por −b/c (la
transformación elemental F1 ← F1 − (b/a)F2 ); llegamos así a
⎛
⎞
−b
d
1
0
⎜
⎟
⎜
ad − bc ad − bc ⎟
⎜
⎟.
⎝
⎠
a
−c
0 1
ad − bc ad − bc
De acuerdo con lo obtenido (ya hemos llegado a tener la matriz identidad I2
en el primer lugar del par de matrices yuxtapuestas), podemos concluir:
⎛
A−1
d
⎜ ad − bc
=⎜
⎝
−c
ad − bc
⎞
−b
d
1
ad − bc ⎟
⎟ , o bien: A−1 =
⎠
a
ad − bc −c
ad − bc
−b
a
, (11)
y esta es la expresión general de la inversa de una matriz cuadrada de orden 2.
Para finalizar, unas observaciones. De acuerdo con el desarrollo anterior, la matriz A es invertible o no según sea la expresión ad − bc distinta
II.5. INVERSA DE UNA MATRIZ CUADRADA
de 0 o igual a 0, respectivamente. Es decir, afirmar que la matriz A es invertible es equivalente a afirmar que ad − bc ≠ 0. Además, en el caso en
que efectivamente la matriz es invertible, su inversa es la matriz que hemos
escrito en (11).
Y un último detalle. Hemos pedido al principio que a sea no nulo. Si
se cumple que ad − bc ≠ 0, entonces los números a y c no pueden ser
simultáneamente nulos (por otra parte, si lo fueran, nótese que la matriz A
tendría una columna nula, y no podría llegar a exhibir dos pivotes). En el
caso en que a = 0 y c ≠ 0, aplicaríamos como primera transformación
elemental el intercambio de las filas primera y segunda (esto es: F1 ↔ F2 ), y
seguiríamos a partir de ahí de la misma manera; llegaríamos a una expresión
para la inversa coherente con la escrita en (11).
Ejercicios II.5
1
Estudiar si son invertibles las siguientes matri-
ces, y en caso afirmativo calcular la inversa:
1 1
1 1
a)
y
;
1 0
1 1
⎛
⎞
⎛
⎞
1 0 0
0 0 1
⎜
⎟
⎜
⎟
b)
⎝ 0 1 0 ⎠ y ⎝ 0 1 0 ⎠;
0 0 1
1 0 0
⎛
⎞
⎛
⎞
1 2
1
1 2 1
⎜
⎟
⎜
⎟
3 ⎠ y ⎝ 1 2 3 ⎠.
c)
⎝1 2
1 2 −1
1 1 1
2
Calcular, si existe, la inversa de esta matriz:
⎛
1
⎜
⎝ 2
−1
3
2
2
−2
⎞
0
⎟
1 ⎠.
1
cuando exista:
5
⎛
2
⎜
⎝0
2
3
5
a
⎞
5
⎟
−1 ⎠ .
3
Estudiar, según los valores del parámetro a, si
es invertible la siguiente matriz, y calcular la inversa
2
2
1
⎞
1
⎟
3⎠.
a
Tenemos dos matrices A y B, cuadradas y del
¿puede ser invertible el producto AB? ¿Y si pedimos
adicionalmente que la segunda sí sea invertible?
También: ¿es invertible el producto AB si la matriz A sí es invertible?
6
Se considera el siguiente sistema de ecuaciones
lineales, en el que a, p, q y r son parámetros:
⎧
⎪
x + 2y + z = p
⎪
⎪
⎨
x + 2y + 3z = q
⎪
⎪
⎪
⎩ x + y + az = r .
Se pide:
a)
calcular los valores de a para los que el sistema
admite solución única;
b)
4
1
⎜
⎝1
1
mismo orden. Si la primera de ellas no es invertible,
Según los valores del parámetro a, estudiar si es
invertible la siguiente matriz:
⎛
resolver el sistema en los casos en que haya solu-
ción única calculando la inversa de la matriz de coeficientes.
II. MATRICES
II.6 TRASPUESTA DE UNA MATRIZ
En esta sección, presentamos en primer lugar el concepto de traspuesta de
una matriz y sus principales propiedades, incluyendo el importante resultado de que el rango de una matriz coincide con el de su traspuesta. En un
segundo apartado, definimos lo que se entiende por traza de una matriz y
vemos también sus propiedades más relevantes.
1. Traspuesta de una matriz
Dedicamos este apartado a la trasposición de matrices: definición, ejemplos,
y algunas de sus propiedades.
Definición y ejemplos
Traspuesta de una matriz
195
La traspuesta de una matriz es la matriz que resulta de considerar
las filas de la matriz original como columnas, y las columnas como filas.
La traspuesta de A también se
denota: A , o AT .
Más formalmente: dada una matriz A de cualquier orden (n, m), su matriz
traspuesta, que se denota: At , es otra matriz de orden (m, n) tal que los
términos de sus m filas son los términos de las m columnas de A, y los
términos de sus n columnas son los de las n filas de A. Es decir, el término
de posición (i, j) de la matriz At es igual al término de posición (j, i) de la
matriz A, y ello para cada 1 i m y cada 1 j n.
Veamos un ejemplo. Consideremos esta matriz:
1 3 −1
A=
.
0 2
4
Es de orden (2, 3), así que su traspuesta: At , es una matriz de orden (3, 2).
Informalmente, lo que en la matriz A son filas, en la matriz At son columnas,
y viceversa; más en concreto, los términos de la primera fila de A son los
términos de la primera columna de At , y los términos de la segunda fila
de A son los de la segunda columna de At . La matriz At es, pues, la que
tiene como términos de su primera columna los números 1, 3 y −1, y como
términos de su segunda columna los números 0, 2 y 4:
⎛
⎞
1 0
⎜
⎟
At = ⎝ 3 2 ⎠ .
−1 4
Nótese que el término de posición (1, 2) (por fijarnos en uno) de la matriz At
es igual al término de posición (2, 1) de la matriz A.
II.6. TRASPUESTA DE UNA MATRIZ
Más ejemplos
196
Consideremos estas matrices:
1
0
2
⎛
y
⎞
−1
⎜
⎟
⎝ 0⎠.
4
La primera es una matriz fila (esto es, con una sola fila), que se transformará
en una única columna al trasponer; es decir, su traspuesta es una matriz
columna. Sus términos son obviamente los mismos que los de la matriz fila
original. Podemos escribir:
1
0
2
t
⎛ ⎞
1
⎜ ⎟
= ⎝0⎠.
2
Análogamente, la segunda matriz de las anteriores, que es una matriz
columna, tendrá por traspuesta una matriz fila:
⎛
⎞t
−1
⎜
⎟
⎝ 0 ⎠ = −1
4
Otro ejemplo
197
0
4 .
Examinemos esta matriz cuadrada:
1 −3
A=
.
2
0
¿Cómo es su traspuesta? Como la matriz A es cuadrada de orden 2, es
decir, es de orden (2, 2), su traspuesta: At , es de orden (2, 2), con lo que
también es cuadrada de orden 2. Los términos de la primera fila de At son
los términos de la primera columna de A, que son: 1 y 2; y los términos de la
segunda fila de At son los de la segunda columna de A: −3 y 0. En definitiva:
1 2
t
A =
.
−3 0
Nota bene
Si una matriz es cuadrada, su traspuesta es otra matriz cuadrada del
mismo orden.
Propiedades
Traspuesta de la traspuesta
t t
(A ) = A
198
Dada una matriz A, ¿cuál es la traspuesta de la matriz At ? La propia
t
matriz A; es decir: (At ) = A.
En efecto. Si ponemos que A es de orden (n, m), entonces At es de ort
den (m, n), y (At ) vuelve a ser de orden (n, m). Por otra parte, de acuerdo
II. MATRICES
t
con la definición, el término de posición (j, i) de la matriz (At ) es igual al
Y esto para cada 1 i m y
cada 1 j n.
término de posición (i, j) de la matriz que se traspone: At , pero el término
de posición (i, j) de esta es igual al término de posición (j, i) de la matriz A.
t
En definitiva, las matrices (At ) y A tienen iguales los términos de la misma
posición. Esto termina de comprobar que ambas matrices son iguales.
Traspuesta de una matriz
identidad
Int = In
199
La traspuesta de una matriz identidad es ella misma: Int = In .
¿No resulta obvio? Por si acaso, nótese que los términos de la primera
fila de la matriz In son los mismos que los términos de la primera columna,
y los de la segunda fila son los mismos que los de la segunda columna, y así
sucesivamente.
Traspuesta de una suma y del
producto por un número
(A + B)t = At + B t
t
(λA) = λAt
200
La traspuesta de una suma de matrices es igual a la suma de las
traspuestas. Es decir: si A y B son dos matrices del mismo orden, se
tiene: (A + B)t = At + B t .
t
Y más: si λ es un número, entonces: (λA) = λAt .
Se trata de
propiedades
fáciles
de demostrar. Pongamos (como es haaij y B = bij . El término de posición (i, j) de la ma-
bitual): A =
t
triz (A + B) es igual al término de posición (j, i) de la matriz A + B, el cual
es: aji + bji , pero este último es igual al de posición (i, j) de At + B t . De
forma similar podríamos comprobar la otra propiedad.
A modo de ejemplo, consideremos estas dos matrices:
1 1 0
−1 −1 1
A=
y B=
.
2 1 0
0 −1 1
Se tiene:
⎛
1
⎜
At = ⎝ 1
0
⎞
2
⎟
1⎠,
0
⎛
−1
⎜
B t = ⎝ −1
1
⎞
0
⎟
−1 ⎠
1
y
A+B =
0
2
0
0
1
1
,
de donde:
⎛
1
⎜
At + B t = ⎝ 1
0
⎞ ⎛
2
−1
⎟ ⎜
1 ⎠ + ⎝ −1
0
1
⎞ ⎛
0
0
⎟ ⎜
−1 ⎠ = ⎝ 0
1
1
⎞
2
⎟
0 ⎠ = (A + B)t ,
1
lo que confirma la primera propiedad para este caso. También:
⎛
⎞
2 4
2 2 0
⎜
⎟
2A =
y 2At = ⎝ 2 2 ⎠ ,
4 2 0
0 0
y es claro que la traspuesta de la primera es igual a la segunda: (2A)t = 2At .
II.6. TRASPUESTA DE UNA MATRIZ
Traspuesta de un producto
t
t
Si A y B son dos matrices tales que el producto AB está definido,
201
t
entonces: (AB) = B t At .
t
(AB) = B A
Para probarlo, pongamos A =
aij
yB =
bij ,
triz B t At es igual a
y denotemos por m el número de columnas de A (que
m
es, por supuesto, igual al de filas de B). El término de
t
posición (i, j) de la matriz (AB) es igual al de posición (j, i) de la matriz AB, que es esta suma:
m
bki ajk ,
k=1
pues el término de posición (i, k) de B t es bki y el de
posición (k, j) de At es ajk . Es claro que el término de
ajk bki .
t
posición (i, j) es el mismo en las dos matrices (AB)
k=1
t
t
yBA.
Por otra parte, el término de posición (i, j) de la ma-
En conclusión, ambas matrices son iguales.
Comprobemos la propiedad con estas matrices:
⎛
⎞
1
1 1 0
⎜
⎟
A=
y B = ⎝ −1 ⎠ ,
2 1 0
2
cuyo producto está definido:
AB =
1
2
1
1
0
0
⎛
⎞
1
0
⎜
⎟
⎝ −1 ⎠ =
.
1
2
El producto B t At es igual a
B t At = 1
y se tiene:
−1
⎛
⎜1
2 ⎝1
0
t
0
= 0
(AB) =
1
t
Nota
⎞
2
⎟ 1⎠ = 0
0
1
1 ,
= B t At .
Es fácil extender la propiedad anterior al producto de más de dos matrices:
si A1 , A2 , . . . , Ap son p matrices cuyo producto está definido, entonces podet
mos escribir: (A1 A2 · · · Ap ) = Atp · · · At2 At1 .
Traspuesta de una inversa
202
Si nos dan una matriz cuadrada invertible, ¿es invertible su tras-
puesta? Sí, y su inversa es igual a la traspuesta de la inversa de la matriz
dada. Más en concreto, si A es una matriz invertible, también lo es su trast −1
(A )
−1 t
= (A
)
t
−1
puesta At , y la inversa de esta es (A−1 ) . Es decir: (At )
t
= (A−1 ) .
II. MATRICES
t
La justificación es sencilla. Multipliquemos las matrices At y (A−1 ) , y
veamos que obtenemos la matriz identidad. Teniendo en cuenta el resultado
de los § 201 y 199, y denotando por I la matriz identidad del mismo orden
que A (y que At ), nos queda:
t
t
At (A−1 ) = (A−1 A) = I t = I,
y lo mismo obtendríamos con el producto en el otro orden. Vemos así que
t
las matrices At y (A−1 ) son, efectivamente, inversas una de la otra.
Podemos verificar la propiedad con esta matriz:
1 2
A=
,
1 1
¡Atrévase el lector a calcular la
inversa de At !
con la cual trabajamos por primera vez en el § 179 (cf. p. 174). Por un lado:
1 1
−1
1
t
t −1
A =
y (A ) =
,
2 1
2 −1
y por otro:
La inversa de A se conoce del
citado § 179.
A
−1
=
−1
1
2
−1
y
(A
−1 t
) =
−1
2
1
−1
.
Obtenemos lo mismo de ambas formas.
Traspuesta y rango: el rango
de una matriz es igual al de
su traspuesta
t
rango A = rango A
203
Vemos ahora una importante propiedad: la trasposición de matri-
ces conserva el rango; es decir, el rango de una matriz coincide con el de su
traspuesta.
En símbolos, dada una matriz A cualquiera, se tiene: rango A = rango At .
Antes de ver la justificación del resultado, y a modo de ejemplo, recordemos que en el § 160 (cf. p. 159) calculamos estos rangos (entre otros):
⎛
⎞
⎛
⎞
−1 0
2
⎜
⎟
1
2 −1 −1
⎜ 0 3 −3 ⎟
⎜
⎟
⎟ = 3 y rango ⎝ −1
0 −2
2 ⎠ = 2.
rango ⎜
⎜ 0 0
⎟
7
⎝
⎠
0 −2
3 −1
0 0
0
Sin necesidad de cálculos adicionales escalonando matrices, podemos escribir directamente el rango de las traspuestas de las dos matrices anteriores:
⎛
−1
⎜
rango ⎝ 0
2
¡Le animamos a ello!
0
3
−3
0
0
7
⎞
0
⎟
0⎠ = 3 y
0
⎛
1
⎜
⎜ 2
rango ⎜
⎜ −1
⎝
−1
−1
0
−2
2
⎞
0
⎟
−2 ⎟
⎟ = 2.
3⎟
⎠
−1
El lector puede proceder a corroborar lo escrito calculando los rangos de estas matrices de acuerdo con la definición (es decir, escalonando las matrices
y contando los pivotes).
II.6. TRASPUESTA DE UNA MATRIZ
Antes de entrar en la demostración propiamente
dicha, veamos un resultado previo.
números u1(r +1), . . . , u1m) con el término de posición (1, 1) (futuro privote de la primera columna y de
El resultado previo es este: si U es una matriz esca-
la primera fila); anulando a su vez los términos de la
lonada reducida, entonces se tiene: rango U = rango U t .
Pongamos que la matriz U es de orden (n, m) y de
segunda columna (ocupados por u2(r +1), . . . , u2m) con
el de posición (2, 2); y así sucesivamente, hasta anu-
rango r . En la matriz U reordenamos sus columnas
lar los términos de la r -ésima columna con el de posi-
de forma que sigamos teniendo una matriz escalonada
ción (r , r ). La matriz escalonada a la que se llega, que
reducida, pero con los r pivotes en las primeras colum-
también es escalonada reducida, tiene exactamente r
t = r . Finalmente, esta
pivotes, y por tanto: rango U
t no es (en principio) la matriz U t , pero sí
matriz U
nas (cf. § 76, p. 79); ello nos deja una matriz, que deno , con el mismo número de pivotes que U,
taremos por U
y por tanto con el mismo rango. Si m > r y n > r , la
tiene esta forma (cf. § 77, p. 80):
matriz U
⎛
1
⎜
⎜0
⎜
⎜.
⎜.
⎜.
⎜
=⎜
U
⎜0
⎜
⎜0
⎜
⎜.
⎜ ..
⎝
0
0
1
..
.
0
0
..
.
0
...
...
..
.
⎞⎫
u1m ⎪
⎪
⎟⎪
⎪
u2m ⎟ ⎪
⎬
⎟
⎟
.. ⎟ ⎪ r
⎪
. ⎟⎪
⎪
⎟⎪
⎭
ur m ⎟
,
⎟⎫
⎟⎪
0 ⎟⎪
⎪
⎟⎬
.. ⎟
n−r
. ⎟
⎠⎪
⎪
⎪
⎭
0
0 u1(r +1) . . .
0 u2(r +1) . . .
..
..
..
.
.
.
1 ur (r +1) . . .
0
0
...
..
..
..
.
.
.
0
0
...
...
...
..
.
...
r
m−r
escrita pero sin sus últimas m − r columnas; si n = r ,
queda también como la escrita, pero sin sus n − r últi es
mas filas (las nulas). La traspuesta de U
1
⎜
⎜
0
⎜
⎜
..
⎜
⎜
.
⎜
⎜
0
⎜
⎜
⎜ u1(r +1)
⎜
⎜
.
⎜
..
⎝
u1m
0
1
..
.
0
...
...
..
.
u2(r +1)
.
..
u2m
r
...
...
..
.
...
0
0
..
.
1
ur (r +1)
.
..
ur m
0
0
..
.
0
0
.
..
0
...
⎞⎫
0 ⎪
⎪
⎟⎪
⎪
0⎟ ⎪
⎬
⎟
r
.. ⎟
⎟⎪
⎪
.⎟⎪
⎪
⎟⎪
⎭
0⎟
⎟⎫ .
⎟⎪
0⎟ ⎪
⎟⎪
⎬
.⎟
.. ⎟ m − r
⎠⎪
⎪
⎪
0 ⎭
...
...
..
.
...
...
..
.
n−r
cambio de filas correspondiente al intercambio de co para devolver los pivotes a
lumnas que haríamos en U
la posición que originalmente tenían en la matriz U.
Como un intercambio de filas no altera el rango de
t , y en definiuna matriz, tenemos: rango U t = rango U
tiva: rango U t = rango U.
Pasamos ahora a demostrar el resultado general.
Para ello, consideramos una matriz A cualquiera. Sabemos (cf. nota del final del § 169, p. 164), que la matriz A se puede escribir así: A = T U, donde T es una
para algunos números uij con i y j tales que 1 i r
queda como la
y r + 1 j m. Si m = r , la matriz U
⎛
t el interconseguimos llegar a esta si aplicamos a U
matriz cuadrada que es igual a un producto de matrices elementales y U es la forma escalonada reducida
de A. Si en la igualdad A = T U trasponemos, obtenet
mos: At = (T U) = U t T t (cf. § 201), y a partir de esto
podemos escribir:
rango At = rango(U t T t ) rango U t = rango U,
donde hacemos uso de que el rango de un producto de
dos matrices es menor o igual que el rango de la primera de las matrices (cf. § 172, p. 167), y también del
resultado previo antes demostrado. Finalmente, hemos
obtenido: rango At rango U = rango A.
Para terminar, notemos que acabamos de probar
esta afirmación: el rango de la traspuesta de una matriz
es menor o igual que el de la matriz. Si lo aplicamos a
t
t puede escalonarse, anulando, medianEsta matriz U
la matriz At misma, obtenemos: rango (At ) rango At ,
te transformaciones elementales de tipo iii, los térmi-
o bien: rango A rango At .
nos de la primera columna (ahora ocupados por los
En definitiva: rango A = rango At .
II. MATRICES
204
Una consecuencia: otra
propiedad del rango de un
producto de matrices
Queremos recoger aquí una primera consecuencia de que el rango
de una matriz coincide con el de su traspuesta (§ 203).
Sabemos que el rango de una matriz es igual al de su producto, por la
izquierda, por una matriz cuadrada de rango máximo (cf. § 170, p. 166). Lo
mismo acontece si el producto es por la derecha. En concreto, dada una
matriz B cualquiera, si A es una matriz cuadrada de rango máximo tal que
el producto BA está definido, entonces rango(BA) = rango B.
La prueba es sencilla: teniendo en cuenta la citada igualdad entre el
Recuérdese la traspuesta de
un producto (cf. § 201).
rango de una matriz y el de su traspuesta, podemos escribir:
t
rango(BA) = rango (BA) = rango At B t = rango B t = rango B,
donde hacemos uso de la propiedad recordada en el citado § 170: la matriz B t está multiplicada, por la izquierda, por la matriz At , la cual es cuadrada de rango máximo en tanto lo es A.
El rango de un producto de dos matrices es igual al rango de una de ellas
si la otra es cuadrada de rango máximo.
2. Traza de una matriz
La traza es un número que se define para matrices cuadradas. Vemos en
este apartado su definición y algunas propiedades.
205
Traza de una matriz
En símbolos: si A = aij
cuadrada de orden n:
tr(A) =
n
akk .
k=1
es
Dada una matriz cuadrada, se define la traza de la matriz como la
suma de los términos de la diagonal principal. La traza de una matriz A se
denota así: tr(A).
Por ejemplo, para estas dos matrices cuadradas:
⎛
⎞
1 −2
4
1
1
⎜
⎟
0
6⎠ y B =
A = ⎝0
,
0 −1
2 −3 −5
se tiene: tr(A) = 1 + 0 + (−5) = −4, y tr(B) = 1 + (−1) = 0.
Otro ejemplo. La traza de la matriz identidad de orden 2 es igual a 2:
1 0
= 1 + 1 = 2,
tr(I2 ) = tr
0 1
y en general la traza de la matriz identidad In es igual a n:
⎞
⎛
1 0 ... 0
⎟
⎜
⎜0 1 . . . 0⎟
⎟
⎜
⎟ = 1 + 1 +· · · + 1 = n.
tr(In ) = tr ⎜ . . .
⎜ .. ..
. . ... ⎟ ⎠
⎝
n unos
0 0 ... 1
II.6. TRASPUESTA DE UNA MATRIZ
Traza de una suma y del
producto por un número
tr(A + B) = tr(A) + tr(B)
tr(λA) = λ tr(A)
206
La traza de una suma es igual a la suma de las trazas. Más pre-
cisamente: si A y B son matrices cuadradas del mismo orden, entonces se
cumple que tr(A + B) = tr(A) + tr(B).
También se cumple, si λ es un número,
que tr(λA)
= λ tr(A).
Es fácil verlo. Pongamos: A = aij y B = bij , ambas cuadradas de
orden n. Los términos de la diagonal principal de la matriz suma A + B
son a11 + b11 , a22 + b22 , . . . , ann + bnn . Podemos escribir:
tr(A + B) = (a11 + b11 ) + (a22 + b22 ) + · · · + (ann + bnn )
= (a11 + a22 + · · · + ann ) + (b11 + b22 + · · · + bnn )
= tr(A) + tr(B),
lo que demuestra la primera propiedad. En cuanto a la segunda, podemos a
su vez escribir:
tr(λA) = λa11 + λa22 + · · · + λann = λ(a11 + a22 + · · · + ann ) = λ tr(A).
A modo de ejemplo, podemos tomar estas matrices:
2 −1
−1 0
1
A=
, B=
, A+B =
0
3
1 1
1
−1
4
.
Se tiene: tr(A) = 5, tr(B) = 0, y también: tr(A + B) = 5 = tr(A) + tr(B), de
acuerdo entonces con la primera propiedad. Para dar muestra de la segunda,
fijémonos, verbigracia, en la matriz 3A:
6 −3
tr(3A) = tr
= 15 = 3 tr(A).
0
9
Traza de un producto
207
¿Es la traza de un producto igual al producto de las trazas? No, pero
sí podemos enunciar una propiedad interesante relacionada con la traza de
un producto.
Puede ocurrir que
tr(AB) ≠ tr(A) tr(B).
Cf. § 205.
En general, no se verifica que la traza de un producto AB: tr(AB), sea
igual al producto de las trazas tr(A) y tr(B), ni siquiera aunque las matrices A y B sean cuadradas (y del mismo orden). Lo vemos, por ejemplo,
tomando A = B = In . Por un lado, se tendría: tr(AB) = tr(In In ) = tr(In ) = n;
por otro lado: tr(A) tr(B) = tr(In ) · tr(In ) = n · n = n2 ; en cuanto n 2,
ambos números son distintos: n ≠ n2 .
Si embargo, sí se verifica esta otra propiedad. Nos dan dos matrices A
y B, la primera de orden (n, m) y la segunda de orden (m, n), de forma que
Si los productos AB y BA están
definidos: tr(AB) = tr(BA).
los productos AB y BA están definidos y ambos son matrices cuadradas, el
primero de orden n y el segundo de orden m. Acontece que las trazas de
estas dos matrices cuadradas son iguales; es decir: tr(AB) = tr(BA).
II. MATRICES
De manera similar, llegaríamos a
Veamos ahora la justificación de la propiedad enunciada. Si 1 i n, el término de posición (i, i) del producto AB (el i-ésimo término de la diagonal principal
de AB) es igual a:
m
m n
tr(BA) =
bki aik .
k=1i=1
aik bki .
Y ambas sumas son iguales:
k=1
n m
La traza de AB es la suma de todos estos términos
(son n en total), es decir:
tr(AB) =
aik bki =
i=1k=1
n m
m n
bki aik .
k=1i=1
Nótese que las dos sumas tienen los mismos suman-
aik bki .
dos, pero colocados de distinta manera.
i=1k=1
Como ilustración de esta propiedad, consideremos estas dos matrices:
A=
Por un lado:
AB =
2
1
1
3
−1
0
⎛
1
⎜
y B = ⎝3
0
⎞
0
⎟
−1 ⎠ .
1
5
10
−2
−3
1
0
3
⎞
−1
⎟
−3 ⎠ ,
0
,
y
tr(AB) = 5 − 3 = 2;
por otro lado:
⎛
2
⎜
BA = ⎝ 5
1
y
tr(BA) = 2 + 0 + 0 = 2.
Por si acaso alguien se lo pregunta, queremos comentarlo: en ge-
¿Traza e inversa?
208
Puede ocurrir que
neral, no se cumple que la traza de la inversa de una matriz invertible,
tr(A−1 ) ≠ 1/ tr(A).
Un contraejemplo es un ejemplo que muestra que un enunciado no se cumple.
digamos tr(A−1 ), sea igual al inverso de la traza de la matriz: 1/ tr(A).
La misma matriz identidad In , con n 2, nos sirve de contraejemplo.
−1
Por un lado, el cálculo de tr(In
) nos conduce a tr(In ) = n. Por otro lado,
el cálculo de 1/ tr(In ) nos lleva a 1/n. Los números n y 1/n son distintos
cuando n 2.
Traza del producto de una
matriz por su traspuesta
209
Hay un caso particular de la propiedad del § 207 que es interesante:
cuando nos dan una matriz A cualquiera y consideramos los productos AAt
y At A. Estos dos productos son matrices cuadradas y, de acuerdo con la
propiedad citada, ambos tienen la misma traza: tr(AAt ) = tr(At A).
Pero es más interesante aún el valor de tal traza: es igual a la suma de
los cuadrados de todos los términos de la matriz A (o de la matriz At , que
II.6. TRASPUESTA DE UNA MATRIZ
al fin y al cabo tienen los mismos
términos, solo que colocados de distinta
manera). Si la matriz A = aij es de orden (n, m), podemos escribir:
tr(AAt ) = tr(At A) =
n m
a2ik .
i=1k=1
Recordemos el cálculo de la traza de un producto AB que
en el citado § 207 (para una
ma
realizamos
triz A = aij de orden (n, m) y una matriz B = bij
Si tomamos B = At , entonces bki = aik , y la igualdad
anterior toma la forma:
de orden (m, n)):
tr(AB) =
tr(AAt ) =
n m
aik aik =
i=1k=1
n m
aik bki .
n m
i=1k=1
a2ik .
Así vemos justificada la fórmula dada.
i=1k=1
Para dar un ejemplo de esta propiedad, fijémonos en esta matriz:
2 1 −1
A=
.
1 3
0
Tal suma es:
22 + 12 + (−1)2
+ 12 + 32 + 02 = 16.
¡Anímese el lector a verlo con
el producto At A!
Cuando un producto At A
tiene traza nula
Si tr(AAt ) = 0, o tr(At A) = 0,
entonces A = O.
La suma de los cuadrados de sus términos es igual a 16, y este número se
ve confirmado por otra vía:
⎛
2
2
1
−1
⎜
AAt =
⎝ 1
1 3
0
−1
210
⎞
1
6
⎟
3⎠ =
5
0
5
10
,
y
tr(AAt ) = 16.
La propiedad vista en el § 209, sobre la traza de un producto de la
forma AAt o At A, tiene una consecuencia que queremos resaltar: dada una
matriz A cualquiera, si la traza de AAt , o la de At A (al fin y al cabo ambas
trazas son iguales), es igual a 0, entonces la matriz A es nula.
En efecto. De acuerdo con el citado § 209, la traza del producto AAt es
igual a la suma de los cuadrados de todos los términos de la matriz A. Una
suma de cuadrados es una suma en la que todos los sumandos son mayores
o iguales que 0: si una tal suma es igual a 0, necesariamente todos los
sumandos deben ser a su vez iguales a 0. Todos los términos de la matriz A
son, pues, iguales a 0; es decir, esta matriz es nula.
Una propiedad sobre el rango
de un producto At A
211
Vemos ahora una propiedad del rango de las matrices que se pue-
den escribir como un producto del tipo At A, y de la que haremos uso en el
futuro. Es esta: si una matriz A tiene rango igual al número de columnas
(con lo que el número de filas debe ser mayor o igual que el de columnas, y
la matriz resulta ser de rango máximo), entonces la matriz cuadrada At A es
invertible.
II. MATRICES
Pongamos B = At A; la matriz B resulta ser enton-
(pues tr(O) = 0), pero a un producto de este tipo se le
ces cuadrada, y cuadrada de orden igual al número de
puede aplicar el resultado del § 210, lo que nos lleva a
columnas de la matriz A.
que AX1 = O. Es decir, la matriz columna X1 también
Consideremos los sistemas de ecuaciones lineales
homogéneos cuyas matrices de coeficientes son B y A;
es solución del sistema AX = O.
en notación matricial: BX = O y AX = O, respectiva-
El hecho de que el rango de la matriz A sea igual
mente. Si X1 es una matriz columna que es solución del
al número de sus columnas nos permite asegurar que
el sistema homogéneo AX = O solo admite una solu-
primero de estos sistemas, entonces también es solu-
ción: la nula (cf. § 178, p. 172). De acuerdo con lo
ción del segundo. En efecto. Por ser solución del pri-
probado en el párrafo anterior, con el sistema homogé-
mero, verifica: BX1 = O, o bien At AX1 = O; si en esta
neo BX = O acontece lo mismo: solo admite la solu-
igualdad multiplicamos, por la izquierda, por la matriz
ción nula; de ello se deduce que su matriz de coefi-
(fila) X1t , obtenemos:
cientes debe tener también rango igual al número de
X1t At AX1 = X1t O,
de donde:
t
(AX1 ) (AX1 ) = O
t
columnas (de nuevo, véase el citado § 178). Como la
matriz B = At A es cuadrada, decir que su rango iguala
(nótese que X1t At = (AX1 ) , cf. § 201). La igualdad deducida: (AX1 )t (AX1 ) = O, nos dice en particular que
al número de columnas es decir que es cuadrada de
rango máximo. Esto es (cf. teorema 2, p. 178), la ma-
la traza del producto del primer miembro es igual 0
triz At A es invertible.
Nota
Podemos enunciar un resultado análogo al anterior para matrices cuyo
rango coincide con el número de filas. A saber: si una matriz A tiene rango
igual al número de filas, entonces el producto AAt (que es una matriz cuadrada
de orden igual al número de filas de A) es invertible. Puede probrase aplicando
el resultado anterior a la matriz At y recordando que el rango de esta matriz y
el de la matriz A son iguales (§ 203).
Por otra parte, también se verifica el siguiente resultado, más general que
Puede verse una demostración
en el libro de BARBOLLA y SANZ,
cap. 4.
los probados aquí: dada una matriz A cualquiera, el rango de las matrices A,
AAt y At A es el mismo.
Ejercicios II.6
1
Se consideran estas matrices:
A=
a)
1
2
1
1
0
0
⎛
y
1
⎜
B = ⎝2
0
⎞
0
⎟
1⎠.
1
Calcular, si está definida, la traspuesta de las ma-
trices 3At + 2B, 3A + 2B t y A − B.
b)
Comprobar con estas matrices la propiedad de la
t
traspuesta de un producto: (AB) = B t At .
c)
Calcular la traspuesta de AB y la de (AB)−1 .
d)
Calcular la traza de las matrices AB y BA, la de
las matrices AAt y At A, y también la de BB t y B t B.
2
Realizar lo mismo del ejercicio anterior con estas
matrices:
1
2
0
⎛
y
⎞
−1
⎜
⎟
⎝ 0⎠.
1
II.7. OTROS TEMAS SOBRE MATRICES
II.7 OTROS TEMAS SOBRE MATRICES
En esta sección, recogemos algunos conceptos y métodos relacionados con
matrices que no hemos visto hasta ahora. En primer lugar, vemos las transformaciones elementales por columnas. Después presentamos otras clases
de matrices (verbigracia, simétricas y ortogonales), y también estudiamos
una generalización del concepto de inversa. Finalmente, introducimos brevemente las matrices dadas por bloques.
1. Transformaciones elementales por columnas
Análogas a las transformaciones elementales por filas, existen las transformaciones elementales por columnas. Les dedicamos este apartado.
Tres tipos de
transformaciones elementales
por columnas
212
Como acontece con las transformaciones elementales por filas, tam-
bién hay tres tipos de transformaciones elementales por columnas. En concreto, llamamos transformaciones elementales por columnas a cualquiera
de los tres tipos de transformaciones siguientes, que se ejecutan en matrices:
• Tipo i: intercambiar dos columnas. Si las columnas que se intercambian son la i-ésima y la j-ésima, denotamos esta transformación
así: Ci ↔ Cj . Debe notarse que las otras columnas —las que no se
intercambian— no varían.
• Tipo ii: multiplicar una columna por un número no nulo. Si la columna
que se multiplica por un número no nulo es la i-ésima y el número no
nulo se designa por λ, la transformación se denota: Ci ← λCi . Tras
esta transformación, las restantes columnas quedan inalteradas.
• Tipo iii: sumar a una columna un múltiplo de otra. Si a la columna
i-ésima se le suma un múltiplo de la columna j-ésima (con j ≠ i),
más en concreto, si a la columna i-ésima se le suma la columna j-ésima previamente multiplicada por un número, digamos α (nulo o no),
entonces la transformación se denota: Ci ← Ci + αCj . Esta transformación solo puede alterar la columna a la que se suma el múltiplo de
otra; las otras columnas, incluyendo aquella cuyo múltiplo se calcula,
quedan inalteradas.
Un ejemplo
213
Consideremos esta matriz:
⎛
1
1
⎜
0
⎝ −1
1 −1
0
1
2
⎞
1
⎟
2⎠.
1
II. MATRICES
La transformación elemental, de tipo i, de intercambiar entre sí las columnas segunda y tercera, ejecutada en la matriz dada, tiene este resultado:
⎛
1
⎜
⎝ −1
1
1
0
−1
0
1
2
⎛
⎞
1
1
C
↔C
⎟ 2 3 ⎜
2 ⎠ →
⎝ −1
1
1
0
1
2
⎞
1
⎟
2⎠.
1
1
0
−1
La transformación elemental, ahora de tipo ii, de multiplicar la cuarta
columna por el número no nulo 2 actúa sobre la matriz considerada de esta
manera:
⎛
1
⎜
⎝ −1
1
1
0
−1
0
1
2
⎛
⎞
1
1
⎟ C4 ←2C4 ⎜
2 ⎠ →
⎝ −1
1
1
1
0
−1
0
1
2
⎞
2
⎟
4⎠.
2
Finalmente, la transformación elemental, de tipo iii, de sumar a la primera columna la segunda multiplicada por −1 (o bien: de restar a la primera
columna la segunda), aplicada en la matriz, da como resultado:
⎛
1
⎜
⎝ −1
1
1
0
−1
0
1
2
⎛
⎞
1
0
⎟ C1 ←C1 −C2 ⎜
2 ⎠ →
⎝ −1
1
2
1
0
−1
0
1
2
⎞
1
⎟
2⎠.
1
En esta última transformación, debe observar el lector que la única columna
que cambia es la primera; las demás, incluyendo la segunda, quedan inalteradas. En este aspecto también son análogas las transformaciones elementales por columnas a sus correspondientes del mismo tipo por filas.
Transformaciones
elementales por columnas
inversas
214
También podemos definir el concepto de transformaciones elemen-
tales por columnas inversas, de forma análoga al caso por filas. Más en concreto: dada cualquier transformación elemental por columnas, existe otra
transformación elemental por columnas con la siguiente característica: al
aplicar ambas sucesivamente, en un orden o en el otro, a cualquier matriz
Sobre orden adecuado, véase
nota a pie de página 1, p. 150.
de orden adecuado, se obtiene como resultado la matriz original. Diremos,
en este caso, que cualquiera de ellas es transformación elemental inversa
de la otra (o que ambas son inversas entre sí).
La inversa de una transformación elemental por columnas de tipo i es
ella misma; en concreto: la inversa de la transformación Ci ↔ Cj es justamente Ci ↔ Cj . En cuanto a las transformaciones elementales por columnas de tipo ii, acontece que las transformaciones Ci ← λCi (con λ ≠ 0)
y Ci ← (1/λ)Ci son inversas una de la otra. Y en lo que se refiere a las transformaciones elementales por columnas de tipo iii, se tiene que Ci ← Ci +αCj
y Ci ← Ci − αCj son inversas entre sí. Nos permitirá el lector que le dejemos
la tarea de comprobarlo.
II.7. OTROS TEMAS SOBRE MATRICES
Matrices elementales por
columnas
215
Las matrices elementales asociadas a las transformaciones elemen-
tales por columnas se definen, mutatis mutandis, como las asociadas a las
transformaciones elementales por filas.
En concreto, si m es un número natural, llamaremos matriz elemental
por columnas de orden m asociada a una transformación elemental por
columnas a la matriz que se obtiene al aplicar la transformación elemental
a la matriz identidad de orden m.
Las hay, por supuesto, de los tres tipos, y vemos enseguida un ejemplo
de cada uno. De la misma forma que con las matrices elementales por filas
es cómodo utilizar la notación por filas, ahora es cómodo hacer uso de la
notación por columnas. Para ello, denotamos por E1 , E2 , . . . , las matrices
columna de la matriz identidad.
Los ejemplos son los siguientes. La matriz elemental de orden 3 asociada
a la transformación elemental C2 ↔ C3 se obtiene así:
⎛
⎛
⎞
1
1 0 0
C ↔C ⎜
⎜
⎟
2
3
E1 E3 E2 = ⎝ 0
I3 = ⎝ 0 1 0 ⎠ = E1 E2 E3 →
0
0 0 1
0
0
1
⎞
0
⎟
1⎠.
0
La de orden 2 asociada a la transformación elemental C2 ← 3C2 se obtiene
de esta forma:
I2 = E 1
E2
C2 ←3C2
E1
→
3E2
=
1
0
0
3
.
Y la asociada, esta vez de orden 4, a la transformación C1 ← C1 − C2 queda
finalmente así:
⎛
Efectuar una transformación
elemental por columnas es
como multiplicar, por la
derecha, por su matriz
elemental
Si multiplico una matriz A, por
la derecha, por una matriz B,
hago el producto AB.
216
E1 − E2
E2
E3
1
⎜
⎜ −1
E4 = ⎜
⎜ 0
⎝
0
0
1
0
0
0
0
1
0
⎞
0
⎟
0⎟
⎟.
0⎟
⎠
1
Hay asimismo una relación entre las transformaciones elementales
por columnas y la multiplicación de matrices, en el sentido de que efectuar
una transformación por columnas es equivalente a multiplicar por la matriz
elemental correspondiente. Pero hay una salvedad: ahora, la matriz elemental se multiplica por la derecha, y no por la izquierda como se hace en el caso
de las transformaciones por filas (cf. § 156, p. 155). Más en concreto: ejecutar una transformación elemental por columnas en una matriz es lo mismo
que multiplicarla, por la derecha, por la matriz elemental correspondiente.
La comprobación de esta propiedad es por completo análoga a la vista
en el § 156 para las transformaciones por filas.
II. MATRICES
A modo de ejemplo, consideremos de nuevo la matriz del § 213 y la
transformación elemental C1 ← C1 −C2 ; en este mismo parágrafo obtuvimos:
⎛
⎛
⎞
⎞
1
1 0 1
0
1 0 1
⎜
⎟ C1 ←C1 −C2 ⎜
⎟
0 1 2 ⎠ →
0 1 2⎠.
⎝ −1
⎝ −1
1 −1 2 1
2 −1 2 1
Por otra parte, en el § 215 escribimos la matriz elemental de orden 4 asociada a la transformación C1 ← C1 − C2 ; si multiplicamos la matriz anterior
por esta matriz elemental, en este orden, nos queda:
⎛
⎞
⎛
⎞
⎛
1 0 0 0
⎟
1
1 0 1 ⎜
0
1
⎜
⎟
−1
1
0
0
⎜
⎟
⎟ ⎜
0 1 2⎠ ⎜
0
⎝ −1
⎜ 0 0 1 0 ⎟ = ⎝ −1
⎠
1 −1 2 1 ⎝
2 −1
0 0 0 1
0
1
2
⎞
1
⎟
2⎠ .
1
Apreciamos que llegamos a la misma matriz final tanto con la transformación elemental por columnas como multiplicando, por la derecha, por su
matriz elemental asociada.
Nota bene
Hemos multiplicado, por la derecha, por una matriz elemental de
orden 4, pues son cuatro las columnas de la matriz a la que aplicamos la transformación elemental por columnas.
Dada una matriz de m columnas, se obtiene el mismo resultado llevando a
cabo una transformación elemental por columnas que multiplicando, por
la derecha, por la matriz elemental de orden m asociada a la transformación elemental.
¿También son invertibles las
matrices elementales por
columnas? Sí
217
Como acontece con las matrices elementales por filas (cf. § 157,
p. 156), si multiplicamos dos matrices elementales por columnas del mismo
orden asociadas a transformaciones elementales por columnas inversas, el
producto es la matriz identidad correspondiente. Es decir, si T y T son
las matrices elementales de orden m asociadas a dos transformaciones por
columnas que son inversas una de la otra, entonces T T = T T = Im .
Es finalmente una consecuencia de la propiedad estudiada
en el § 216.
La justificación de esta propiedad es, mutatis mutandis, la misma que la
vista en el citado § 157 para su análoga por filas.
Una consecuencia inmediata es que las matrices elementales por columnas también son invertibles, o lo que es equivalente (cf. teorema 2, p. 178):
de rango máximo. Asimismo, decir que dos matrices elementales por columnas del mismo orden son inversas una de la otra es lo mismo que decir
que las transformaciones elementales por columnas a las que están asociadas son, a su vez, inversas entre sí.
II.7. OTROS TEMAS SOBRE MATRICES
El rango no varía al aplicar
transformaciones elementales
por columnas
218
Las transformaciones elementales por columnas (como las trans-
formaciones por filas, cf. § 164, p. 161) conservan el rango; esto es, si aplicamos una transformación elemental por columnas a una matriz, el rango
de la matriz antes y después de la transformación elemental es el mismo.
En efecto: aplicar una transformación elemental por columnas es equivalente a multiplicar, por la derecha, por la matriz elemental asociada a la
transformación (cf. § 216), pero las matrices elementales son de rango máximo (cf. § 217), y el producto por una matriz cuadrada de rango máximo
conserva el rango (cf. § 204, p. 194).
De esta forma, el rango de una matriz no varía si se intercambian algunas
de sus columnas, o si se multiplica una columna por un número no nulo, o
si se suma a una columna un múltiplo de otra.
Si aplicamos una transformación elemental por columnas a una matriz, la
matriz resultante tiene el mismo rango que la original.
Una observación importante
219
Podría pensar el lector que las transformaciones elementales por
columnas son “equivalentes” a las transformaciones elementales por filas,
en el sentido de que ambas tienen las mismas propiedades sin más que
cambiar filas por columnas, y el producto por la izquierda (de las matrices
elementales) por el producto por la derecha. Básicamente es así, al menos si
no nos salimos del ámbito de las propiedades que hemos visto hasta ahora
en este apartado, las cuales a su vez hacen referencia exclusiva a matrices.
Sin embargo, esta “equivalencia” entre las transformaciones elementales
de un tipo y de otro se rompe en cuanto buscamos las relaciones con los
sistemas de ecuaciones lineales. Hay una propiedad muy importante de las
transformaciones elementales por filas que no tiene análoga para transformaciones elementales por columnas: si en la matriz ampliada de un sistema
de ecuaciones lineales ejecutamos una transformación elemental por filas,
la matriz resultante es la matriz ampliada de un sistema equivalente al original. Bien: si tenemos dos sistemas de ecuaciones lineales cuyas matrices
ampliadas se pueden obtener una de la otra mediante una transformación
elemental por columnas, no acontece necesariamente que los sistemas sean
equivalentes.
Por ejemplo, recordemos el primer sistema de ecuaciones que hemos
visto en este libro; nos referimos al sistema (1) (cf. p. 19):
⎧
⎨ 4x − 2y = 8
⎩ 3x + y = 1,
II. MATRICES
que tiene solución única: el par ordenado (1, −2). Su matriz ampliada es
esta:
=
A
4
3
−2
1
8
1
.
Si intercambiamos las dos primeras columnas de esta matriz, es decir, ejecutamos en ella la transformación elemental C1 ← C2 , obtenemos:
−2 4 8
4 −2 8 C1 ←C2
= B,
→
A=
3
1 1
1 3 1
donde la matriz B es la matriz ampliada de este otro sistema:
⎧
⎨ −2x + 4y = 8
⎩
x + 3y = 1,
¡Anímese el lector a comprobarlo!
Una observación importante
(continuación)
el cual también tiene solución única, pero distinta de la del primer sistema:
el par ordenado (−2, 1). Ambos sistemas no son, pues, equivalentes.
220
Pero los dos sistemas de ecuaciones lineales del ejemplo del § 219
sí tienen algo en común: son ambos del mismo tipo en lo que a su discusión
se refiere (ambos son compatibles determinados). Ello no es casualidad.
Consideremos dos sistemas de ecuaciones lineales tales que la matriz
ampliada de uno es el resultado de ejecutar una transformación elemental
por columnas en la matriz ampliada del otro, pero de forma que no se vea
Si se ve afectada la última columna de la matriz amplliada,
el rango de la matriz de coeficientes podría cambiar.
afectada la última columna (la de los términos independientes). De acuerdo
con el hecho de que el rango se conserva ante transformaciones por columnas (cf. § 218), los rangos de las matrices ampliadas de ambos sistemas son
iguales, y también son iguales los rangos de las matrices de coeficientes.
Como el número de columnas no cambia, se concluye (cf. § 174, p. 168)
que ambos sistemas son de la misma clase en lo que a su discusión se refiere (ambos son incompatibles, o ambos son compatibles determinados, o
ambos son compatibles indeterminados).
De esta forma, dado un sistema de ecuaciones lineales, si solo estamos
interesados en su discusión, podríamos hacer uso de transformaciones elementales por columnas en la matriz ampliada del sistema, con la precaución
de que no afecten a la última columna. Pero si queremos además resolver el
sistema, deberemos poner cuidado en deshacer, en la solución obtenida, las
transformaciones llevadas a cabo. ¿Qué queremos decir con esto? Lo vemos
en el ejemplo del § 219: si resolvemos uno de los sistemas, obtenemos la
solución del otro intercambiando las componentes del par ordenado, pues
un intercambio de columnas se corresponde con un intercambio de incógnitas (cf. § 88, p. 92).
II.7. OTROS TEMAS SOBRE MATRICES
No obstante, en los sistemas de ecuaciones lineales que vemos en este
libro, o más bien: en sus matrices ampliadas, no haremos uso en general
de transformaciones elementales por columnas; ocasionalmente, alguna de
tipo i (intercambio de columnas).
221
Submatrices
Queremos mostrar una aplicación más, especialmente importante,
de las transformaciones elementales por columnas. Ello requiere que veamos lo que es una submatriz de una matriz.
Dada una matriz, una submatriz de ella es una matriz que se obtiene
tras eliminar, en la matriz dada, cierta cantidad de filas y cierta cantidad
de columnas (estas cantidades pueden ser nulas). Más precisamente: dada
Se pueden eliminar solo filas o
solo columnas, pero no todas
las filas o todas las columnas.
una matriz A de orden (n, m), y dados dos números naturales p y q tales
que 0 p n − 1 y 0 q m − 1, al suprimir p filas de A y q columnas
de A, queda una nueva matriz, la cual es de orden (n − p, m − q); de esta
nueva matriz se dice que es una submatriz de la matriz A.
⎛
1/2
⎜
⎝ 3
1
2
1
−7
−2
1
−1
⎞
5
⎟
4⎠
0
Por ejemplo, consideremos estas dos matrices:
⎛
⎞
1/2
2 −2 5
1/2
⎜
⎟
1
1 4⎠ y B =
A=⎝ 3
1
1
−7 −1 0
−2
−1
5
0
.
Acontece que la matriz B es submatriz de la matriz A: de esta hemos obtenido aquella al suprimir la segunda columna y la segunda fila. Las siguientes
Para la segunda:
⎛
1/2
2 −2
⎜
1
1
⎝ 3
1
−7 −1
⎞
5
⎟
4⎠.
0
tres matrices también son submatrices de la matriz A:
⎛
⎞
1/2
1 4
⎜
⎟
−7 .
⎝ 3 ⎠,
y
−7 0
1
Pero esta no es submatriz de la matriz A:
1/2
1
,
1
−1
y no lo es porque los términos de su primera fila no son términos de una
misma fila de A.
En una submatriz, los términos de una fila son términos de una misma
fila de la matriz original, y en el mismo orden en que aparecen en esta. Y lo
mismo con los términos de las columnas.
El rango de una submatriz es
menor o igual que el rango de
la matriz de la que proviene
222
¿Hay alguna relación entre el rango de una matriz y el rango de sus
submatrices? Sí: aquel es mayor o igual que cualquiera de estos. Más en
concreto: si una matriz B es submatriz de una matriz A, entonces se tiene
que rango B rango A.
II. MATRICES
Para verlo, notemos que podemos recuperar una
el § 173, p. 167, cuando vimos el teorema de Rouché–
matriz a partir de una de sus submatrices añadiendo,
Frobenius). En definitiva, al añadir a una matriz una
en primer lugar, columnas adecuadas; y, en segundo
columna, el rango se queda igual o aumenta en 1.
lugar, filas adecuadas.
Veamos qué ocurre si añadimos una columna. A
¿Y si añadimos una fila? Añadir una fila a una matriz se puede realizar así: trasponemos la matriz y
efectos de rango, esta columna podría añadirse al fi-
la fila que queremos añadir (esta se convertirá en co-
nal, pues los intercambios de columnas no cambian el
lumna), añadimos la columna a la traspuesta, y volve-
rango (§ 218). Ahora bien, si una matriz D se obtiene de
mos a trasponer. Añadir una columna deja el rango
una matriz C adjuntado a esta una columna al final de
igual o lo aumenta en 1 (según acabamos de compro-
la matriz, entonces podemos obtener una forma escalo-
bar), y la trasposición de matrices conserva el rango
nada de C eliminando la última columna de una forma
(cf. § 203, p. 192), así que esta lista de tres “operacio-
escalonada de D, lo que nos lleva a tener sendas for-
nes” nos lleva la matriz orginal a otra, con una fila más,
mas escalonadas de C y D, la segunda con los mismos
pivotes que la primera más eventualmente uno nuevo a
que tiene el mismo rango o lo tiene aumentado en 1.
El rango de una submatriz es, pues, menor o igual
cuenta de la última columna (hacíamos algo similar en
que el rango de la matriz de la que procede.
El rango de una matriz es mayor o igual que el rango de sus submatrices.
2. Más tipos de matrices
Aquí damos cuenta de algunos tipos de matrices que antes no hemos citado.
El objetivo de que el lector las conozca, aun sucintamente, porque probablemente se encuentre con ellas en algún momento en sus estudios.
Matriz triangular superior y matriz triangular inferior
Matriz triangular superior
223
Una matriz cuadrada es una matriz triangular superior si todos los
términos que quedan estrictamente “por debajo” de
diagonal principal
la son nulos. Más formalmente: dada una matriz A = aij , cuadrada de orden n, se dice que A es triangular superior si aij = 0 siempre que i > j, y
ello para cada número natural i y cada número natural j entre 1 y n.
Por ejemplo, estas matrices cuadradas son triangulares superiores:
⎛
⎞
1 3
5
a b
⎜
⎟
2⎠, y
para cualesquiera números a, b y c.
⎝0 1
0 c
0 0 −1
Vemos que son nulos los términos que quedan por debajo de la diagonal principal (por ejemplo, en ambas matrices es nulo el término de posición (2, 1): nótese que 2 > 1). Los mismos términos de la diagonal principal,
así como los que quedan por encima de ella, pueden ser nulos o no.
II.7. OTROS TEMAS SOBRE MATRICES
Matriz triangular inferior
224
La idea de matriz triangular inferior es, mutatis mutandis, la misma
que la de triangular superior: una matriz cuadrada es una matriz triangular
inferior si todos los términos que quedan estrictamente “por encima” de
la diagonal principal
son nulos. Escrito de manera más formal: dada una
matriz A = aij , cuadrada de orden n, se dice que A es triangular inferior
si aij = 0 siempre que i < j, para cada número natural i y cada número
natural j comprendidos entre 1 y n.
Verbigracia, estas matrices cuadradas son triangulares inferiores:
⎛
3
⎜
⎝ 2
−1
Algunas propiedades de las
matrices triangulares
225
0
1
2
⎞
0
⎟
0⎠,
4
y
a
b
0
c
para cualesquiera números a, b y c.
Cualquier matriz diagonal (cf. § 113, p. 122) es triangular, tanto
superior como inferior; por ejemplo:
1
0
0
−2
⎛
,
2
⎜
⎝0
0
0
1
0
⎞
0
⎟
0⎠.
4
En particular, cualquier matriz identidad es triangular, superior e inferior.
También lo es cualquier matriz cuadrada nula.
Nótese que si pedimos a una matriz cuadrada que sea triangular superior
e inferior a la vez, entonces la matriz debe ser diagonal.
Por otra parte, si A y B son dos matrices cuadradas del mismo orden que
son triangulares superiores, entonces tanto su suma: A+B, como su producto: AB, son matrices también triangulares superiores. Lo mismo acontece
con el producto por un número: la matriz λA es triangular superior si lo
es A, y ello para cualquier número λ.
La justificación de las propiedades anteriores es sencilla, y puede el lector intentarlas por sí mismo. No es tan fácil la demostración de la última
Puede verse una demostración
en el libro de BARBOLLA y SANZ,
cap. 4.
propiedad que vamos a enunciar: si una matriz cuadrada es triangular superior e invertible, entonces su inversa también es triangular superior.
Las propiedades de los dos párrafos anteriores también se verifican si
sustituimos superior por inferior.
Puede consultarse el libro de
SIMON y BLUME, ch. 8.
Nota
Para que el lector tenga noticia de ello por si es de su interés, comentamos
lo que se llama factorización LU de una matriz: dada una matriz A cuadrada,
bajo ciertas condiciones es posible escribirla como un producto de dos matrices: A = LU, donde la matriz L es triangular inferior con todos los términos de
la diagonal principal iguales a 1, y la matriz U es triangular superior.
II. MATRICES
Matriz simétrica y matriz antisimétrica
Una matriz cuadrada es simétrica si coincide con su traspuesta.
Matriz simétrica
226
La matriz A es simétrica si verifica: At = A.
t
En símbolos: una matriz cuadrada A es simétrica
si A = A. Dicho de otra
forma: una matriz cuadrada, de orden n, A = aij es simétrica si aij = aji
para cada número natural i y cada número natural j comprendidos ambos
entre 1 y n.
Por ejemplo, esta es una matriz simétrica:
⎛
⎞
2 −2 0
⎜
⎟
1 3⎠.
A = ⎝ −2
0
3 1
Para escribir su traspuesta: At , vemos que los términos de la primera fila
de At son los términos de la primera columna de A, que son: 2, −2 y 0; los
términos de la segunda fila de At son los de la segunda columna de A: −2, 1
y 3; y, finalmente, los términos de la tercera fila de At son los de la tercera
columna de A: 0, 3 y 1. En definitiva:
⎛
2 −2
⎜
1
At = ⎝ −2
0
3
⎞
0
⎟
3 ⎠ = A.
1
Otros ejemplos de matriz simétrica los tenemos con cualquier matriz
identidad: Int = In (de hecho, con cualquier matriz diagonal), y con cualquier
matriz cuadrada nula.
Matriz antisimétrica
La matriz A es antisimétrica si
cumple: At = −A.
227
Una matriz cuadrada es antisimétrica si es opuesta a su traspuesta.
t
En símbolos: una matriz cuadrada A es antisimétrica
= −A. En otras
si A
palabras: una matriz cuadrada, de orden n, A = aij es antisimétrica
si aij = −aji para cada número natural i y cada número natural j comprendidos entre 1 y n.
Lo primero que debemos decir es que una matriz antisimétrica tiene
nulos todos sus términos de la diagonal principal. Démonos cuenta de que
la condición aij = −aji , escrita para tales términos, nos lleva a aii = −aii ,
de donde aii = 0 (pues solo el número 0 coincide con su opuesto), y esto
para cada número natural i comprendido entre 1 y n.
Por ejemplo, las siguientes matrices son antisimétricas:
⎛
⎞
0 −3 1
0 3
⎜
⎟
0 4⎠ .
y ⎝ 3
−3 0
−1 −4 0
Una matriz cuadrada nula también es antisimétrica.
II.7. OTROS TEMAS SOBRE MATRICES
Algunas propiedades de las
matrices simétricas y de las
matrices antisimétricas
228
Consideremos dos matrices cuadradas A y B del mismo orden. Si A
es simétrica, su producto por un número: λA (donde λ es un número cualquiera), también es una matriz simétrica. Si ambas matrices A y B son simétricas, también lo es su suma: A + B; y cuando además acontece que las
matrices A y B conmutan (es decir: AB = BA, cf. § 133, p. 135), también es
una matriz simétrica su producto: AB. Más aún: si la matriz A es invertible y simétrica, también su inversa: A−1 , es simétrica. Y estas propiedades
también se cumplen para las matrices antisimétricas.
La justificación de todas las propiedades anteriores es sencilla, y se deja
para el lector (animamos encarecidamente a intentarlo); solo consignaremos
aquí la prueba de la última. Si la matriz cuadrada A es invertible, entonces A−1 A = I (donde I designa la matriz identidad del mismo orden que A),
y tomando traspuestas:
t
t
t
I = (A−1 A) = At (A−1 ) = A(A−1) ,
donde hemos hecho uso de la traspuesta de un producto (cf. § 201, p. 191)
t
La igualdad en el otro orden,
t
es decir: I = (A−1 ) A, se obtendría de forma análoga.
y del hecho de que I y A son simétricas. La igualdad obtenida: I = A(A−1) ,
establece que las matrices A y
t
t
(A−1 )
son inversas una de la otra; es de-
cir: A−1 = (A−1 ) . La matriz A−1 es, pues, simétrica. Prueba análoga tendríamos para el caso de matriz antisimétrica.
Descomposición de una
matriz como suma de una
matriz simétrica y de una
antisimétrica
229
Es posible escribir cualquier matriz cuadrada como suma de una
matriz simétrica y de una matriz antisimétrica, y ello además de forma
única. Más en concreto, dada una matriz cuadrada A cualquiera, existen
dos únicas (únicas para A) matrices S y T tales que A = S + T , siendo S
simétrica y T antisimétrica. Estas dos matrices S y T vienen dadas por
S=
Parte simétrica y parte
antisimétrica.
1
(A + At ) y
2
T =
1
(A − At ).
2
(12)
Las matrices S y T reciben el nombre, respetivamente, de parte simétrica y
parte antisimétrica de la matriz A.
Para justificar la anterior propiedad, nótese en primer lugar que las matrices S y T son, respectivamente, simétrica y antismétrica:
Hacemos uso de las propiedades de los § 198 (p. 189) y 200
(p. 190).
St =
1
t
1 t
1
t
(A + At ) =
A + (At ) = (At + A) = S,
2
2
2
y análogamente con T . Por otra parte, si en la igualdad A = S + T trasponemos, haciendo uso de que S es simétrica y T es antisimétrica, nos queda: At = S t + T t = S − T , con lo que tenemos un sistema de dos ecuaciones
II. MATRICES
en las “incógnitas” S y T :
⎧
⎨S + T = A
⎩ S − T = At .
Al resolverlo (tiene solución única), obtenemos para S y T las expresiones
escritas en (12).
Por ejemplo, para la matriz cuadrada
1
2
,
1 −3
su parte simétrica y su parte antisimétrica son, respectivamente:
1
3/2
0
1/2
y
.
3/2 −3
−1/2
0
Animamos al lector a llevar a cabo la comprobación.
Matriz ortogonal
Matriz ortogonal
La matriz A es ortogonal si verifica: AAt = At A = In . Se tiene:
A es ortogonal
A−1 = At .
230
Una matriz cuadrada es ortogonal si el producto con su traspuesta,
tanto en un orden como en el otro, es igual a la matriz identidad correspondiente. En símbolos: una matriz A, cuadrada de orden n, es ortogonal
si AAt = At A = In . Dicho de forma equivalente: una matriz cuadrada A es
ortogonal si es invertible y su inversa coincide con su traspuesta: A−1 = At .
La propia matriz identidad In es el ejemplo más sencillo de matriz or-
−1
togonal, pues In Int = Int In = In , o de forma equivalente: In
= Int . Por otra
parte, es obvio que una matriz cuadrada nula no es ortogonal.
Por poner otros ejemplos menos inmediatos que una matriz identidad,
las siguientes matrices también son ortogonales:
√ ⎞
⎛√
⎛
2
⎜ 2
√ 2/3
⎟
1
2 1
2 ⎟
⎜ 2
⎜
⎟
1/3
=⎜√
,
y
⎝
√ ⎠
⎝ 2
1 −1
2
2
2/3
−
2
2
−2/3
2/3
1/3
⎞
1/3
⎟
2/3 ⎠ .
−2/3
Dejamos al lector la tarea de comprobar que el producto de cada una de ellas
por su traspuesta, tanto en un orden como en el otro, tiene como resultado
la matriz identidad correspondiente.
Algunas propiedades de las
matrices ortogonales
231
Las matrices ortogonales se “comportan bien” con la multiplicación
de matrices, pero no con la adición ni con la multiplicación por un número.
Queremos decir: dadas dos matrices A y B, cuadradas del mismo orden,
si ambas son ortogonales, entonces también es ortogonal el producto AB
II.7. OTROS TEMAS SOBRE MATRICES
(y el BA), pero no lo es necesariamente la suma A + B, ni tampoco el producto λA (por un número λ).
Para justificar la propiedad del producto, nótese que si A y B son matrices cuadradas del mismo orden y ortogonales, denotando por I la matriz
Se usa la traspuesta de un producto (cf. § 201, p. 191), y el
hecho de que A y B son ortogonales.
identidad del mismo orden que ellas, podemos escribir:
t
(AB)(AB) = (AB)(B t At ) = A(BB t )At = A IAt = AAt = I,
y análogamente para el producto en el otro orden. Como el producto de la
matriz AB por su traspuesta es igual a la matriz identidad (y ello tanto en
un orden como en el otro), se concluye que la matriz AB es ortogonal.
Las matrices ortogonales también se comportan bien con la inversión
de matrices, en el sentido siguiente. Toda matriz ortogonal —ya lo hemos
dicho— es invertible; bien, acontece que la inversa de una matriz ortogonal
es, a su vez, ortogonal. En efecto: si A es una matriz cuadrada invertible
Recordemos: traspuesta de la
inversa (cf. § 202, p. 191), y
también inversa de un producto (cf. § 183, p. 176). Asimismo se hace uso del hecho
de que A es ortogonal.
que es ortogonal, entonces:
t
−1
A−1 (A−1 ) = A−1 (At )
−1
= (At A)
= I −1 = I,
donde I designa la matriz identidad correspondiente; y análogamente para
t
el producto en el otro orden: (A−1 ) A−1.
Matriz idempotente y matriz nilpotente
Matriz idempotente
La matriz A es idempotente si
verifica: A2 = A.
232
Una matriz cuadrada es idempotente si el producto por sí misma
es igual a ella misma. En símbolos: una matriz cuadrada A es idempotente
si AA = A (o bien: A2 = A).
Una matriz identidad o una matriz cuadrada nula claramente son idem2 = I y O2 = O. Otros ejemplos de matrices idempotentes son
potentes: In
n
estos:
5
−5
4
−4
,
y
0
0
b
1
para cualquier número b.
Para cada una de estas matrices, el lector puede comprobar que el cuadrado
de la matriz devuelve la matriz misma.
Algunas proopiedades de las
matrices idempotentes
233
Dadas dos matrices A y B, cuadradas del mismo orden, si ambas
matrices son idempotentes y conmutan (esto es: AB = BA), entonces el producto AB es también idempotente. La comprobación es simple:
(AB)2 = (AB)(AB) = A(BA)B = A(AB)B = (AA)(BB) = AB.
II. MATRICES
Otra propiedad interesante es esta: la única matriz idempotente que es
regular (o lo que es equivalente: invertible) es la matriz identidad. En efecto,
si A es una matriz cuadrada regular que es idempotente, podemos escribir:
Aquí, la letra I designa la matriz identidad del mismo orden que A.
A = AI = A(AA−1) = (AA)A−1 = AA−1 = I,
donde hemos hecho uso de que A es invertible: AA−1 = I, y por supuesto
del hecho de que es idempotente.
Finalmente, añadir que la traspuesta de una matriz idempotente es también idempotente. Dejamos al lector la comprobación.
Puede consultarse el libro de
BARBOLLA y SANZ, cap. 8.
Matriz nilpotente
La matriz A es nilpotente si verifica: A2 = O.
Nota
Hay una propiedad curiosa de las matrices idempotentes: su rango coin-
cide con su traza. Es decir, si A es idempotente, entonces rango(A) = tr(A).
Desgraciadamente, no estamos en disposición de demostrarla aquí.
234
Una matriz cuadrada es nilpotente si el producto por sí misma es
igual a la matriz nula correspondiente. En símbolos: una matriz cuadrada A
es nilpotente si AA = O (o bien: A2 = O).
Obviamente, una matriz cuadrada nula es nilpotente: O2 = O, pero hay
otras matrices, no nulas, que también lo son; por ejemplo:
¡Compruébelo el lector!
1
1
−1
−1
,
y
0
0
b
0
para cualquier número b.
Comentamos una sola propiedad de las matrices nilpotentes: una matriz
Y otra propiedad más: también acontece que si A es nilpotente, entonces At es nilpotente.
nilpotente es singular (equivalentemente: no es invertible). Para verlo, solo
fijarse en esto: si una matriz nilpotente A fuera regular (es decir, de rango
máximo), entonces el rango del producto AA sería el mismo que el de A
(cf. § 170, p. 166), pero rango(AA) = rango(O) = 0, en contradicción con
que A tiene rango máximo; debe aceptarse, pues, que A no es regular.
3. Inversa por la izquierda e inversa por la derecha
En este apartado, estudiamos una generalización del concepto de inversa de
una matriz que es aplicable a matrices no necesariamente cuadradas.
Inversa por la izquierda
Inversa por la izquierda
235
Sabemos que una matriz cuadrada A es invertible precisamente si
existe una matriz B, del mismo orden, tal que AB = I y BA = I (donde I es la
matriz identidad del mismo orden que A y B). Vamos a estudiar ahora qué
II.7. OTROS TEMAS SOBRE MATRICES
ocurre si a la matriz A no le exigimos que sea necesariamente cuadrada y a
la matriz B solamente le exigimos la igualdad BA = I.
Dada una matriz A de orden (n, m), una inversa por la izquierda de la
matriz A es una matriz B de orden (m, n) tal que el producto BA es igual a
la matriz identidad Im : BA = Im .
Por ejemplo, consideremos estas matrices:
⎛
1
⎜
A = ⎝2
1
⎞
1
⎟
−1 ⎠
0
y
B=
0
0
0
−1
1
2
.
La matriz B es una inversa por la izquierda de la matriz A: esta es de orden (3, 2), aquella de orden (2, 3), y se tiene:
BA =
¿Cómo son las matrices que
admiten inversa por la
izquierda?
236
0
0
0
−1
1
2
⎛
1
⎜
⎝2
1
⎞
1
1
⎟
−1 ⎠ =
0
0
0
1
= I2 .
Sabemos cómo son las matrices invertibles (vimos que son las re-
gulares, es decir, las de rango máximo: cf. teorema 2, p. 178); nos gustaría
también saber cómo son las matrices que admiten inversa por la izquierda.
La respuesta es esta: las matrices que admiten inversa por la izquierda son
precisamente las que tienen rango igual al número de columnas.
Para demostrar el resultado, debemos demostrar a
su vez dos enunciados. Primero: si una matriz admite
pues BA = Im . Es decir: el sistema AX = O solo tiene
una solución: la nula. Cuando un sistema homogéneo
inversa por la izquierda, entonces su rango coincide
solo admite la solución nula, el rango de su matriz de
con el número de columnas. Segundo: si el rango de
coeficientes es igual al número de columnas (cf. § 178,
una matriz coincide con el número de columnas, en-
p. 172). Es decir: rango A = m.
tonces la matriz admite inversa por la izquierda.
Empecemos con el primero. Consideremos una matriz A de orden (n, m), y supongamos que admite una
inversa por la izquierda B. Es decir, B es una matriz de
orden (m, n) tal que BA = Im . Probemos que el rango
de la matriz A es igual a m. Consideremos para ello el
sistema de ecuaciones lineales homogéneo cuya matriz
de coeficientes es A; en notación matricial: AX = O. Si
una matriz columna X1 es solución de este sistema, es
decir, si AX1 = O, entonces (multiplicando, por la izquierda, por la matriz B): BAX1 = O, de donde: X1 = O,
Y ahora el segundo. Supongamos que la matriz A
de orden (n, m) tiene rango igual al número de columnas, y probemos que admite inversa por la izquierda.
Como el rango de A es igual al número de columnas, la
matriz cuadrada At A es invertible (cf. § 211, p. 197), y
−1
está bien definida la matriz B = (At A)
At . Acontece
que esta matriz B es una inversa por la izquierda de A.
En efecto, es de orden (m, n), y el producto BA es:
−1
−1 (At A) = Im .
BA = (AtA) At A = (At A)
Y esto termina la demostración.
II. MATRICES
La matriz A del § 235 tiene rango igual al número de columnas:
⎛
⎛
⎛
⎞
⎞
⎞
F2 ←F2 −2F1
1
1
1
1
1
1
⎜
⎟
⎟ F3 ←F3 −(1/3)F2 ⎜
⎟ F3 ←F3 −F1 ⎜
⎝ 0 −3 ⎠ →
⎝ 0 −3 ⎠ .
A = ⎝ 2 −1 ⎠ →
0
0
0 −1
1
0
lo que confirma el resultado anterior, pues ya le conocemos una inversa por
la izquierda a la matriz A (la matriz B del citado § 235).
Una condición necesaria y suficiente para que una matriz admita inversa
por la izquierda es que su rango sea igual al número de columnas.
¿Unicidad de la inversa por la
izquierda de una matriz?
Cuando la matriz es
cuadrada, sí
237
En la demostración del resultado del § 236, se sugiere una expre-
sión para una inversa por la izquierda de una matriz A que cumple que su
−1
rango es igual al número de columnas; esta: (At A)
At . Si, acordes con ella,
calculamos una inversa por la izquierda de la matriz A del § 235, nos queda:
t
−1
(A A)
¡Por favor, compruebe el lector estas operaciones!
1
A =
11
t
3
7
3
−4
2
1
,
pero esta matriz es distinta de la inversa B que ya conocemos (del citado
§ 235). Es decir, la inversa por la izquierda de esta matriz A no es única.
Hay un caso particular en el que sí tenemos unicidad de la inversa por
la izquierda de una matriz: cuando esta es cuadrada. Lo vemos. Dada
¡Ojo! Siendo la matriz A invertible, si BA = I, entonces:
B = BI = B(AA−1 )
una matriz A que admite una inversa por la izquierda B, si A es cuadrada,
entonces la condición de que su rango es igual al número de columnas se
traduce en que A es cuadrada de rango máximo, y por tanto invertible. Pero
= (BA)A−1
si A es invertible, la igualdad BA = I (donde I es la matriz identidad, del
= IA−1 = A−1 .
mismo orden que A —y que B—) implica que B = A−1 , en virtud de que la
inversa (nos referimos a la inversa que conocemos desde páginas atrás) sí es
También, si A es invertible:
−1
(At A)
At = A−1 (At )
−1
At
= A−1 I = A−1 .
Forma de obtener más
inversas por la izquierda
única. Es decir: si una matriz cuadrada A admite inversa por la izquierda,
entonces A es invertible, su inversa por la izquierda es única, y esta coincide
justamente con la inversa que ya conocemos: A−1 .
238
Dada una matriz de la cual sabemos que admite inversa por la iz-
quierda (por coincidir su rango con el número de columnas, § 236), ¿hay
alguna forma de obtener todas sus inversas por la izquierda? Viene en nues-
¿Y cómo concemos una inversa por la izquierda? Si no nos
la dan, la calculamos con la
−1
fórmula (At A) At (§ 237).
La matriz D resulta, en general, distinta para cada inversa.
tro auxilio un resultado que nos da todas las inversas por la izquierda de
una matriz cuando ya conocemos una.
Si una matriz A admite una inversa por la izquierda B, entonces todas
las inversas por la izquierda de A se pueden escribir de esta forma:
B + D − DAB
para alguna matriz D (del mismo orden que B).
II.7. OTROS TEMAS SOBRE MATRICES
En toda esta demostración, denotamos por I la ma-
de matrices y del hecho de que B es una inversa por la
triz identidad del mismo orden que el número de co-
izquierda de A: BA = I).
lumnas de A (y que el número de filas de B).
Y, en segundo lugar, debemos comprobar esto otro:
Para demostrar el resultado, en primer lugar, debemos comprobar que la expresión B + D − DAB nos pro-
si B es otra inversa por la izquierda de A, entonces B coincide con la matriz B + D − DAB para alguna ma-
porciona una inversa por la izquierda de la matriz A
triz D. Esto lo conseguimos justamente para D = B −B.
cualquiera que sea la matriz D (del mismo orden que B).
En efecto, si sustituimos D por B − B en la expre-
Para ello basta multiplicar las matrices B + D − DAB
sión B + D − DAB, obtenemos como resultado B :
y A (en este orden) y ver que se obtiene la matriz iden-
B + D − DAB = B + (B − B) − (B − B)AB
tidad I:
= B − B AB + BAB
(B + D − DAB)A = BA + DA − (DAB)A
= B − IB + IB = B = BA + DA − (DA)(BA)
(de nuevo hacemos uso de las propiedades de la mul-
= I + DA − (DA)I = I
tiplicación de matrices, y también de que B y B son
inversas por la izquierda de A: BA = B A = I).
(hacemos uso de las propiedades de la multiplicación
Nota bene
Si la matriz A es cuadrada, la expresión B + D − DAB se reduce a A−1
cualquiera que sea la matriz D. En efecto: en este caso, la matriz A es invertible,
y B = A−1 (§ 237), de donde:
B + D − DAB = A−1 + D − DAA−1 = A−1 + D − DI = A−1 .
Ello confirma lo afirmado en el § 237.
Como ejemplo, calculemos todas las inversas por la izquierda de la matriz A del § 235, a partir de la que ya le conocemos de este mismo parágrafo: B. Recordemos:
⎛
1
⎜
A = ⎝2
1
⎞
1
⎟
−1 ⎠
0
y
B=
0
0
0
−1
1
2
.
Todas las inversas por la izquierda de A son de la forma B + D − DAB para
alguna matriz D de orden (2, 3) (el mismo que el de B). Consideramos una
matriz genérica D, digamos:
D=
a
b
x
y
u
v
,
(13)
y sustituimos cada matriz de la expresión B + D − DAB por su valor:
⎛
⎞
1
1 0
0 1
a x u
a x u ⎜
0 1
⎟ 0
+
−
.
⎝ 2 −1 ⎠
0 −1 2
b y v
b y v
0 −1 2
1
0
II. MATRICES
¡Por favor, que el lector no deje de hacerlo por su cuenta!
Tras las operaciones oportunas, llegamos a esta matriz:
a
b
a
b−1
1 − 3a
2 − 3b
,
(14)
lo que nos permite concluir: todas las inversas por la izquierda de la matriz A son todas las matrices de la forma (14) con a y b números cualesquiera.
Nótese que la misma inversa por la izquierda B se obtiene de la matriz
escrita en (14) con a = b = 0. Y la inversa por la izquierda que calculamos
en el § 237 resulta con a = 3/11 y b = 7/11.
Nota bene
La expresión B + D − DAB nos da la propia matriz B cuando D = O,
por eso obtenemos B como un caso particular de la matriz escrita en (14) justamente para el valor nulo de los parámetros a y b.
Inversa por la derecha
Inversa por la derecha
239
Estudiamos ahora qué ocurre cuando, dada una matriz A (no nece-
sariamente cuadrada), buscamos una matriz C tal que AC = I.
Dada una matriz A de orden (n, m), una inversa por la derecha de la
matriz A es una matriz C de orden (m, n) tal que el producto AC es igual a
la matriz identidad In : AC = In .
Por ejemplo, dadas estas dos matrices:
A=
1
−1
0
1
1
0
⎛
y
0
⎜
C = ⎝0
1
⎞
0
⎟
1⎠
0
acontece que la matriz C es una inversa por la derecha de la matriz A, pues
AC =
Nota bene
1
−1
0
1
1
0
⎛
0
⎜
⎝0
1
240
0
1
= I2 .
Observe el lector que también podemos decir que la matriz A es una
inversa por la izquierda de la matriz C.
Una primera propiedad
⎞
0
1
⎟
1⎠ =
0
0
Un primer resultado importante es este: afirmar que una matriz es
inversa por la derecha de otra es equivalente a afirmar que la traspuesta de
la primera matriz es inversa por la izquierda de la traspuesta de la segunda
matriz. En símbolos: afirmar que una matriz C es una inversa por la derecha
II.7. OTROS TEMAS SOBRE MATRICES
de una matriz A es lo mismo que afirmar que la matriz C t es una inversa
por la izquierda de la matriz At .
Es una consecuencia de trasponer en la igualdad AC = I (donde I es
la matriz identidad de orden el número de filas de A); al hacerlo, obtenemos: (AC)t = I t , o bien: C t At = I. De esta forma, si C es una inversa por
la derecha de A, es decir: AC = I, entonces C t At = I, esto es: C t es una
inversa por la izquierda de At . Y también el recíproco: si C t es una inversa
por la izquierda de At , o lo que es lo mismo: C t At = I, entonces AC = I, que
significa afirmar que C es una inversa por la derecha de A.
Tenemos entonces un ejemplo de inversa por la derecha con las traspuestas de las matrices vistas en el § 235:
1
1
2
−1
1
0
⎛
y
0
⎜
⎝0
1
⎞
0
⎟
−1 ⎠ .
2
La segunda es inversa por la derecha de la primera. El lector puede comprobar que su producto, en el mismo orden en que acabamos de escribirlas, es
igual a la matriz identidad I2 .
¿Cómo son las matrices que
admiten inversa por la
derecha?
241
Nos preguntamos ahora: ¿cómo son las matrices que admiten inver-
sa por la derecha? De acuerdo con el resultado del § 240, una inversa por
la derecha de una matriz es inversa por la izquierda de su traspuesta, y viceversa. También vimos, en el § 236, que las matrices que admiten inversa
por la izquierda son precisamente las que tienen rango igual al número de
columnas. Como el rango de una matriz es igual al rango de su traspuesta
(cf. § 203, p. 192), y lo que en una matriz son filas en su traspuesta son columnas, podemos concluir: las matrices que admiten inversa por la derecha
son precisamente aquellas cuyo rango coincide con el número de filas.
Podemos ver confirmado este resultado en la matriz A del ejemplo del
§ 239, pues su rango coincide efectivamente con el número de filas:
1 0 1 F2 ←F2 +F1
1 0 1
A=
→
.
−1 1 0
0 1 1
Una condición necesaria y suficiente para que una matriz admita inversa
por la derecha es que su rango sea igual al número de filas.
¿Cómo obtener todas las
inversas por la derecha?
242
Podríamos enunciar resultados para las inversas por la derecha de
una matriz similares a los vistos para la inversa por la izquierda en los § 237
y 238 (los cuales nos permiten, dada una matriz, buscarle una inversa por
II. MATRICES
Recuérdese que la inversa por
la izquierda de una matriz es
única si la matriz es cuadrada
(§ 237).
la izquierda —que puede ser única— y, a partir de ella, encontrar todas las
demás). Pero no lo vamos a hacer, con el fin de no recargar la exposición; en
cambio, sí vamos a aprovechar la relación, vía la trasposición de matrices,
que entre las inversas de un tipo y las del otro hemos visto en el § 240.
Nota bene
Acontece lo siguiente: si una matriz cuadrada admite inversa por
la derecha, entonces es invertible, su inversa por la derecha es única, y esta
coincide con la inversa de la matriz.
Si le dan al lector una matriz que admite inversas por la derecha (porque
su rango es igual al número de filas), proponemos entonces que la trasponga, y que a esta traspuesta le busque todas las inversas por la izquierda; las
traspuestas de estas serán las inversas por la derecha de la matriz.
Por ejemplo, busquemos todas las inversas por la derecha de la matriz A
del ejemplo del § 239, de la cual ya conocemos una: la matriz C, también
vista en este mismo lugar:
A=
1
−1
0
1
1
0
⎛
y
0
⎜
C = ⎝0
1
⎞
0
⎟
1⎠.
0
Para ello, buscamos las inversas por la izquierda de la matriz At , sabiendo
que ya tenemos una, precisamente C t . De acuerdo con el citado § 238, todas
Si en B + D − DAB (§ 238)
escribimos At y C t en el lugar de A y B, respectivamente,
nos queda: C t + D − DAt C t .
⎛
⎞
1 −1
⎜
⎟
t
1⎠
A = ⎝0
1
0
0 0 1
Ct =
0 1 0
las inversas por la izquierda de At son las matrices que se pueden escribir
de la forma C t + D − DAt C t para alguna matriz D (del mismo orden que C t ).
Si escribimos la matriz genérica D como en (13), la expresión C t + D − DAt C t
se concreta así:
0
0
0
1
1
0
+
a
b
x
y
u
v
lo cual tiene como resultado:
¿Le coincide al lector con sus
propios cálculos?
a
b
−
a
b
a
1+b
x
y
u
v
1−a
−b
⎛
1
⎜
⎝0
1
⎞
−1 ⎟ 0
1⎠
0
0
0
1
1
0
,
.
Esta es la expresión genérica de todas las inversas por la izquierda de la
matriz At (es decir, toda inversa por la izquierda de At es de esta forma para
algunos números a y b). Para terminar, solo nos resta trasponer. Todas las
inversas por la derecha de la matriz A son, pues, las matrices de esta forma:
¡Por favor, compruébese que
el producto de A por esta matriz (en este orden) es igual a
la identidad I2 !
⎛
a
⎜
⎝ a
1−a
⎞
b
⎟
1 + b⎠,
−b
donde a y b son números cualesquiera.
II.7. OTROS TEMAS SOBRE MATRICES
4. Matrices dadas por bloques
Vemos ahora las matrices dadas por bloques, o matrices particionadas, que
son útiles en variados contextos. No vamos a ver una suerte de teoría general, sino solo alguno de los casos particulares más relevantes.
Matriz dada por bloques (o
matriz particionada)
243
A veces, para agilizar ciertas operaciones, o simplemente para fa-
cilitar la presentación, es útil escribir una matriz partida en bloques, cada
uno de los cuales es una submatriz de la matriz. Más precisamente, una
matriz dada por bloques, o una matriz particionada, es una matriz en la
que se han distinguido ciertas submatrices trazando alguna o algunas rayas
horizontales o verticales (o de ambos tipos simultáneamente), las cuales se
extienden a lo largo de filas o columnas enteras.
Por ejemplo, consideremos esta matriz:
⎛
1 2 −1 0
⎜
⎜0 0
3 0
A=⎜
⎜0 0
1 0
⎝
0 0
3 2
Admite, entre
⎛
1 2 −1
⎜
⎜0 0
3
⎜
⎜
⎜0 0
1
⎝
0 0
3
⎞
0
⎟
0⎟
⎟.
0⎟
⎠
7
otras muchas, estas particiones o escrituras por bloques:
⎛
⎞
⎞
⎞
⎛
1 2 −1 0 0
0 0
−1
0
0
1
2
⎜
⎟
⎟
⎟
⎜
⎜0 0
3 0 0⎟
0 0⎟
⎜0 0
3 0 0⎟
⎜
⎟
⎟
⎟
⎜
⎟.
⎟, ⎜
⎟, o ⎜
⎜
0
0
1
0
0
⎟
⎟
1
0
0
0
0
0 0⎠
⎠
⎝
⎝
⎠
3
2
7
0
0
0 0
3 2 7
2 7
Vemos en los tres casos que las rayas separadoras se extienden a lo largo
de toda su fila o columna. Para la primera de estas particiones (por fijarnos
en una), si consideramos las siguientes matrices (que son submatrices de la
matriz A):
A11 =
1
0
A21 =
2
0
0
0
podríamos a su vez escribir:
⎞
⎛
⎜ A11 A12 ⎟
A=⎝
⎠,
A21 A22
−1
3
0
0
1
3
,
A12 =
0
0
,
A22 =
0
0
0
2
⎛
0
7
= O,
⎜ A11
o también: A = ⎝
A21
,
⎞
O ⎟
⎠,
A22
que es otra forma de presentar las matrices particionadas. Es decir, se escribe indistintamente la submatriz que forma cada bloque (con todos sus
II. MATRICES
términos) o la letra que la designa. A veces, en este último caso —cuando se
escriben las letras que denotan las submatrices en vez de las submatrices
mismas—, se puede juzgar oportuno eliminar las rayas horizontales y verticales separadoras para no recargar la notación, y siempre que no dé lugar
a confusión. En el ejemplo de la matriz A que venimos considerando:
⎛
⎞
⎛
⎞
A11 A12
A11
O
⎝
⎠
⎝
⎠.
A=
, o también: A =
A21 A22
A21 A22
También se considera esta notación una forma de presentar la matriz por
bloques, pues sus “elementos” también son, en definitiva, matrices.
244
Más ejemplos
Observe el lector que la notación por filas (cf. § 118, p. 125) o la
notación por columnas (cf. § 117, p. 124) de una matriz son ejemplos de
Algo como
A
In .
matrices dadas por bloques. También lo es el par de matrices yuxtapuestas
que escribíamos para calcular en la práctica la inversa de una matriz (véase,
por ejemplo, el § 190, p. 183). E incluso la matriz ampliada de un sistema
de ecuaciones lineales.
Cf. § 77, p. 80.
Si n = r y m > r :
Ir
B .
Nótese también que una matriz escalonada reducida de orden (n, m),
con rango igual a r y con sus r pivotes en las primeras columnas, puede
escribirse por bloques así:
Ir
O
B
O
,
Si m = r y n > r :
⎛ ⎞
Ir
⎝ ⎠.
O
para alguna matriz B de orden (r , m − r ) (cuyos términos pueden ser nulos
Si m = n = r , la matriz escalonada reducida es Ir .
ción” (2, 1)— es de orden (n − r , r ); la segunda, de orden (n − r , m − r ).
Matriz diagonal por bloques
o no). Debe fijarse el lector en que las dos matrices nulas escritas no son
necesariamente del mismo orden: la primera —digamos que la de “posi-
245
El lector se puede encontrar en algún momento de sus estudios con
lo que se llama una matriz diagonal por bloques; es una matriz cuadrada
que se puede particionar de esta manera:
⎛
O
...
A11
⎜
⎜ O
.
..
A
22
⎜
⎜ .
.
.
⎜ ..
..
..
⎝
O
O
...
⎞
O
⎟
O ⎟
⎟
,
.. ⎟
. ⎟
⎠
Ann
donde los bloques A11 , A22, . . . , Ann son a su vez matrices cuadradas (no necesariamente del mismo orden), y cada bloque fuera de la diagonal principal
es una matriz nula (es decir, Aij = O si i ≠ j, y ello para cada número natural i y cada número natural j entre 1 y n). Esta matriz tiene n · n = n2 bloques, pero no es cuadrada de orden n a no ser que todos los bloques sean
II.7. OTROS TEMAS SOBRE MATRICES
matrices de un solo término. El orden de esta matriz cuadrada es la suma
de los órdenes de las matrices cuadradas A11 , A22, . . . , Ann .
Por ejemplo, si definimos:
A11 =
1
2
−1
4
⎛
,
A22
−1
⎜
=⎝ 1
0
0
1
0
⎞
1
⎟
2⎠
1
la siguiente matriz es diagonal por bloques:
⎛
0
1 −1
⎜
⎜2
4
0
⎛
⎞ ⎜
⎜
O
O
A11
⎜0
0 −1
⎜
⎟ ⎜
⎜ O
⎟=⎜
A
O
1
0
0
⎜
22
⎝
⎠ ⎜
⎜0
0
0
O
O
A33
⎜
⎜
⎜0
0
0
⎝
0
0
0
2+3+2
y
A33 =
0
0
0
0
0
0
0
1
1
2
0
0
0
1
0
0
0
0
0
0
1
0
1
0
1
0
,
⎞
⎟
0⎟
⎟
⎟
0⎟
⎟
⎟
0⎟.
⎟
0⎟
⎟
⎟
1⎟
⎠
0
Tiene nueve bloques, es cuadrada de orden 7, y 7 es la suma de los órdenes
de las matrices cuadradas A11, A22 y A33 .
Nota bene
Los bloques nulos de una matriz diagonal por bloques no son nece-
sariamente matrices cuadradas. Lo son si los bloques de la diagonal principal
(que sabemos son matrices cuadradas) son todos del mismo orden.
Adición, y multiplicación por
un número, de matrices
dadas por bloques
246
Podemos sumar fácilmente dos matrices dadas por bloques en tanto
tengan la misma estructura de bloques. Por ejemplo, las matrices
⎞
⎛
⎞
⎛
B11 B12
A11 A12
⎠
⎝
⎠,
⎝
y B=
A=
A21 A22
B21 B22
ambas con la misma distribución de bloques, se pueden sumar si los bloques
correspondientes son matrices del mismo orden (es decir, si A11 y B11 son
del mismo orden, si A12 y B12 también son del mismo orden, etc.). En este
caso, la suma se efectúa, formalmente, como si los bloques fueran términos
individuales de cada matriz:
⎛
⎞ ⎛
A11 A12
B
⎠ + ⎝ 11
A+B =⎝
A21 A22
B21
B12
B22
⎞
⎛
⎠=⎝
A11 + B11
A12 + B12
A21 + B21
A22 + B22
⎞
⎠.
El producto de una matriz dada por bloques por un número es más fácil
todavía. Por ejemplo, si λ es un número:
⎛
⎞ A11 A12
⎠ = λA11
λA = ⎝
λA21
A21 A22
λA12
λA22
.
II. MATRICES
Multiplicación de matrices
dadas por bloques
247
De manera similar a como ocurre con la adición, el producto de dos
matrices dadas por bloques se puede efectuar, formalmente, como si los
bloques fueran términos individuales, pero ello si los bloques son del orden
adecuado.
Por ejemplo, con estas matrices dadas por bloques:
⎛
⎞
⎛
⎞
A11 A12
B11 B12
⎝
⎠
⎝
⎠,
A=
y B=
A21 A22
B21 B22
se tiene:
⎛
AB = ⎝
A11
A12
A21
A22
⎞⎛
⎠⎝
B11
B12
B21
B22
⎞
⎛
⎠=⎝
A11 B11 + A12 B21
A11B12 + A12 B22
A21 B11 + A22 B21
A21B12 + A22 B22
⎞
⎠,
siempre y cuando el número de columnas de A11 sea igual al número de filas
de B11 , el número de columnas de A12 igual al número de filas de B21 , y así
sucesivamente. La justificación de esta fórmula es más tediosa que difícil;
no la consignamos aquí.
Si alguno de los bloques de las matrices que se multiplican es una matriz
con la que es especialmente sencillo operar (una matriz identidad o una
matriz nula, verbigracia), el producto toma una expresión más sencilla. A
modo de muestra, si en el ejemplo anterior ponemos: A21 = B21 = O, queda:
⎛
⎞⎛
⎞ ⎛
⎞
A11 A12
B11 B12
A11B11 A11 B12 + A12 B22
⎝
⎠⎝
⎠=⎝
⎠.
O
A22
O B22
O
A22 B22
Si exigimos, además, que A12 = B12 = O, entonces:
⎞⎛
⎞ ⎛
⎛
B11
A B
O
O
A11
⎠⎝
⎠ = ⎝ 11 11
⎝
O
A22
O B22
O
⎞
O
A22 B22
⎠.
Nótese que si estas dos matrices que se multiplican son diagonales por bloques (es decir, son cuadradas y los bloques A11 , A22 , B11 y B22 también son
matrices cuadradas, § 245), la igualdad obtenida nos dice que el producto
de matrices diagonales por bloques es una matriz diagonal por bloques.
Cf. § 244.
Y otro caso particular más: ¿qué se obtiene si multiplicamos dos matrices escalonadas reducidas que son cuadradas del mismo orden, con el
mismo rango —digamos r —, y ambas con sus pivotes en las primeras columnas? Veamos; se tiene:
Ir B
Ir
O
O O
B
O
=
I r Ir
O
Ir B O
=
Ir
O
B
O
,
con lo que el producto coincide con la segunda de las matrices.
II.7. OTROS TEMAS SOBRE MATRICES
Inversa de una matriz
cuadrada dada por bloques
248
Cuando tenemos una matriz dada por bloques que es invertible (y
en particular cuadrada), es posible, bajo ciertas condiciones, expresar su
inversa también por bloques, y calcular estos a partir de los bloques que
definen la matriz original.
Podemos enunciar un resultado al respecto para una matriz dada por
bloques de este tipo:
⎛
A=⎝
A11
A12
A21
A22
⎞
⎠,
que suponemos cuadrada, y con los bloques A11 y A22 a su vez matrices
cuadradas. El resultado es este: si la matriz A es invertible y también lo son
los bloques A11 y A22 , y si a su vez son invertibles estas matrices:
D1 = A11 − A12 A−1
22 A21
D2 = A22 − A21 A−1
11 A12 ,
y
(15)
entonces la matriz A−1 se puede escribir así:
⎞
⎛
−1
D1−1
−A−1
11 A12 D2
−1
⎠.
A =⎝
−1
−A−1
D2−1
22 A21 D1
La justificación requiere simplemente multiplicar la matriz A por la maVéase la nota al margen con el
“¡ojo!” en p. 214. Ello nos ahorra el producto A−1 A.
triz A−1 anterior y comprobar que se obtiene la matriz identidad correspondiente. Es de observar que nos saldrá una matriz identidad escrita por
bloques, de este tipo:
I
O
O
I
,
donde I es la matriz identidad del mismo orden que A11 e I es la matriz
identidad del mismo orden que A22 .
Un ejemplo concreto
249
La fórmula que acabamos de ver en el § 248, para el cálculo de la
inversa de una matriz (cuadrada) dada por bloques, es un poco aparatosa,
pero puede quedar razonablemente simplificada en ciertos casos particulares interesantes, como acontecía con la del producto (§ 247). Por ejemplo,
consideremos la matriz:
⎛
A=⎝
A11
A12
O
A22
⎞
⎠,
que suponemos cuadrada, y con los bloques A11 y A22 también matrices
Nótese que A21 = O.
cuadradas. Si estos bloques son matrices invertibles, entonces las matrices D1 y D2 definidas en (15) toman la forma: D1 = A11 y D2 = A22. Si la
matriz A es invertible, entonces su inversa tiene este aspecto:
⎞
⎛ −1
−1
A11 −A−1
11 A12 A22
−1
⎠.
A =⎝
O
A−1
22
II. MATRICES
Veamos un ejemplo concreto de aplicación de esta fórmula. Queremos
Es invertible; el lector puede
calcular que rango A = 3.
calcular la inversa de esta matriz:
⎛
1
⎜
⎜0
A=⎜
⎜0
⎝
0
1
1
0
0
⎞
2
⎟
1⎟
⎟.
1⎟
⎠
0
3
−2
1
−1
Podemos escribirla, por bloques, así:
⎛
1
⎜
⎜0
⎜
A=⎜
⎜0
⎝
0
1
3
1
−2
0
0
1
−1
⎞
2
⎟ ⎛
1⎟
⎟ ⎝ A11
⎟=
O
1⎟
⎠
0
A12
A22
⎞
⎠,
donde:
A11 =
1
0
1
1
,
A12 =
3
−2
2
1
y
A22 =
1
−1
1
0
.
Los bloques A11 y A22 son matrices cuadradas invertibles:
¿El lector se animará a comprobarlo?
A−1
11
=
1
0
−1
1
y
A−1
22
3
−2
2
1
=
0
1
−1
1
,
y se tiene:
¿Y este producto también?
−1
−A−1
11 A12 A22
=−
1
0
−1
1
0
1
−1
1
=
4
−3
−1
−1
.
Y tras estos cálculos ya podemos escribir la inversa de la matriz A:
⎛
⎛
A
−1
=⎝
⎞
−1
A−1
11
−A−1
11 A12 A22
O
A−1
22
En definitiva:
⎛
A−1
1
⎜
⎜0
=⎜
⎜0
⎝
0
1
⎜
⎜0
⎠=⎜
⎜
⎜0
⎝
0
−1
1
0
0
−1
−1
0
1
−1
−1
1
−1
0
0
0
1
4
⎞
⎟
−3 ⎟
⎟
⎟.
−1 ⎟
⎠
1
⎞
4
⎟
−3 ⎟
⎟.
−1 ⎟
⎠
1
El cálculo de esta inversa ha quedado razonablemente sencillo; en todo caso,
se ha reducido al cálculo de la inversa de dos matrices cuadradas de orden 2
y al cálculo de un producto de tres matrices, también de orden 2.
II.7. OTROS TEMAS SOBRE MATRICES
Inversa de una matriz
diagonal por bloques
250
A partir de la fórmula vista en el § 249 (o de la vista en el § 248),
podemos calcular la inversa de una matriz diagonal por bloques.
Consideremos, pues, la siguiente matriz diagonal por bloques (en particular —ya lo sabemos— la matriz es cuadrada, y los bloques de la diagonal
son también matrices cuadradas):
⎛
A=⎝
A11
O
O
A22
⎞
⎠.
Si esta matriz A es invertible y también lo son las matrices A11 y A22 , de la
fórmula del citado § 249 se deduce que la inversa A−1 queda simplemente
de esta forma:
⎛
A
Nota
−1
=⎝
A−1
11
O
O
A−1
22
⎞
⎠.
Este resultado se extiende fácilmente a cualquier matriz diagonal por blo-
ques. En concreto, acontece lo siguiente: dada la matriz
⎞
⎛
O
...
O
A11
⎟
⎜
O ⎟
A22 . . .
⎜ O
⎟
⎜
,
A=⎜ .
..
.. ⎟
..
⎟
⎜ .
.
.
. ⎠
⎝ .
O
O
. . . Ann
si A es diagonal por bloques y las matrices cuadradas A11 , A22 , . . . , Ann son
invertibles, entonces A es invertible, y su inversa toma esta forma:
⎞
⎛ −1
O
...
O
A11
⎟
⎜
⎜ O
A−1
...
O ⎟
⎟
⎜
22
⎟
⎜
⎟.
A−1 = ⎜ .
.
.
..
⎜ .
..
.. ⎟
⎟
⎜ .
.
⎠
⎝
−1
O
O
. . . Ann
Nótese que, en particular, la inversa de una matriz diagonal por bloques sigue
siendo una matriz diagonal por bloques.
A modo de ejemplo, calculemos la inversa, si existe, de la matriz diagonal por bloques que vimos
⎛
1 −1
0
⎜
⎜2
4
0
⎜
⎜
⎜0
0 −1
⎜
⎜
⎜0
1
0
⎜
⎜0
0
0
⎜
⎜
⎜0
0
0
⎝
0
0
0
en el § 245:
0
0
0
0
0
0
0
1
1
2
0
0
0
1
0
0
0
0
0
0
1
0
⎞
⎟
0⎟
⎟ ⎛
⎟
A
0⎟
⎟ ⎜ 11
⎟ ⎜
0⎟ = ⎝ O
⎟
0⎟
⎟
O
⎟
1⎟
⎠
0
O
A22
O
O
⎞
⎟
O ⎟
⎠.
A33
II. MATRICES
Los tres bloques son matrices cuadradas que resultan ser invertibles; los
dos de orden 2:
A−1
11
=
1
2
−1
4
−1
=
2/3
−1/3
1/6
1/6
A−1
33
,
=
0
1
1
0
−1
=
0
1
1
0
;
y el de orden 3:
⎛
La inversa de esta matriz se
calculó en el § 191 (cf. p. 184).
A−1
22
−1
⎜
=⎝ 1
0
0
1
0
⎞−1 ⎛
1
−1
⎜
⎟
2⎠ = ⎝ 1
1
0
⎞
1
⎟
−3 ⎠ .
1
0
1
0
Finalmente, la inversa de la matriz es esta:
⎛
⎛
A−1
11
⎜
⎜ O
⎝
O
Traspuesta de una matriz
dada por bloques
251
O
A−1
22
O
2/3
⎜
⎜ −1/3
⎞ ⎜
⎜
O
⎜
0
⎟ ⎜
⎜
O ⎟
0
⎜
=
⎠ ⎜
⎜
0
A−1
⎜
33
⎜
⎜
0
⎝
0
1/6
0
0
0
0
1/6
0
0
0
0
0
−1
0
1
0
0
1
1
−3
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
1
0
⎞
⎟
0⎟
⎟
⎟
0⎟
⎟
⎟
0⎟.
⎟
0⎟
⎟
⎟
1⎟
⎠
0
¿Cómo se puede calcular la traspuesta de una matriz que viene dada
por bloques? Para ello, se aplica a los bloques la misma regla que, en la trasposición de matrices que ya conocemos, se aplica a los términos (es decir, las
filas pasan a ser columnas y viceversa), y también se traspone cada bloque.
Por ejemplo:
⎛
A11
⎜
si A = ⎜
⎝ A21
A31
A12
⎞
⎟
A22 ⎟
⎠
A32
⎛
entonces: At = ⎝
At11
At21
At31
At12
At22
At32
⎞
⎠.
Ejercicios II.7
1
a)
Considérese esta matriz:
⎛
1
2
⎜
2
A=⎝ 2
−1 −2
columnas obtenidas en el apartado anterior, y en el
⎞
0
⎟
1⎠.
1
Obtener, a partir de la matriz A, la matriz identi-
dad I3 mediante la aplicación de transformaciones elementales por columnas sucesivas.
b)
Ejecutar las transformaciones elementales por
mismo orden, en la matriz identidad I3 . Multiplicar la
matriz resultante por A.
c)
Escribir la matriz A como un producto de ma-
trices elementales por columnas. (Indicación: Puede
ser útil fijarse en las matrices elementales por columnas asociadas a las inversas de las transformaciones
obtenidas en el primer apartado.)
II.7. OTROS TEMAS SOBRE MATRICES
2
Una matriz elemental por columnas, ¿puede ver-
se como una matriz elemental por filas? Distinguir los
tres tipos de matrices elementales.
3
Se considera el sistema de ecuaciones linea-
les AX = C (en notación matricial), donde
2 4
4 6
1
A=
y C=
,
1 2 −1 0
2
7
Descomponer como suma de su parte simétrica
y su parte antisimétrica estas matrices
⎛
2 5
2 −1
⎜
y ⎝ −1 0
−1
1
1 1
8
cuadradas:
⎞
1
⎟
0⎠.
2
Si A es una matriz cualquiera (no necesariamente
cuadrada), justificar que el producto AAt es una matriz
simétrica.
y X es la matriz de incógnitas correspondiente.
9
a)
Resolver el sistema.
b)
Ejecutar algún intercambio de columnas ade-
Hallar algún valor de a de forma que sea ortogo-
nal esta matriz:
cuado en la matriz ampliada del sistema de forma que
queden los pivotes de sus formas escalonadas en las
⎛√
⎝
3/2
1/2
√
a
3/2
⎞
⎠.
primeras columnas. Escribir y resolver el sistema cuya
matriz ampliada es la matriz resultante, y comparar
10
con lo obtenido en el apartado anterior.
ces que se pueden escribir de esta forma:
a b
para algunos a y b tales que a2 + b2 = 1.
−b a
4
Dada la matriz:
2
0
4
−2
6
2
,
escribir todas sus submatrices, y calcular el rango tanto
de la matriz como de las submatrices.
5
Para esta matriz triangular superior:
2 −1
,
0
1
calcular su inversa, y comprobar que la inversa también
es triangular superior.
Demostrar esta propiedad: si una matriz cuadrada
de orden 2 es triangular superior e invertible, entonces
11
Se considera la matriz
2 −1
A=
.
1
1
Encontrar dos matrices L y U tales que A = LU, siendo
la matriz L triangular inferior con todos los términos
de la diagonal principal iguales a 1, y siendo la matriz U
triangular superior.
Estudiar para qué valores del parámetro a es
idempotente esta matriz:
⎛
2 −2
⎜
3
⎝ −1
1 −2
12
⎞
−4
⎟
4⎠.
a
Determinar para qué valores de los parámetros a
y b es idempotente la siguiente matriz:
a
0
.
b 1−a
13
su inversa también es una matriz triangular superior.
6
Demostrar que son ortogonales todas las matri-
Siendo c un parámetro, nos dan esta matriz:
0 0
.
c 0
¿Hay algún valor de c para el cual esta matriz es nilpotente?
14
Determinar para qué valores del parámetro t es
nilpotente la siguiente matriz:
2 4
.
−1 t
II. MATRICES
15
Encontrar, si existen, todas las inversas por la iz-
quierda de la matriz
16
1
.
2
Dada la matriz:
⎛
1
⎜
A = ⎝2
0
18
⎞
0
⎟
1⎠,
0
19
−1
1
⎜
⎜0
⎜
⎜
⎜0
⎝
At . A partir de esta, encontrar todas las in-
0
versas por la izquierda de la matriz A.
17
Estudiar, según los valores del parámetro a, si la
siguiente matriz admite inversa por la izquierda:
⎛
⎞
0 1 0
⎜
⎟
⎜1 0 1⎟
⎜
⎟
⎜0 1 a⎟.
⎝
⎠
1 1 1
a)
1
0
2
1
0
0
.
Considérense estas dos matrices:
⎛
encontrarle una inversa por la izquierda con la fórmula (At A)
Encontrar todas las inversas por la derecha, si
existen, de esta matriz:
1
0
1
0
0
1
0
2
0
⎞
⎟
0⎟
⎟
⎟
−1 ⎟
⎠
4
⎛
y
0
⎜
⎜0
⎜
⎜
⎜1
⎝
0
0
1
0
0
0
0
1
0
0
⎞
⎟
1⎟
⎟
⎟.
0⎟
⎠
0
Multiplicarlas (en el mismo orden en que están
escritas). ¿Se aprecia alguna relación entre la primera
matriz y la matriz obtenida?
b)
Calcular la inversa de la primera matriz.
c)
¿Se anima el lector a calcular la inversa de la se-
gunda?
RECAPITULACIÓN II
RECAPITULACIÓN II
Definición de matriz (incluye repaso)
Una matriz de orden (n, m) (o de orden n × m) es una disposición de n · m números (reales) en forma rectangular
en n filas y m columnas, que son las filas y las columnas de la matriz. Los números que se escriben en una
matriz se denominan términos de la matriz.
Las matrices se suelen denotar con letras mayúsculas, y sus términos con la misma letra que la matriz
pero en minúscula, con dos subíndices que indican el
número de fila y el número de columna (en este orden,
y sin comas entre ellos) que ocupa el término en la matriz. En una matriz A, el término de posición (i, j) es el
que figura en la i-ésima fila y en la j-ésima columna, y
se denota: aij .
Una matriz general A de orden (n, m) se escribe
así:
cuadrada, los términos de la diagonal principal son los
que ocupan las posiciones (1, 1), (2, 2), . . . .
Una matriz diagonal es una matriz cuadrada que
tiene nulos los términos fuera de la diagonal principal.
Una matriz identidad (o unitaria) es una matriz diagonal con los términos de la diagonal principal iguales
a 1. La de orden n se denota
⎛
1 0
⎜
⎜0 1
⎜
In = ⎜ .
..
⎜.
.
⎝.
0 0
También se escribe: In =
por In :
...
...
..
.
...
⎞
0
⎟
0⎟
⎟
.
.. ⎟
⎟
.⎠
1
δij , donde δij es igual a 1
si i = j e igual a 0 si i ≠ j (delta de KRONECKER).
Una matriz nula (o cero) es una matriz (cuadrada
o no) con todos sus términos nulos. Cualquier matriz
⎛
a11
⎜a
⎜ 21
⎜
⎜ .
⎜ ..
⎜
A=⎜
⎜ ai1
⎜
⎜ .
⎜ .
⎝ .
an1
a12
a22
..
.
ai2
..
.
an2
...
...
..
.
...
..
.
...
a1j
a2j
..
.
aij
..
.
anj
...
...
..
.
...
..
.
...
⎞
a1m
a2m ⎟
⎟
⎟
.. ⎟
. ⎟
⎟
⎟.
aim ⎟
⎟
.. ⎟
⎟
. ⎠
anm
Los términos de la i-ésima fila son ai 1 , ai2 , . . . , aim (todos con el primer subíndice igual a i). Los términos de
la j-ésima columna son a1j , a2j , . . . , anj (todos con
el segundo subíndice
igual a j). A veces se
emplea la
notación: A = aij ; 1 i n, 1 j m , o simple
mente: A = aij .
Dos matrices A y B son iguales, y se escribe: A = B,
si son del mismo orden y verifican: aij = bij para cada i
y para cada j (en la misma posición, el mismo número).
Una matriz fila es una matriz con una sola fila: de
orden (1, m) para algún m. Una matriz columna es
una matriz con una sola columna: de orden (n, 1) para
algún n.
Una matriz cuadrada de orden n es una matriz de
orden (n, n) (n filas y n columnas). En una matriz
nula se denota por O.
Dada una matriz A, su j-ésima matriz columna es
la matriz columna cuyos términos son los de la j-ésima
columna de A; se denota por Cj (A). Y su i-ésima matriz fila es la matriz fila cuyos términos son los de la
i-ésima fila de A; se denota por Fi (A).
Siendo A de orden (n, m), si A1 , A2 , . . . , Am son
las m matrices columna de A, la notación por columnas de A es:
A = A1
A2
...
Am .
Si F1 , F2 , . . . , Fn son las n matrices fila de A, la notación
por filas de A es:
⎞
F1
⎜ ⎟
⎜ ⎟
⎜ F2 ⎟
⎜ ⎟
⎜ ⎟
A = ⎜ . ⎟.
⎜ . ⎟
⎜ . ⎟
⎜ ⎟
⎝ ⎠
Fn
⎛
Operaciones
Dadas dos matricon matrices
ces A = aij y B = bij del mismo orden, su suma
es la matriz A+B = aij + bij (se suman los términos
de la misma posición en ambas matrices).
II. MATRICES
Dada una matriz A = aij , se define su opuesta
como la matriz −A = −aij .
El conjunto de las matrices de orden (n, m) (con
términos números reales) se denota por M nm (R). La
• distributiva respecto de la adición de matrices, esto es: A(B1 + B2 ) = AB1 + AB2 y también esta otra:
(A1 + A2 )B = A1 B + A2 B;
• In A = AIn = A ;
adición de matrices de este conjunto tiene estas pro-
• OA = AO = O ;
piedades:
• conmutativa: A + B = B + A;
• si AB = O, es posible que ni A ni B sean nulas.
• asociativa: A + (B + C) = (A + B) + C;
• la matriz nula es el elemento neutro de la adi-
Dado un sistema de n ecuaciones lineales en las m
incógnitas x1 , x2 , . . . , xm :
Estas propiedades se resumen afirmando que la adi-
⎧
a11 x1 + a12 x2 + · · · + a1m xm = c1
⎪
⎪
⎪
⎪
⎨
a21 x1 + a22 x2 + · · · + a2m xm = c2
⎪
⎪........................................
⎪
⎪
⎩
an1 x1 + an2 x2 + · · · + anm xm = cn ,
ción de matrices articula el conjunto M nm (R) como un
la notación matricial del sistema es la igualdad matri-
grupo abeliano.
cial AX = C, donde A es la matriz de coeficientes (o
ción: A + O = O + A = A;
• cada matriz es simetrizable: para cada matriz A
su opuesta es tal que A + (−A) = (−A) + A = O.
Dados una matriz A = aij
y un número λ, el pro
ducto por λ de A es la matriz λA = λaij . Esta ope-
matriz asociada):
⎛
a11
⎜
⎜ a21
⎜
A=⎜ .
⎜ .
⎝ .
an1
ración también se denomina multiplicación escalar.
Dadas dos matrices A = aij y B = bij , de
orden, respectivamente, (n, m) y (m, p) (en particular, el número de columnas de A es igual al número
de filas de
el producto AB se define como la ma B),
triz C = cij , de orden (n, p), con términos:
cij =
m
aik bkj ,
1 i n, 1 j p.
k=1
Es decir, cij es la suma de los productos de los términos
correspondientes de la i-ésima fila de A y de la j-ésima
columna de B.
Si se puede escribir el producto AB, también se dice
que B se multiplica, por la izquierda, por A; o que A se
multiplica, por la derecha, por B.
Dadas dos matrices A y B, si están definidos los
productos AB y BA y estos son dos matrices iguales,
a12
a22
..
.
an2
...
...
..
.
...
⎞
a1m
⎟
a2m ⎟
⎟
,
.. ⎟
⎟
. ⎠
anm
y X y C son, respectivamente, la matriz de incógnitas
y la matriz de términos independientes:
⎞
⎛ ⎞
⎛
c1
x1
⎟
⎜ ⎟
⎜
⎜ c2 ⎟
⎜ x2 ⎟
⎟
⎜ ⎟
⎜
X = ⎜ . ⎟ y C = ⎜ . ⎟.
⎜ . ⎟
⎜ . ⎟
⎝ . ⎠
⎝ . ⎠
xm
cn
Si la m-upla (s1 , s2 , . . . , sm ) es una solución del sistema de ecuaciones lineales, también llamamos solución del sistema AX = C a la matriz columna de términos s1 , s2 , . . . , sm .
Transformaciones elementales por filas
Se de-
nominan transformaciones elementales por filas de
decimos que las matrices A y B conmutan. Si los pro-
una matriz, de tipo i, ii y iii, respectivamente, a es-
ductos AB y BA están definidos y son del mismo orden,
tos tres tipos de transformaciones que se ejecutan en
pero no son iguales, decimos que las matrices A y B no
matrices:
conmutan. La multiplicación de matrices cuadradas de
• intercambiar dos filas: Fi ↔ Fj ;
orden n 2 no es una operación conmutativa.
• multiplicar una fila por un número no nulo:
Propiedades de la multiplicación de matrices:
• Cj (AB) = A Cj (B) y Fi (AB) = Fi (A) B;
• asociativa: A(BC) = (AB)C;
Fi ← λFi (con λ ≠ 0);
• sumar a una fila un múltiplo de otra:
Fi ← Fi + αFj .
RECAPITULACIÓN II
Decimos que dos transformaciones elementales por
filas son inversas una de la otra si al aplicar ambas
sucesivamente, en un orden o en el otro, a cualquier
matriz (de un orden adecuado) se obtiene como resultado la matriz original. Se tiene:
• la inversa de Fi ↔ Fj es ella misma;
• la inversa de Fi ← λFi es Fi ← (1/λ)Fi;
• la inversa de Fi ← Fi + αFj es Fi ← Fi − αFj .
Llamamos matriz elemental de orden n asociada
a una transformación elemental (por filas) a la matriz
que resulta tras aplicar la transformación elemental a
la matriz identidad de orden n.
Dada una matriz de n filas, se obtiene el mismo resultado llevando a cabo una transformación elemental
por filas que multiplicando, por la izquierda, por la matriz elemental de orden n asociada a la transformación
elemental.
Si multiplicamos dos matrices elementales del mismo orden asociadas a transformaciones elementales inversas, el producto es la matriz identidad correspondiente.
Propiedades:
• las matrices cuadradas de rango máximo se pueden escribir como un producto de matrices elementales;
• dada una matriz B de cualquier orden, si A es
una matriz cuadrada de rango máximo tal que el
producto AB está definido: rango(AB) = rango B;
• el producto de matrices cuadradas (del mismo orden) de rango máximo es una matriz cuadrada
de rango máximo, y en particular cualquier producto de matrices elementales del mismo orden
es una matriz cuadrada de rango máximo.
Otra propiedad del rango: si A y B son dos matrices tales que el producto AB está definido, entonces: rango(AB) rango(A).
Teorema de ROUCHÉ–FROBENIUS: Una condición necesaria y suficiente para que un sistema de ecuaciones
lineales admita solución es que su matriz de coeficientes y su matriz ampliada tengan el mismo rango.
Dado un sistema de ecuaciones lineales de matriz
se verifica:
de coeficientes A y matriz ampliada A,
El rango de una matriz es
y este valor común del ran• si rango A = rango A
el número de pivotes de cualquiera de sus formas es-
go es igual al número de incógnitas del sistema,
calonadas (es el mismo en todas ellas). El rango de una
entonces el sistema es compatible determinado;
y este valor común del ran• si rango A = rango A
Rango de una matriz
matriz A se denota por rango A.
Propiedades del rango:
go es menor que el número de incógnitas del sis-
• el rango de una matriz es menor o igual que el
tema, entonces el sistema es compatible indeter-
número de sus filas y menor o igual que el núme-
minado;
entonces el sistema es in• si rango A < rango A,
ro de sus columnas;
• si aplicamos una transformación elemental (por
filas) a una matriz, la matriz resultante tiene el
mismo rango que la original;
• el rango de la matriz identidad In es igual a n;
• el rango de cualquier matriz elemental de orden n es igual a n;
• dada una matriz cuadrada de orden n, afirmar
que su rango es igual a n es equivalente a afirmar que su forma escalonada reducida es la matriz identidad In .
Una matriz de rango máximo es una matriz cuyo
rango coincide con el número de sus filas o con el número de sus columnas (el menor de los dos).
compatible.
Dos propiedades de los sistemas de ecuaciones lineales:
• una condición necesaria y suficiente para que un
sistema de ecuaciones lineales admita solución
para cualquier elección de los términos independientes es que el rango de la matriz de coeficientes sea igual al número de ecuaciones;
• una condición necesaria y suficiente para que un
sistema de ecuaciones lineales homogéneo admita solución única (la cual sería la nula) es que el
rango de su matriz de coeficientes sea igual al
número de incógnitas del sistema.
II. MATRICES
Inversa de una matriz cuadrada
Dada una ma-
igual al término de posición (j, i) de la matriz A (para
triz A, cuadrada de orden n, una matriz B, también
cada 1 i m y cada 1 j n). Es decir: los tér-
cuadrada de orden n, es matriz inversa (o simplemente
inversa) de la matriz A si AB = BA = In .
minos de las m filas de At son los términos de las m
columnas de A, y los términos de las n columnas de At
Cuando una matriz cuadrada admite inversa, se
son los de las n filas de A.
dice que es invertible. La inversa de una matriz A, si
Propiedades:
existe, es única, y se denota por A−1 .
• (At ) = A;
Propiedades de la inversa:
−1
• A−1
= A;
• In−1 = In ;
• cualquier matriz elemental es invertible, y su inversa es otra matriz elemental; además, las matrices elementales del mismo orden asociadas a
transformaciones elementales inversas son matrices inversas una de la otra;
−1
• (AB)
= B −1 A−1 .
t
•
Int
= In ;
t
• (A + B) = At + B t ;
t
• (λA) = λAt ;
t
• (AB) = B t At ;
t −1
t
• (A ) = (A−1 ) ;
• rango A = rango At .
El rango de un producto de dos matrices es igual
al rango de una de ellas si la otra es cuadrada de rango
máximo.
Dada una matriz cuadrada, decimos que es regular
Dada una matriz cuadrada A, la traza de A se de-
(o no singular), si su rango es máximo; y se dice que es
fine como la suma de los términos de la diagonal prin-
singular si su rango no es máximo.
cipal de A. Se denota por tr(A).
Propiedad fundamental: una condición necesaria y
suficiente para que una matriz cuadrada de orden n sea
invertible es que su rango sea igual a n. Así, las matrices invertibles son, justamente, las matrices regulares.
Dado un sistema de ecuaciones lineales con el mismo número de ecuaciones que de incógnitas, si la matriz de coeficientes es regular, el sistema es compatible
determinado cualesquiera que sean los términos inde-
Propiedades:
• tr(In ) = n;
• tr(A + B) = tr(A) + tr(B);
• tr(λA) = λ tr(A);
• si los productos AB y BA están definidos, entonces tr(AB) = tr(BA);
• tr(AAt ) = tr(At A) =
n m
a2ik .
i=1 k=1
pendientes. Si el sistema escrito en notación matricial
Si una matriz A tiene rango igual al número de co-
es AX = C, entonces su única solución es la matriz co-
lumnas, entonces la matriz cuadrada At A es invertible.
lumna A−1 C.
Método práctico: dada una matriz A invertible,
podemos obtener la matriz A−1 aplicando a la matriz In las mismas transformaciones elementales, y en
el mismo orden, que nos permiten obtener la matriz In
a partir de la matriz A.
Se escriben
yuxtapuestas
ambas matrices, de esta
In , y se aplican transformaciones eleforma: A
A−1 .
mentales a ambas a la vez, hasta llegar a In
Traspuesta de una matriz y traza de una ma-
Transformaciones elementales por columnas
Se
denominan transformaciones elementales por columnas de una matriz, de tipo i, ii y iii, respectivamente, a
estos tipos de transformaciones:
• intercambiar dos columnas: Ci ↔ Cj ;
• multiplicar una columna por un número no nulo:
Ci ← λCi (con λ ≠ 0);
• sumar a una columna un múltiplo de otra:
Ci ← Ci + αCj .
Transformaciones elementales por columnas inver-
Dada una matriz A de orden (n, m), su
sas y matrices elementales por columnas se definen,
matriz traspuesta, que se denota por At , es otra matriz de orden (m, n) cuyo término de posición (i, j) es
mutatis mutandis, como en el caso de las transformaciones elementales por filas.
triz
RECAPITULACIÓN II
Dada una matriz de m columnas, se obtiene el mismo resultado llevando a cabo una transformación elemental por columnas que multiplicando, por la derecha, por la matriz elemental de orden m asociada a la
transformación elemental.
Si aplicamos una transformación elemental por columnas a una matriz, la matriz resultante tiene el mismo rango que la original.
Estas propiedades también son válidas para matrices
triangulares inferiores.
Una matriz cuadrada A es simétrica si At = A, y
es antisimétrica si At = −A. (Una matriz antisimétrica
tiene nulos, pues, los términos de la diagonal principal.)
Propiedades:
• si dos matrices cuadradas del mismo orden son
Si dos sistemas de ecuaciones lineales son tales que
simétricas, también lo son su suma y el producto
de cualquiera de ellas por un número, y también
la matriz ampliada de uno es el resultado de ejecutar
lo es el producto de las dos si las matrices con-
una transformación elemental por columnas en la ma-
mutan;
triz ampliada del otro, pero de forma que no se vea
afectada la última columna (la de los términos inde-
• si una matriz simétrica es invertible, su inversa
pendientes), entonces ambos sistemas son de la misma
Estas propiedades también son válidas para matrices
clase en lo que a su discusión se refiere (ambos son in-
antisimétricas.
compatibles, o ambos son compatibles determinados,
o ambos son compatibles indeterminados).
Dada una matriz A de orden (n, m), y dados dos
números naturales p y q tales que 0 p n − 1
y 0 q m − 1, al suprimir p filas de A y q columnas de A, queda una nueva matriz, la cual es de
orden (n − p, m − q); de esta nueva matriz decimos
que es una submatriz de la matriz A.
El rango de una matriz es mayor o igual que el rango de sus submatrices.
Más tipos
matrices
Dada una matriz cuadra de da A = aij , de orden n, decimos que A es triangular superior si aij = 0 siempre que i > j (para cada 1 i n y cada 1 j n); es decir: todos los
términos que quedan estrictamente “por debajo” de la
diagonal principal son nulos. Y decimos que A es triangular inferior si aij = 0 siempre que i < j (para cada 1 i n y cada 1 j n); esto es: todos los
términos que quedan estrictamente “por encima” de la
diagonal principal son nulos.
Propiedades:
• si dos matrices cuadradas del mismo orden son
también es simétrica.
Dada una matriz cuadrada A, existen dos únicas
matrices S y T tales que A = S + T , siendo S simétrica
y T antisimétrica. Las matrices S y T vienen dadas por:
S=
1
(A + At ) y
2
T =
1
(A − At ),
2
y se denominan parte simétrica y parte antisimétrica
de la matriz A, respectivamente.
Una matriz A, cuadrada de orden n, es ortogonal
si verifica: AAt = At A = In , es decir: A−1 = At .
Propiedades:
• si dos matrices cuadradas del mismo orden son
ortogonales, también lo es su producto (pero no
necesariamente su suma o su producto por un
número);
• la inversa de una matriz ortogonal es invertible.
Una matriz cuadrada A es idempotente si AA = A
(o bien: A2 = A), y es nilpotente si AA = O (o A2 = O).
Propiedades:
• si dos matrices cuadradas del mismo orden son
idempotentes y conmutan, también es idempotente su producto;
• la única matriz idempotente que es regular (o lo
triangulares superiores, también lo son su suma
que es equivalente: invertible) es la identidad;
y su producto, así como el producto de cual-
• la traspuesta de una matriz idempotente es tam-
quiera de ellas por un número;
• si una matriz invertible es triangular superior, su
inversa también es triangular superior.
bién idempotente;
• cualquier matriz nilpotente es singular (o lo que
es lo mismo: no invertible).
II. MATRICES
Dada una matriz A de orden (n, m), una inversa
por la izquierda de la matriz A es una matriz B de or-
manera si los bloques son matrices del orden adecuado.
Dada la matriz por bloques:
den (m, n) tal que BA = Im .
Propiedades:
⎛
A=⎝
• una condición necesaria y suficiente para que una
matriz admita inversa por la izquierda es que su
rango sea igual al número de columnas;
• si una matriz A tiene su rango igual al número de
−1
columnas, entonces la matriz (At A)
At es una
inversa por la izquierda de A;
• si una matriz A admite inversa por la izquierda y
es cuadrada, entonces su inversa por la izquierda
es única y es precisamente la inversa A−1 ;
da de A se pueden obtener “dando valores” a la
matriz D (del mismo orden que B) en la expresión B + D − DAB.
A12
A21
A22
den (m, n) tal que AC = In .
y si a su vez son invertibles D1 = A11 − A12 A−1
22 A21
y D2 = A22 − A21 A−1
11 A12 , entonces:
⎛
A−1 = ⎝
D1−1
−1
−A−1
11 A12 D2
−1
−A−1
22 A21 D1
D2−1
⎛
⎝
A11
A12
O
A22
⎞−1
⎠
⎛
=⎝
A−1
11
−1
−A−1
11 A12 A22
O
A−1
22
⎛
A11
⎜
⎜ O
⎜
⎜ .
⎜ .
⎝ .
O
que la matriz C t es una inversa por la izquierda
Una matriz dada por bloques, o una matriz particionada, es una matriz en la que se han distinguido
ciertas submatrices trazando alguna o algunas rayas
horizontales o verticales (o de ambos tipos simultáneamente), las cuales se extienden a lo largo de filas o columnas enteras.
Podemos sumar dos matrices dadas por bloques en
tanto tengan la misma estructura de bloques, y la suma
se efectúa como si los bloques fueran términos individuales. El producto también se puede efectuar de esta
⎞
⎠.
Una matriz diagonal por bloques es una matriz
derecha de una matriz A es lo mismo que afirmar
rango sea igual al número de filas.
⎠.
cuadrada que se puede particionar así:
• afirmar que una matriz C es una inversa por la
matriz admita inversa por la derecha es que su
⎞
Caso particular:
Propiedades:
de la matriz At ;
• una condición necesaria y suficiente para que una
⎠,
a su vez matrices cuadradas, se verifica: si la matriz A
es invertible y también lo son los bloques A11 y A22 ,
Dada una matriz A de orden (n, m), una inversa
por la derecha de la matriz A es una matriz C de or-
⎞
que suponemos cuadrada y con los bloques A11 y A22
• si una matriz A admite una inversa por la izquierda B, entonces todas las inversas por la izquier-
A11
O
A22
..
.
O
...
...
..
.
...
⎞
O
⎟
O ⎟
⎟
,
.. ⎟
⎟
. ⎠
Ann
donde los bloques A11 , A22 , . . . , Ann son a su vez matrices cuadradas (no necesariamente del mismo orden),
y cada bloque fuera de la diagonal principal es una matriz nula.
Si en la matriz diagonal por bloques anterior son
invertibles las matrices cuadradas A11 , A22 , . . . , Ann ,
entonces la matriz es invertible, y su inversa toma esta
forma:
⎞
⎛ −1
O
...
O
A11
⎟
⎜
⎜ O
A−1
...
O ⎟
⎟
⎜
22
⎟
⎜
⎜ .
.
..
.. ⎟
..
⎟
⎜ .
⎟
⎜ .
.
.
.
⎠
⎝
O
O
. . . A−1
nn
Capítulo III
VECTORES
23
III. VECTORES
ESQUEMA
Presentación delcapítulo
1. Vectores
1. ElconjuntoRn comounespaciovectorial .El
3. Independencialineal
1. Vectores linealmentedependientesyvectoreslinealmenteindependientes
Definicionesypropiedades•Sistemasdevectores
conjuntoR2•ElconjuntoRn
2. Vectores columna y vectores fila de una
3. EjerciciosIII.1
2. Subespaciosvectoriales
1. Conjuntos de vectores . . . . . . . . . . 265
2. DefiniciónEjemplos
3. Subespacio vectorial generado por unos
2. Bases y dimensión de un subespacio vectorial . . . . . . . . . . . . . . . . . . 295
Bases•Dimensión
3. Definición•Relaciónconelrangodeunamatriz
4. Ecuacionesdeunsubespaciovectorial
Ecuaciones paramétricas • Ecuaciones implícitas
• Codimensión
EjerciciosIII.3
Definición:generadoresRectasyplanos
• GeneradoresdeRn
EjerciciosIII.
Recapitulación III
PRESENTACIÓN DEL CAPÍTULO
PRESENTACIÓN DEL CAPÍTULO
En muchas aplicaciones a modelos de Economía y Empresa, se manejan sistemas de ecuaciones lineales. Esto ya lo hemos comentado, pero no hemos
apuntado que el interés no está restringido exclusivamente a saber si un
sistema de ecuaciones lineales dado tiene solución o no, o cuáles son concretamente estas soluciones cuando existen. Si un sistema no tiene solución
o tiene solución única, no hay mucho más que añadir, pero cuando hay infinitas soluciones la situación es distinta. Si el lector recuerda algunos de los
ejemplos de sistemas compatibles indeterminados —que (bien lo sabe) son
los que tienen infinitas soluciones—, quizá perciba que las infinitas soluciones de un sistema que se expresan con ayuda de dos parámetros tienen
en algún sentido una “entidad” distinta de las soluciones de un sistema que
se expresan con un solo parámetro. Es así: como veremos en este capítulo,
es posible dar cuenta de una suerte de “tamaño” del conjunto formado por
todas las soluciones de un sistema de ecuaciones lineales.
En la primera sección, se estudian los objetos con los que trabajaremos
en todo el capítulo: los vectores. En el nivel de este libro, un vector no es más
que una n-upla (un par ordenado, una terna, etc.) de números. Hasta ahora,
las n-uplas nos han servido solo para presentar las soluciones de los sistemas de ecuaciones lineales; a partir de ahora trabajaremos con ellas como
un objeto de estudio que tiene interés por sí mismo. En particular, aprenderemos a operar con vectores (sumarlos y multiplicarlos por un número,
y combinar ambas cosas en las llamadas combinaciones lineales), y veremos
las propiedades de estas operaciones. Tales propiedades son las responsables de la estructura de espacio vectorial, que se estudia con todo detalle en
esta sección.
La segunda sección se centra en el estudio de los llamados subespacios
vectoriales: son conjuntos de vectores en general con “menos” vectores
que los conjuntos estudiados en la primera sección, pero a pesar de ello
replicadores de la estructura que estos tienen. La sección muestra cómo se
pueden presentar estos conjuntos de vectores y cómo se puede pasar de una
presentación a otra. Una de estas presentaciones posibles —con unos generadores— pasa por la selección de ciertos vectores del conjunto de forma
que los demás del mismo conjunto se pueden escribir a partir de ellos.
Una vez tenemos distinguidos unos vectores de forma que con ellos se
puede implementar por entero un subespacio vectorial dado, surge de forma
natural la cuestión de optimizar de alguna forma tal colección de vectores.
III. VECTORES
Esta optimización se entiende en el sentido de tener de ellos la menor cantidad posible. Esto da lugar al concepto de independencia lineal de vectores,
que se estudia ampliamente en la tercera sección del capítulo, y en particular al concepto de dimensión, que da cuenta, en cierta manera, del número
mínimo de vectores que hacen falta para determinar un subespacio vectorial. El de dimensión es el concepto que buscamos desde el principio para
describir de qué manera el conjunto de soluciones de un sistema de ecuaciones lineales puede ser esencialmente distinto del conjunto de soluciones
de otro (descrito uno con dos parámetros y el otro con uno solo, por ejemplo). Esta sección termina con la presentación de subespacios vectoriales
con la ayuda de cierto tipo de ecuaciones lineales (paramétricas o implícitas), que permiten describir el subespacio vectorial de una forma cómoda y
operativa.
III.1. VECTORES
III.1 VECTORES
Dedicamos esta sección a presentar los vectores: qué son y qué podemos
hacer con ellos. Empezamos asimismo a explorar su relación con los sistemas de ecuaciones lineales.
1. El conjunto Rn como un espacio vectorial
En este apartado, trabajamos con n-uplas de números (reales): definimos
para ellas una adición y una mutiplicación por un número, y vemos sus
propiedades. Explicamos asimismo lo que significa la estructura de espacio
vectorial, y lo que entendemos por vector y por escalar.
El conjunto R2
El conjunto R2
252
Las soluciones de un sistema de ecuaciones lineales (en un primer
momento, homogéneo) tienen una estructura rica que queremos analizar y
desentrañar. Si la solución de un sistema es única (sistema compatible determinado), no hay mucho más que decir; pero si hay infinitas soluciones
(sistema compatible indeterminado), estaríamos interesados en dilucidar si
hay alguna manera de describirlas todas más allá de decir que son las soluciones de un sistema de ecuaciones lineales. Como veremos, será el caso.
Una de las cosas que podremos hacer, por ejemplo, y ello gracias al concepto de dimensión —que veremos—, será dar una idea del “tamaño” de la
colección de tales soluciones.
Antes de nada, ¿qué objetos son las soluciones de un sistema de ecuaciones lineales? Si hablamos de un sistema de dos incógnitas (por empezar
por alguno), sabemos que las soluciones son pares ordenados. Recordemos
que un par ordenado es un objeto de esta forma: (a, b), donde a y b son
√
números reales. Por ejemplo, estos son pares ordenados: (1, 2), (−1, 3 ),
(−π , 3/5), (0, 1/3) y (−1, −1). En un par ordenado, el primer número que
figura escrito es la primera componente del par ordenado, y el segundo
número es la segunda componente. Verbigracia, la primera componente del
par ordenado (a, b) es el número a; la segunda, el número b.
Lo primero que debemos estudiar es, pues, la colección de todos los
La notación R × R es la de un
producto cartesiano de conjuntos: el producto cartesiano
del conjunto de los números
reales: R, por sí mismo.
pares ordenados, o más propiamente: el conjunto de todos los pares ordenados de números reales. Este conjunto se designa así: R × R, o más sintéticamente: R2 (que será la notación habitual en este libro). El conjunto R2
es, podríamos decir, el “ambiente” en el que se consideran los conjuntos de
III. VECTORES
soluciones de los sistemas de ecuaciones lineales de dos incógnitas. Dicho
más formalmente: dado un sistema de ecuaciones lineales de dos incógnitas, el conjunto de sus soluciones es un subconjunto del conjunto R2 : cada
elemento del primer conjunto también es elemento del segundo.
Dediquemos, entonces, nuestros primeros esfuerzos a estudiar el conjunto R2 .
Adición de pares ordenados
253
La estructura del conjunto R2 , la cual queremos estudiar, se articula
en tanto es posible definir en este conjunto unas operaciones. La primera
operación que vamos a considerar en R2 es la adición, la cual se denota
—como la de números (y como la de matrices)— con el signo +.
Recuérdese: no confundir adición (nombre de la operación)
con suma (nombre del resultado de la operación).
¿Dos pares ordenados iguales?
Lo son precisamente si tienen
iguales las componentes de la
misma posición.
La suma de dos pares ordenados se define como su suma componente
a componente; es decir, se suman las primeras componentes por un lado, y
las segundas por otro. Por ejemplo:
(1, 2) + (−2, 0) = 1 + (−2), 2 + 0 = (−1, 2),
y
5 1
, −2 = (−3) + , 7 + (−2) = − , 5 .
2
2
2
En general, si (x1 , x2 ) y (y1 , y2 ) son dos pares ordenados cualesquiera,
(−3, 7) +
1
su suma se define así:
(x1 , x2 ) + (y1 , y2 ) = (x1 + y1 , x2 + y2 ).
El par ordenado nulo
254
Sabemos que si sumamos a un número el número 0, obtenemos
como resultado el número original; es decir, cualquiera que sea el número x,
se tiene: x + 0 = 0 + x = x. Acontece algo análogo con el par ordenado nulo,
que es el par ordenado (0, 0): la suma de cualquier par ordenado (x1 , x2 ) y
el par ordenado nulo tiene como resultado el par ordenado (x1 , x2 ):
(x1 , x2 ) + (0, 0) = (0, 0) + (x1 , x2 ) = (x1 , x2 ).
La comprobación es inmediata: (x1 , x2 ) + (0, 0) = (x1 + 0, x2 + 0) = (x1 , x2 ),
y de la misma manera en el otro orden.
Por ejemplo: (2, −1) + (0, 0) = 2 + 0, (−1) + 0 = (2, −1), e igual en el
otro orden: (0, 0) + (2, −1) = 0 + 2, 0 + (−1) = (2, −1).
Opuesto de un par ordenado
255
Ya sabemos que el opuesto de un número es otro número tal que
la suma de ambos es igual al número 0; más en concreto, el opuesto de un
número x es −x, y se verifica que x + (−x) = (−x) + x = 0. También se
define un opuesto para pares ordenados.
III.1. VECTORES
Dado un par ordenado (x1 , x2 ), se define su opuesto, que se denota así: −(x1 , x2 ), como el par ordenado cuyas componentes son opuestas de las componentes correspondientes del par ordenado (x1 , x2 ); esto
es: −(x1 , x2 ) = (−x1 , −x2 ).
Por ejemplo, el opuesto de (2, −1) es −(2, −1) = −2, −(−1) = (−2, 1);
el opuesto de (1, −1) es −(1, −1) = (−1, 1); y el opuesto del par ordenado
nulo es él mismo: −(0, 0) = (0, 0).
Es claro que (x1 , x2 ) + −(x1 , x2 ) = −(x1 , x2 ) + (x1 , x2 ) = (0, 0), y
ello para cualquier par ordenado (x1 , x2 ).
Substracción de pares
ordenados
Con números sería así:
x − y = x + (−y).
Otras propiedades de la
adición de pares ordenados:
conmutativa y asociativa
256
En tanto está definido un opuesto, podemos definir también una
substracción de pares ordenados. Si (x1 , x2 ) y (y1 , y2 ) son dos pares orde
nados, su diferencia se define así: (x1 , x2 )−(y1 , y2 ) = (x1 , x2 )+ −(y1 , y2 ) .
Es decir: (x1 , x2 ) − (y1 , y2 ) = (x1 − y1 , x2 − y2 ).
Por ejemplo: (3, −2) − (5, −1) = 3 − 5, −2 − (−1) = (−2, −1).
257
Igual que la adición de números, la de pares ordenados es conmu-
tativa: es indiferente el orden en que sumemos dos pares ordenados. Esto
es: (x1 , x2 ) + (y1 , y2 ) = (y1 , y2 ) + (x1 , x2 ), cualesquiera que sean los pares
ordenados (x1 , x2 ) y (y1 , y2 ). La justificación es sencilla, pues esta propiedad se reduce a la misma propiedad de la adición de números:
(x1 , x2 ) + (y1 , y2 ) = (x1 + y1 , x2 + y2 )
= (y1 + x1 , y2 + x2 ) = (y1 , y2 ) + (x1 , x2 ).
También como la adición de números, la de pares ordenados es asociativa. Ello significa lo siguiente: puestos a sumar tres pares ordenados, es indiferente que sumemos el primero y el segundo, y al resultado le sumemos
el tercero, que sumar el primero al resultado de haber sumado el segundo y
el tercero. En símbolos:
[(x1 , x2 ) + (y1 , y2 )] + (z1 , z2 ) = (x1 , x2 ) + [(y1 , y2 ) + (z1 , z2 )],
y ello para cualesquiera pares ordenados (x1 , x2 ), (y1 , y2 ) y (z1 , z2 ). Esta
propiedad también se “reduce” a la misma cumplida por la adición de números: (x + y) + z = x + (y + z).
El hecho de que se cumpla la propiedad asociativa nos permite obviar
los paréntesis (y los corchetes) cuando escribamos la suma de tres pares
ordenados; escribiremos simplemente: (x1 , x2 ) + (y1 , y2 ) + (z1 , z2 ), en vez
de [(x1 , x2 ) + (y1 , y2 )] + (z1 , z2 ) o (x1 , x2 ) + [(y1 , y2 ) + (z1 , z2 )].
III. VECTORES
La adición de pares
ordenados articula el
conjunto R2 como un grupo
abeliano
258
Recopilemos lo visto en los parágrafos anteriores. La adición de
pares ordenados verifica estas cuatro propiedades:
• La adición es asociativa: para cualesquiera pares ordenados (x1 , x2 ),
(y1 , y2 ) y (z1 , z2 ), se cumple:
[(x1 , x2 ) + (y1 , y2 )] + (z1 , z2 ) = (x1 , x2 ) + [(y1 , y2 ) + (z1 , z2 )].
• La adición tiene elemento neutro: existe un par ordenado, justamente
el nulo: (0, 0), tal que, cualquiera que sea el par ordenado (x1 , x2 ), la
suma de ambos es igual al mismo par ordenado (x1 , x2 ):
(x1 , x2 ) + (0, 0) = (0, 0) + (x1 , x2 ) = (x1 , x2 ).
• Todo elemento de R2 es simetrizable: cualquiera que sea el par ordenado (x1 , x2 ), existe otro par, precisamente su opuesto: −(x1 , x2 ), de
tal suerte que la suma de ambos es el elemento neutro:
(x1 , x2 ) + −(x1 , x2 ) = −(x1 , x2 ) + (x1 , x2 ) = (0, 0).
• La adición es conmutativa: cualesquiera que sean los pares ordenados (x1 , x2 ) y (y1 , y2 ), se cumple:
(x1 , x2 ) + (y1 , y2 ) = (y1 , y2 ) + (x1 , x2 ).
El hecho de que la adición de pares ordenados verifique estas cuatro propiedades se resume en esta afirmación: la adición de pares ordenados articula
el conjunto R2 como un grupo abeliano.
El lector recordará que ya nos encontramos con un grupo abeliano antes,
al estudiar el conjunto Mnm (R) (de las matrices de orden (n, m) con términos números reales) y la adición de matrices (cf. § 124, p. 129).
Multiplicación por un número
de un par ordenado
259
Recordará también el lector que hemos multiplicado matrices por
números. Una operación análoga podemos definir para pares ordenados.
Dados un número λ y un par ordenado (x1 , x2 ), el producto por el número λ del par ordenado (x1 , x2 ), que se denota así: λ(x1 , x2 ), es el par
ordenado siguiente: λ(x1 , x2 ) = (λx1 , λx2 ) (es decir, se multiplica por el
número cada una de las componentes).
Por ejemplo:
2(3, −1) = 2 · 3, 2 · (−1) = (6, −2) y
5
− (0, 6) = (0, −15).
2
Otro ejemplo: 1(2, 3) = (2, 3), y también: (−1)(2, 3) = (−2, −3) = −(2, 3).
En general, si multiplicamos un par ordenado por el número 1, obtenemos
III.1. VECTORES
1(x1 , x2 ) = (x1 , x2 )
(−1)(x1 , x2 ) = −(x1 , x2 )
0(x1 , x2 ) = (0, 0)
λ(0, 0) = (0, 0)
Propiedades de la
multiplicación por un número
de un par ordenado
λ μ(x1 , x2 ) = (λμ)(x1 , x2 )
el mismo par ordenado; si lo multiplicamos por el número −1, obtenemos
el par ordenado opuesto: 1(x1 , x2 ) = (x1 , x2 ) y (−1)(x1 , x2 ) = −(x1 , x2 ).
Y más aún: se cumple que 0(x1 , x2 ) = (0, 0) y λ(0, 0) = (0, 0); es decir:
el producto de un par ordenado por un número es nulo en cuanto uno de
los dos —bien el par, bien el número, o ambos— es nulo.
260
La operación de multiplicar un par ordenado por un número cumple
una suerte de propiedad asociativa que se enuncia así: si λ y μ son dos nú
meros y (x1 , x2 ) es un par ordenado, entonces λ μ(x1 , x2 ) = (λμ)(x1 , x2 ).
Dejamos la justificación al lector, que estamos seguros podrá llevar a cabo.
Nótese que, en virtud de esta propiedad, no presenta ambigüedad escribir el
producto λμ(x1 , x2 ): tanto da que se refiera a λ μ(x1 , x2 ) o a (λμ)(x1 , x2 ).
En cuanto combinamos la multiplicación de un par ordenado por un
número con la adición de pares ordenados, vemos que se satisfacen dos
propiedades distributivas: la primera, respecto de la adición de números:
(λ + μ)(x1 , x2 ) = λ(x1 , x2 ) + μ(x1 , x2 );
la segunda, respecto de la adición de pares ordenados:
λ (x1 , x2 ) + (y1 , y2 ) = λ(x1 , x2 ) + λ(y1 , y2 );
y todo ello para cualesquiera números λ y μ y cualesquiera pares ordenados (x1 , x2 ) y (y1 , y2 ). Estas dos propiedades se deducen sin dificultad de
la definición de las dos operaciones con pares ordenados y de la propiedad
distributiva para números.
Espacio vectorial
261
De la multiplicación por un número de un par ordenado, nos gus-
taría resaltar las siguientes cuatro propiedades, señaladas todas en los parágrafos anteriores:
• Es asociativa (en los números); con ello nos referimos a esta igual
dad: λ μ(x1 , x2 ) = (λμ)(x1 , x2 ), que se cumple para cualesquiera
números λ y μ y cualquier par ordenado (x1 , x2 ).
• Es distributiva respecto de la adición de números; nos referimos a
que (λ + μ)(x1 , x2 ) = λ(x1 , x2 ) + μ(x1 , x2 ), para cualesquiera números λ y μ y cualquier par ordenado (x1 , x2 ).
• Es distributiva respecto de la adición de pares ordenados; queremos de
cir: λ (x1 , x2 ) + (y1 , y2 ) = λ(x1 , x2 ) + λ(y1 , y2 ), para todo número λ
y cualesquiera pares ordenados (x1 , x2 ) y (y1 , y2 ).
• Es neutra para el número 1; con esta denominación nos referimos a
la igualdad 1(x1 , x2 ) = (x1 , x2 ), que se tiene para cualquier par ordenado (x1 , x2 ).
III. VECTORES
Para el conjunto R2 , tenemos entonces dos operaciones: la adición y la
mutiplicación por un número,1 las cuales satisfacen ciertas propiedades:
la primera, las necesarias para articular el conjunto R2 como un grupo
abeliano (§ 258); la segunda, las cuatro propiedades enunciadas en el párrafo anterior. Todo ello se puede resumir afirmando lo siguiente: el conjunto R2 , dotado de las dos operaciones, es un espacio vectorial sobre R.
En tanto se considera el conjunto R2 como un espacio vectorial, sus elementos (es decir, los pares ordenados) se denominan vectores; los elemen-
Vector
tos de R (esto es, los números reales, que son los elementos por los que se
multiplican los vectores) se denominan —en contraposición a los vectores—
escalares.
Escalar
El conjunto Rn
El conjunto R3
262
Ya hemos visto de sobra que las soluciones de los sistemas de ecua-
ciones lineales de tres incógnitas (cuando las hay) son ternas, que son el
análogo, para tres números, de los pares ordenados. En concreto, sabemos que una terna es un objeto de la forma (a, b, c) con a, b y c números
√
reales; por ejemplo: (1, 0, −1), (2, −1/2, 0) y (π 2 , −3, 2 ). Las ternas también tienen componentes, pero ahora son tres: primera, segunda y tercera,
que en la terna (a, b, c) son, respectivamente, los números a, b y c. El conjunto de las ternas de números reales se denota así: R×R×R, que se escribe
más habitualmente como R3 .
Para las ternas es posible definir una adición y una multiplicación por un
número: tales definiciones son completamente análogas a las que ya conocemos para los pares ordenados, y sus propiedades también. Por ejemplo,
la suma de dos ternas (x1 , x2 , x3 ) y (y1 , y2 , y3 ) también se define como una
Por ejemplo:
suma componente a componente:
(1, 0, −1) + (2, −1/2, 0)
= (3, −1/2, −1),
4(2, −1/2, 0) = (8, −2, 0).
(x1 , x2 , x3 ) + (y1 , y2 , y3 ) = (x1 + y1 , x2 + y2 , x3 + y3 );
y el producto por un número λ:
λ(x1 , x2 , x3 ) = (λx1 , λx2 , λx3 ).
Y por citar explícitamente una propiedad, podemos detallar la del elemento
neutro: la terna nula, es decir: (0, 0, 0), es tal que la suma de cualquier terna
y ella nos permite obtener la terna de partida.
1 Estrictamente
hablando, la primera es una operación interna (o simplemente una opera-
ción), y la segunda es una operación externa (hace falta el concurso de otro conjunto —en
este caso, el de los números por los que se multiplican los pares ordenados— para definirla),
pero no vamos a entrar aquí en estos detalles; no cambian la esencia de lo que se transmite.
III.1. VECTORES
También acontece, entonces, que la adición de ternas articula el conjunto R3 como un grupo abeliano. Asimismo, la multiplicación por números
de ternas verifica las análogas de las cuatro propiedades enunciadas en el
§ 261 para pares ordenados. En definitiva, el conjunto R3 , dotado de estas dos operaciones, también es un espacio vectorial sobre R. En este sentido, también podemos llamar vectores —y así lo haremos— a las ternas de
números reales.
El conjunto Rn
263
De manera general, podemos considerar n-uplas (donde n es un nú-
mero natural mayor o igual que 1). Una n-upla es un objeto de esta forma:
(x1 , x2 , . . . , xn ),
Si n = 4, hablamos de cuaternas; si n = 5, de quíntuplas;
si n = 6, de séxtuplas. . .
Nota bene
donde x1 , x2 , . . . , xn son números reales.
Si n = 2, una n-upla se reduce a un par ordenado; y si n = 3, se
reduce a una terna.
Las n-uplas también tienen componentes: primera, segunda, . . . , n-ésima; para la n-upla (x1 , x2 , . . . , xn ), tales son, respectivamente, los números x1 , x2 , . . . , xn . En muchas ocasiones, designaremos una n-upla con una
letra itálica en negrita, como x, y o z; cuando procedamos así, denotaremos
las componentes con la misma letra que la n-upla pero sin la negrita, y
con un subíndice indicativo del orden de la componente. Por ejemplo, si x
designa una n-upla, sus componentes serán denotadas x1 , x2 , . . . , xn .
Las n-uplas también se suman y se multiplican por números, como
hemos hecho con los pares ordenados y las ternas. La definición de ambas
operaciones es completamente análoga a lo que hemos hecho hasta ahora:
Ambas n-uplas se suman componente a componente.
(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn ),
y también:
λ(x1 , x2 , . . . , xn ) = (λx1 , λx2 , . . . , λxn ),
donde (x1 , x2 , . . . , xn ) y (y1 , y2 , . . . , yn ) son n-uplas de números y λ es un
número.
Las propiedades de estas operaciones también son completamente análogas a las que hemos visto para pares ordenados (y para ternas). Las enunciamos todas aquí de nuevo, haciendo uso de la notación —introducida más
Escribir: “x es un elemento
de E”, será tanto como escribir: “x es una n-upla”.
arriba— con las letras en negrita, y designando momentáneamente por E el
conjunto Rn : E = Rn . Las propiedades de la adición toman este aspecto:
• La adición es asociativa: para cualesquiera elementos x, y y z de E, se
tiene: (x + y) + z = x + (y + z).
III. VECTORES
No debe asustarse el lector
por el aspecto más abstracto
de estas propiedades. Cámbiese x por (x1 , x2 , . . . , xn ),
y por (y1 , y2 , . . . , yn ), etc., y
quedarán exactamente análogas a las propiedades para los
pares ordenados.
• La adición tiene elemento neutro: existe un elemento en E, denotado
por 0 e igual a la n-upla nula: (0, 0, . . . , 0) (con n ceros), tal que, cualquiera que sea el elemento x de E, se tiene: x + 0 = 0 + x = x.
• Todo elemento de E es simetrizable: cualquiera que sea el elemento x
de E, existe otro: su opuesto —el cual se denota por −x y se define de
la forma: −x = −(x1 , x2 , . . . , xn ) = (−x1 , −x2 , . . . , −xn )—, tal que la
suma de ambos es el elemento neutro: x + (−x) = (−x) + x = 0.
• La adición es conmutativa: cualesquiera que sean los elementos x y y
de E, se cumple: x + y = y + x.
Y las de la multiplicación por números toman esta forma:
• Es asociativa (en los números): λ(μx) = (λμ)x para cualesquiera números λ y μ y cualquier elemento x de E.
• Es distributiva respecto de la adición de números: (λ + μ)x = λx + μx
para cualesquiera números λ y μ y cualquier elemento x de E.
• Es distributiva respecto de la adición de elementos de E: se tiene la
igualdad λ(x + y) = λx + λy para todo número λ y cualesquiera
elementos x y y de E.
• Es neutra para el número 1: 1x = x, que se tiene para cualquier elemento x de E.
Como acontece con los pares ordenados y las ternas, podemos entonces
afirmar que la adición articula el conjunto E = Rn como un grupo abeliano.
Asimismo, el hecho de que se verifiquen las ocho propiedades anteriores
también puede sintetizarse afirmando que el conjunto E = Rn , dotado de
la adición y de la multiplicación por números, es un espacio vectorial sobre R. A partir de ahora, cuando trabajemos con Rn (para cualquier n 1),
o con sus elementos, implícitamente consideraremos su estructura de espacio vectorial (es decir, las dos operaciones definidas y sus propiedades), y
llamaremos vectores a sus elementos, y escalares a los elementos de R.
En particular, el vector 0 (esto es, la n-upla nula) se denomina vector
nulo: 0 = (0, 0, . . . , 0) (con n ceros).
El caso n = 1
264
Acabamos de ver el conjunto Rn en general: cómo son sus elemen-
tos, cómo se opera con ellos y las distintas propiedades de estas operaciones. Al hablar así de Rn , dando valores a n obtenemos distintos casos
particulares: para n = 2 hablamos de pares ordenados, para n = 3 de ternas, para n = 4 de cuaternas, etc., y en todos estos casos sabríamos cómo
efectuar las operaciones correspondientes y cómo formular explícitamente
sus propiedades.
Pero hemos apuntado que n es mayor o igual que 1 (§ 263); ¿qué ocurre
III.1. VECTORES
en el caso n = 1? Los elementos de Rn cuando n = 1, esto es, los elementos
Nótese que R1 = R.
de R1 , son sencillamente los mismos números reales: la adición de vectores de R1 es la adición ordinaria de números reales, y la multiplicación de
vectores por números es la multiplicación ordinaria de números reales.
En algunas ocasiones, interesa ser consciente de que el conjunto R, con
su adición y multiplicación ordinarias, es un espacio vectorial sobre R.
Igualdad de vectores
265
Antes de seguir, hay algo que debemos enfatizar: ¿qué significa
exactamente que dos vectores sean iguales?
Dados dos vectores de Rn , es decir, dadas dos n-uplas, acontece que son
(x1 , x2 , . . . , xn )
= (y1 , y2 , . . . , yn )
x1 = y1 , x2 = y2 ,
. . . , xn = yn
iguales precisamente si sus componentes correspondientes son iguales. En
símbolos: dos vectores (x1 , x2 , . . . , xn ) y (y1 , y2 , . . . , yn ) son iguales precisamente si: x1 = y1 , x2 = y2 , . . . , xn = yn . Vemos, pues, que la igualdad
vectorial (x1 , x2 , . . . , xn ) = (y1 , y2 , . . . , yn ) es equivalente a las n igualdades
escalares x1 = y1 , x2 = y2 , . . . , xn = yn (tantas como componentes tienen
los vectores de la igualdad vectorial).
Nota bene
Hablamos de igualdad de vectores de un mismo conjunto; si uno de
los vectores fuera de R2 y el otro de R3 , verbigracia, no habría igualdad que
plantearse: serían, obviamente, objetos distintos.
2. Vectores columna y vectores fila de una matriz
A partir de una matriz, se pueden definir ciertos vectores (los denominados
vectores columna y vectores fila de la matriz), que servirán más adelante
para marcar un punto importante de relación entre los sistemas de ecuaciones lineales y los vectores. Dedicamos este apartado a presentarlos.
Vectores columna de una
matriz
266
Dada una matriz, definimos los llamados vectores columna de la
matriz de esta forma: hay un vector columna por cada columna de la matriz,
y las componentes de aquel son los términos de esta. En particular, cada
vector columna tiene tantas componentes como filas tiene la matriz.
Por ejemplo, consideremos esta matriz:
1 −1 3
A=
.
3
0 2
A pesar del apelativo columna,
los vectores columna son en
definitiva vectores.
Nótese que la matriz A tiene
dos filas; por eso sus vectores
columna son de R2 .
Tiene tres columnas, luego tendrá tres vectores columna. Los términos de la
primera columna son 1 y 3: estos números son las componentes del primer
vector columna; es decir, el primer vector columna de la matriz A es (1, 3),
que es un vector de R2 . Análogamente, el segundo vector columna de la
matriz A es (−1, 0), y el tercero es (3, 2), ambos también de R2 .
III. VECTORES
Veamos la definición de vector columna en general. Consideremos una
matriz A de orden (n, m), y escribámosla distinguiendo una columna genérica:
⎛
a11
⎜a
⎜ 21
⎜
⎜ .
⎜ .
⎝ .
an1
. . . a1j
. . . a2j
.
..
.
.
.
. . . anj
...
...
..
.
...
⎞
a1m
a2m ⎟
⎟
⎟
. ⎟
. ⎟
. ⎠
anm
Otros ejemplos
⎛
a11
⎜
⎜ a21
⎜
A=⎜ .
⎜ ..
⎝
an1
a12
a22
..
.
an2
...
...
..
.
...
a1j
a2j
..
.
anj
...
...
..
.
...
⎞
a1m
⎟
a2m ⎟
⎟
.
.. ⎟
. ⎟
⎠
anm
Fijemos un número natural j tal que 1 j m. Se define el j-ésimo vector
columna de la matriz A como el vector de Rn cuyas componentes son los
términos de la j-ésima columna de A; es decir: (a1j , a2j , . . . , anj ).
267
¿Cuál es la matriz cuyos vectores columna son (2, 3, −1), (1, 0, 5),
(0, 1, 1/2) y (1, 1, 0) (en este orden)? Son cuatro vectores, luego la matriz
tiene cuatro columnas; y son vectores de R3 , luego la matriz tiene tres filas.
La matriz es esta:
⎛
2
⎜
⎝ 3
−1
1
0
5
0
1
1/2
⎞
1
⎟
1⎠.
0
¿Y cuál es la matriz cuyo único vector columna es (2, −1, 0)? Un solo
vector columna implica una matriz con una sola columna, es decir, una
matriz columna; en este caso, esta:
⎛
⎞
2
⎜
⎟
⎝ −1 ⎠ .
0
Una matriz fila, verbigracia:
2
0 , ¿qué vectores columna tiene? Des-
de luego, como acontece con cualquier matriz, tantos como columnas —dos
en este caso—, y con tantas componentes como filas —una en este caso—.
Es decir, los vectores columna de esta matriz son dos vectores de R1 = R
(§ 264); en concreto, los números 2 y 0 .
Vectores fila de una matriz
268
A partir de una matriz, también se consideran los denominados
vectores fila de la matriz: un vector fila por cada fila de la matriz, y de
forma que las componentes del primero son los términos de la segunda.
Asimismo, cada vector fila presenta tantas componentes como columnas
tiene la matriz.
Por ejemplo, para esta matriz:
Esta matriz es la misma que la
del § 266.
A=
1
3
−1
0
3
2
,
III.1. VECTORES
Los vectores fila no dejan de
ser vectores.
hay dos vectores fila (son dos las filas) y cada uno es de R3 (son tres las
columnas). El primer vector fila es (1, −1, 3); el segundo, (3, 0, 2).
Para verlo en general, consideramos una matriz A de orden (n, m), que
escribimos de forma que queda distinguida una fila genérica:
⎛
⎛
a11
⎜
⎜ .
⎜ .
⎜ .
⎜
⎜ ai1
⎜
⎜ .
⎜ .
⎜ .
⎝
an1
a12
.
.
.
ai2
.
.
.
an2
...
..
.
...
..
.
...
⎞
a1m
⎟
. ⎟
. ⎟
. ⎟
⎟
aim ⎟
⎟
. ⎟
. ⎟
. ⎟
⎠
anm
Más ejemplos
a11
⎜
⎜ a21
⎜
⎜ .
⎜ ..
⎜
A=⎜
⎜ ai1
⎜
⎜ .
⎜ ..
⎝
an1
a12
a22
..
.
ai2
..
.
an2
...
...
..
.
...
..
.
...
⎞
a1m
⎟
a2m ⎟
⎟
.. ⎟
. ⎟
⎟
⎟.
aim ⎟
⎟
.. ⎟
. ⎟
⎠
anm
Fijemos un número natural i tal que 1 i n. Se define el i-ésimo vector fila de la matriz A como el vector de Rm cuyas componentes son los
términos de la i-ésima fila de A; esto es: (ai 1 , ai 2 , . . . , aim ).
269
¿Cuál es la matriz cuyos vectores fila son estos: (2, 3, −1), (1, 0, 5),
(0, 1, 1/2) y (1, 1, 0) (en este orden)? Será una matriz de cuatro filas (tantas
como vectores fila nos dan) y de tres columnas (tantas como componentes
tiene cada vector fila); esta matriz:
⎛
2
⎜
⎜1
⎜
⎜0
⎝
1
3
0
1
1
⎞
−1
⎟
5⎟
⎟.
1/2 ⎟
⎠
0
Nótese que la matriz que acabamos de escribir es la traspuesta de la matriz
de orden (3, 4) del § 267, y tiene como vectores fila los mismos vectores que
esta matriz citada tiene como vectores columna.
V.gr., esta matriz es simétrica:
1 −2
;
−2
1
sus vectores, tanto vectores
fila como vectores columna,
son (1, −2) y (−2, 1).
En general, los vectores fila de una matriz son los vectores columna de su
traspuesta, y viceversa. Como un caso particular, si una matriz es simétrica
(es decir, coincide con su traspuesta, cf. § 226, p. 208), entonces sus vectores
fila y sus vectores columna correspondientes son iguales.
3. Combinaciones lineales
Dedicamos este apartado a tratar el concepto de combinación lineal de unos
vectores, y a explorar sus relaciones con los sistemas de ecuaciones lineales.
Combinaciones lineales de
dos vectores
270
Los vectores pueden, pues, sumarse, y multiplicarse por números.
Cuando combinamos estas dos operaciones, obtenemos lo que se llama una
combinación lineal de vectores.
III. VECTORES
Dados un vector u y dos vectores v 1 y v 2 , los tres de Rn , decimos que el
vector u es igual a una combinación lineal de los vectores v 1 y v 2 si existen
dos números α1 y α2 (a los que nos referiremos como los coeficientes de la
combinación lineal) tales que: u = α1 v 1 + α2 v 2 (dicho informalmente: u es
igual a algún número por v 1 más algún número por v 2 ).
Por ejemplo, el vector (0, 3) es igual a una combinación lineal de los
vectores (1, 0) y (2, 3), pues hay dos números α1 y α2 , en concreto: α1 = −2
y α2 = 1, para los cuales podemos escribir: (0, 3) = α1 (1, 0) + α2 (2, 3). En
efecto:
α1 (1, 0) + α2 (2, 3) = −2(1, 0) + 1(2, 3)
= (−2 · 1, −2 · 0) + (2, 3) = (−2 + 2, 0 + 3) = (0, 3).
Los coeficientes de esta combinación lineal son α1 = −2 y α2 = 1.
Otro ejemplo. El vector (1, 2, −1) no puede ser igual a una combinación
lineal de los vectores (−1, 1, 0) y (2, 1, 0). ¿Por qué? Porque cualquier operación que hagamos con estos dos últimos vectores nos llevará a un vector
cuya tercera componente es nula; de ninguna forma podremos obtener el
vector (1, 2, −1), que tiene su tercera componente no nula.
Combinaciones lineales
generales (de k vectores)
271
La idea de combinación lineal se puede generalizar para hablar de
combinación lineal de una cantidad cualquiera de vectores. Si k es un número natural mayor o igual que 1, dado un vector u de Rn y dados k vectores v 1 , v 2 , . . . , v k , todos también de Rn , decimos que el vector u es igual a
una combinación lineal de los vectores v 1 , v 2 , . . . , v k si existen k escalares
(esto es, números) α1 , α2 , . . . , αk tales que:
u = α1 v 1 + α2 v 2 + · · · + αk v k .
Nos referiremos a los números α1 , α2 , . . . , αk como los coeficientes de la
combinación lineal.
Por ejemplo, en virtud de que se cumple esta igualdad:
(−1)(1, 1, 1) + 3(2, 0, 0) + 0(1, 3, 1) + 2(−1, 2, 1) = (3, 3, 1),
podemos afirmar que el vector (3, 3, 1) es igual a una combinación lineal de
los vectores (1, 1, 1), (2, 0, 0), (1, 3, 1) y (−1, 2, 1), con los coeficientes −1, 3,
0 y 2 (en este orden). También se cumple esta otra igualdad:
0(1, 1, 1) + 1(2, 0, 0) + 1(1, 3, 1) + 0(−1, 2, 1) = (3, 3, 1),
III.1. VECTORES
la cual es otra manera de expresar el vector (3, 3, 1) como una combinación
lineal de los vectores (1, 1, 1), (2, 0, 0), (1, 3, 1) y (−1, 2, 1); los coeficientes
son ahora: 0, 1, 1 y 0.
A la vista de este ejemplo, y también del segundo ejemplo del § 270, surgen dos preguntas naturales: ¿cuándo un vector es igual a una combinación
lineal de unos vectores dados?; y, en caso afirmativo, ¿habrá solo una forma
de expresar esa combinación lineal o habrá más de una? Atenderemos estas
cuestiones enseguida.
Combinaciones lineales de un
solo vector
Pero antes de seguir, una pregunta: ¿qué significa que un vector
272
es combinación lineal de otro (de uno solo)? Es decir, nos estamos preguntando por el caso k = 1 en la definición general de combinación lineal
(§ 271).
Particularizando tal definición de combinación lineal para k = 1, vemos
que un vector u de Rn es igual a una combinación lineal de un vector v 1
de Rn precisamente si existe algún número α1 tal que: u = α1 v 1 ; esto es: u
es combinación lineal de v 1 precisamente si u es múltiplo de v 1 .
Por ejemplo, el vector (2, 1, −4) es múltiplo del vector (1, 1/2, −2) (aquel
(2, 1, −4) = 2(1, 1/2, −2)
puede obtenerse de este multiplicando por 2), así que podríamos decir que
el vector (2, 1, −4) es igual a una combinación lineal del vector (1, 1/2, −2).
Pero el vector (2, −1) (estamos poniendo otro ejemplo) no es igual a
una combinación lineal del vector (1, 3), pues no hay forma de obtener el
primero como múltiplo del segundo. Nótese que el producto de cualquier
En efecto: a(1, 3) = (a, 3a),
y 3a es el triple de a; y ello
para cualquier número a.
Un ejemplo
número por el vector (1, 3) será un vector que tendrá su segunda componente igual al triple de la primera, y el vector (2, −1) no satisface este requisito.
273
¿Es el vector (0, 3) igual a alguna combinación lineal de los vecto-
res (1, 0) y (2, 3) (§ 270)? Sabemos que sí, pero querríamos llegar a averiguarlo por nosotros mismos, sin esperar a que nos den unos coeficientes
que expliciten la combinación lineal.
Afirmar que el vector (0, 3) es igual a una combinación lineal de los
vectores (1, 0) y (2, 3) significa afirmar que existen dos números α1 y α2
tales que α1 (1, 0) + α2 (2, 3) = (0, 3), es decir:
α1 (1, 0) = (α1 , 0)
α2 (2, 3) = (2α2 , 3α2 )
(α1 , 0) + (2α2 , 3α2 ) = (0, 3),
o bien: (α1 + 2α2 , 3α2 ) = (0, 3).
Ahora bien, esta última igualdad vectorial es equivalente a las dos igualdades escalares siguientes (tantas como componentes tienen los vectores
III. VECTORES
de la igualdad vectorial, § 265, p. 247):
α1 + 2α2 = 0
y
3α2 = 3,
las cuales podemos escribir de una manera muy familiar para nosotros:
⎧
⎨ α1 + 2α2 = 0
⎩
3α2 = 3,
¡Ojo! En este sistema, las incógnitas son α1 y α2 !
(1)
esto es, como un sistema de dos ecuaciones en las dos incógnitas α1 y α2 .
En definitiva: afirmar que el vector (0, 3) es igual a una combinación lineal
de los vectores (1, 0) y (2, 3) es tanto como afirmar que el sistema de ecuaciones lineales (1) admite solución; además, en caso de admitirla, cada una
de sus soluciones proporciona unos coeficientes para expresar la combinación lineal.
La matriz ampliada del sistema (1) ya es escalonada:
Fíjese el lector en los vectores
columna (cf. § 266, p. 247) de
esta matriz. . .
1
0
2
3
0
3
.
Como esta matriz ampliada escalonada no presenta un pivote en la última
columna, el sistema admite solución; como el número de pivotes es igual al
de incógnitas, tal solución es única: el sistema es, pues, compatible determinado. En términos de la combinación lineal que buscamos, esto significa
que el vector (0, 3) sí se puede expresar como una combinación lineal de los
vectores (1, 0) y (2, 3), y además de forma única.
El lector puede resolver enseguida el sistema (1) (por sustitución hacia atrás, o llegando hasta la forma escalonada reducida de la matriz ampliada), y obtener que su única solución es el par ordenado (−2, 1). La única
forma de expresar el vector (0, 3) como una combinación lineal de los vectores (1, 0) y (2, 3) es, pues, esta: (0, 3) = −2(1, 0) + 1(2, 3), es decir, con los
coeficientes −2 y 1.
Antes de seguir (con más ejemplos), fijémonos un momento en cómo es
el sistema de ecuaciones lineales (1): los vectores columna de su matriz ampliada son (1, 0), (2, 3) y (0, 3), que son justamente los vectores originales
de este ejemplo: el último de ellos (que tiene por componentes los términos
independientes del sistema) es el que buscamos expresar como combinación
lineal de los demás.
Otro ejemplo
274
¿Es el vector (0, 3, 1) igual a alguna combinación lineal de los vecto-
res (1, 1, 2) y (−1, 2 − 3)?
III.1. VECTORES
Procedamos como en el ejemplo del § 273. El vector (0, 3, 1) es igual a
una combinación lineal de los vectores (1, 1, 2) y (−1, 2 − 3) precisamente si
existen dos números α1 y α2 tales que α1 (1, 1, 2) + α2(−1, 2, −3) = (0, 3, 1),
o lo que es lo mismo:
(α1 − α2 , α1 + 2α2 , 2α1 − 3α2 ) = (0, 3, 1),
igualdad vectorial que es su vez equivalente a estas tres igualdades escalares
(que ya escribimos como un sistema de ecuaciones lineales, en las incógnitas α1 y α2 ):
⎧
⎪
α1 − α2 = 0
⎪
⎪
⎨
α1 + 2α2 = 3
⎪
⎪
⎪
⎩ 2α − 3α = 1.
1
2
(2)
Escalonamos la matriz ampliada de este sistema:
⎛
1
⎜
⎝1
2
−1
2
−3
⎛
⎞
F2 ←F2 −F1
0
1
F
←F
−2F
⎟ 3 3
1 ⎜
3 ⎠ →
⎝ 0
1
0
−1
3
−1
⎛
⎞
0
1
F
←F
+(1/3)F
⎟ 3 3
2 ⎜
3 ⎠ →
⎝0
1
0
−1
3
0
⎞
0
⎟
3⎠,
2
y vemos que la última columna presenta un pivote, con lo que el sistema
es incompatible. ¿Qué significa esto en lo que concierne a la combinación
lineal que buscamos? Que no hay tal. Fijémonos: afirmar que el sistema es
incompatible es lo mismo que afirmar que no existen dos números α1 y α2
de forma que el vector (0, 3, 1) sea igual a α1 (1, 1, 2) + α2(−1, 2, −3), lo cual
es a su vez lo mismo que afirmar que el vector (0, 3, 1) no es igual a una
combinación lineal de los vectores (1, 1, 2) y (−1, 2 − 3).
Nota bene
Los vectores columna de la matriz ampliada del sistema (2) son es-
tos: (1, 1, 2) y (−1, 2 − 3), y (0, 3, 1) (este último es el que se corresponde con la
columna de términos independientes). Los dos primeros son los dos vectores
cuyas combinaciones lineales calculamos para ver si el tercero —y último— es
igual a alguna de ellas.
Y otro ejemplo más
275
En el § 271, expresamos de dos formas el vector (3, 3, 1) como una
combinación lineal de los vectores (1, 1, 1), (2, 0, 0), (1, 3, 1) y (−1, 2, 1).
Procedamos con estos vectores como en los § 273 y 274.
El vector (3, 3, 1) es igual a una combinación lineal de los cuatro vectores escritos precisamente si existen cuatro números α1 , α2 , α3 y α4 tales
que α1 (1, 1, 1) + α2 (2, 0, 0) + α3 (1, 3, 1) + α4 (−1, 2, 1) = (3, 3, 1), lo que es
equivalente a la igualdad vectorial:
(α1 + 2α2 + α3 − α4 , α1 + 3α3 + 2α4 , α1 + α3 + α4 ) = (3, 3, 1),
III. VECTORES
equivalente a su vez a este sistema de ecuaciones lineales:
⎧
⎪
α + 2α2 + α3 − α4 = 3
⎪
⎪
⎨ 1
+ 3α3 + 2α4 = 3
α1
⎪
⎪
⎪
⎩α
+ α3 + α4 = 1.
1
(3)
Las siguientes matrices son, respectivamente, la matriz ampliada del sistema y una forma escalonada de esta matriz ampliada:
⎛
De nuevo ocurre que los vectores columna de esta matriz
ampliada son los vectores dados al principio.
1
⎜
⎝1
1
2
0
0
1
3
1
⎞
3
⎟
3⎠
1
−1
2
1
⎛
y
1
⎜
⎝0
0
2
−2
0
1
2
−2
−1
3
−1
⎞
3
⎟
0⎠
−2
(se puede llegar de la primera a la segunda con las transformaciones elementales F2 ← F2 − F1 , F3 ← F3 − F1 y F3 ← F3 − F2 , en este orden). Como
la forma escalonada no presenta un pivote en la última columna, el sistema
admite solución; como el número de pivotes es menor que el de incógnitas,
hay infinitas soluciones: el sistema (3) es compatible indeterminado. En lo
que se refiere a la combinación lineal cuya existencia estamos indagando,
podemos afirmar entonces que el vector (3, 3, 1) sí se puede escribir como
una combinación lineal de los vectores (1, 1, 1), (2, 0, 0), (1, 3, 1) y (−1, 2, 1),
y ello de infinitas maneras, es decir, con infinitas posibilidades para los coeficientes de la combinación lineal.
Exploramos todos los posibles valores de los coeficientes de la combinación lineal en el parágrafo siguiente.
Y otro ejemplo más
(continuación)
276
Si resolvemos el sistema de ecuaciones lineales (3), visto en el § 275,
podremos averiguar todas las formas de expresar el vector (3, 3, 1) como
combinación lineal de los vectores (1, 1, 1), (2, 0, 0), (1, 3, 1) y (−1, 2, 1);
hagámoslo.
La forma escalonada reducida de la matriz ampliada del sistema (3) es
esta:
⎛
1
⎜
⎝0
0
0
1
0
0
0
1
1/2
−1
1/2
⎞
0
⎟
1⎠
1
(podemos llegar a ella aplicando, a la forma escalonada que le hemos escrito
a la matriz ampliada del sistema en el citado § 275, las transformaciones
elementales F1 ← F1 + F2 , F2 ← (−1/2)F2, F3 ← (−1/2)F3, F2 ← F2 + F3
y F1 ← F1 − 3F3 ), y el sistema de ecuaciones lineales que tiene esta matriz
III.1. VECTORES
escalonada reducida como matriz ampliada es el siguiente:
⎧
⎪
⎪
⎪ α1
⎪
⎪
⎪
⎨
Recuérdese que las incógnitas
son α1 , α2 , α3 y α4 .
⎪
⎪
⎪
⎪
⎪
⎪
⎩
+
1
α4 = 0
2
−
α4 = 1
α3 +
1
α4 = 1.
2
α2
La incógnita α4 es libre y las demás incógnitas son básicas; despejando estas en función de aquella, y sustituyendo la incógnita libre por λ, podemos
afirmar que todas las soluciones del sistema de ecuaciones lineales (3) son
las cuaternas (α1 , α2 , α3 , α4 ) tales que:
⎧
1
⎪
⎪
α1 = − λ,
⎪
⎪
⎪
2
⎪
⎪
⎪
⎪
⎪
⎨ α2 = 1 + λ,
⎪
1
⎪
⎪
⎪
α3 = 1 − λ,
⎪
⎪
2
⎪
⎪
⎪
⎪
⎩
α4 =
λ,
donde λ es un número cualquiera.
Volviendo a la combinación lineal, podemos entonces concluir que se satisface esta igualdad:
1
1 (3, 3, 1) = − λ (1, 1, 1) + (1 + λ) (2, 0, 0) + 1 − λ (1, 3, 1) + λ (−1, 2, 1),
2
2
y ello cualquiera que sea el número λ. Esta igualdad nos establece todas las
formas de escribir el vector (3, 3, 1) como combinación lineal de los vectores (1, 1, 1), (2, 0, 0), (1, 3, 1) y (−1, 2, 1); para cada valor de λ, hay una.
El caso general
277
Examinemos despacio lo que hemos hecho en los parágrafos ante-
riores: tenemos un vector y queremos determinar si es o no combinación
lineal de unos vectores dados; para ello escribimos, a partir de todos los
vectores, un sistema de ecuaciones lineales de modo que la existencia de
solución en el sistema es equivalente a que tal combinación lineal sea posible. ¿Qué relación hay entre el sistema de ecuaciones lineales y los vectores? En los distintos ejemplos de los parágrafos anteriores lo hemos podido
apreciar; la describimos ahora en un caso general.
Nos dan un vector u, y también k vectores v 1 , v 2 , . . . , v k , y todos de Rn .
Formamos el sistema de n ecuaciones lineales y k incógnitas cuya matriz
ampliada —que será de orden (n, k + 1)— tiene por vectores columna los
vectores v 1 , v 2 , . . . , v k y u, o lo que es lo mismo: el sistema cuya matriz
de coeficientes tiene por vectores columna los vectores v 1 , v 2 , . . . , v k , y
III. VECTORES
cuya matriz de términos independientes tiene por único vector columna
el vector u. Entonces acontece lo siguiente: una condición necesaria y suficiente para que el vector u sea igual a una combinación lineal de los vectores v 1 , v 2 , . . . , v k es que el sistema de ecuaciones lineales que acabamos de
describir admita solución; además, cada solución del sistema proporciona
unos coeficientes para la combinación lineal.
El lector puede confirmar que los sistemas de ecuaciones lineales que
hemos obtenido en los ejemplos anteriores se ajustan a esta descripción.
Justifiquemos lo afirmado. Deseamos averiguar si
el vector u se puede escribir como una combinación li-
Esta última igualdad vectorial se puede desglosar en n
igualdades escalares (que ya escribimos con las sumas
neal de los vectores v 1 , v 2 , . . . , v k . Buscamos, pues, k
desarrolladas):
escalares α1 , α2 , . . . , αk para los que se verifique la
igualdad α1 v 1 + α2 v 2 + · · · + αk v k = u, o escrito más
sintéticamente:
k
αi v i = u.
(4)
i=1
Queremos desarrollar esta igualdad vectorial, para lo
cual debemos escribir las componentes de sus vectores; por un lado, ponemos: u = (u1 , u2 , . . . , un ), y por
otro:
ciones lineales en las k incógnitas α1 , α2 , . . . , αk . Cada
solución de este sistema proporciona entonces unos
v 2 = (v21 , v2 2 , . . . , v2 n ),
coeficientes que permiten expresar el vector u como
combinación lineal de los vectores v 1 , v 2 , . . . , v k .
Por otra parte, la matriz ampliada del sistema ante-
v k = (vk1 , vk2 , . . . , vk n ),
donde la notación vij designa la j-ésima componente
del i-ésimo vector v i (ello para cada 1 i k y cada 1 j n). De esta forma, la igualdad (4) toma la
forma:
αi (vi1 , vi 2 , . . . , vin ) = (u1 , u2 , . . . , un ),
i=1
de donde:
k
k
k
αi vi1 ,
αi vi2 , . . . ,
αi vin = (u1, u2 , . . . , un ).
i=1
i=1
las cuales pueden leerse como un sistema de n ecua-
v 1 = (v11 , v1 2 , . . . , v1 n ),
..........................
k
⎧
⎪
α1 v11 + α2 v21 + · · · + αk vk1 = u1 ,
⎪
⎪
⎪
⎪
⎪
⎨ α1 v12 + α2 v22 + · · · + αk vk2 = u2 ,
⎪
⎪ .........................................
⎪
⎪
⎪
⎪
⎩
α1 v1n + α2 v2n + · · · + αk vkn = un ,
i=1
Cálculo de todos los vectores
que son combinación lineal
de unos dados
278
rior es la siguiente:
⎛
v11
⎜
⎜ v12
⎜
⎜ .
⎜ .
⎝ .
v1n
v21
v22
.
..
v2n
...
...
..
.
...
vk1
vk2
.
..
vkn
⎞
u1
⎟
u2 ⎟
⎟
,
. ⎟
.. ⎟
⎠
un
la cual tiene k + 1 vectores columna: los k primeros son
los vectores v 1 , v 2 , . . . , v k , y el último es el vector u.
Hagamos uso de lo visto en el § 277 para responder a la siguiente
pregunta (que trata un ejemplo concreto): dados los vectores (1, −1, 2)
y (2, 0, 4), ambos de R3 , ¿qué condiciones debe cumplir un vector de R3 ,
digamos (x1 , x2 , x3 ), para ser combinación lineal de ellos?
III.1. VECTORES
De acuerdo con lo afirmado en el citado § 277 (en consonancia con los
ejemplos desarrollados en los parágrafos anteriores), debemos considerar el
sistema de ecuaciones lineales cuya matriz ampliada es la matriz que tiene
por vectores columna los vectores (1, −1, 2), (2, 0, 4) y (x1 , x2 , x3 ), en este
orden; tal matriz es
⎛
1
=⎜
A
⎝ −1
2
⎞
x1
⎟
x2 ⎠ .
x3
2
0
4
Acontece entonces que este sistema de ecuaciones lineales del que hablamos
admite solución precisamente si el vector (x1 , x2 , x3 ) es igual a una combiTrabajamos con un sistema similar, con tres parámetros, en
el § 105 (cf. p. 109).
nación lineal de los vectores (1, −1, 2) y (2, 0, 4). Debemos, pues, discutir el
y ello según los valores de x1 ,
sistema cuya matriz ampliada es la matriz A,
x2 y x3 .
Sabemos que, para discutir (y aun para resolver) un sistema de ecuaciones lineales, no hace falta escribirlo explícitamente si tenemos su matriz
ampliada. Escalonemos, pues, la matriz ampliada A:
⎛
1
⎜
−1
A=⎝
2
2
0
4
⎛
⎞
x1
1
⎟ F2 ←F2 +F1 ⎜
x2 ⎠ →
0
⎝
x3
2
⎛
1
⎜
→
⎝0
0
F3 ←F3 −2F1
2
2
4
2
2
0
⎞
x1
⎟
x1 + x2 ⎠
x3
⎞
x1
⎟
.
x1 + x2 ⎠ = A
x3 − 2x1
admite
Ahora, el sistema de ecuaciones lineales cuya matriz ampliada es A
solución precisamente si no hay un pivote en la última columna de la matriz
, pero esto es a su vez equivalente a que x3 − 2x1 = 0. ¡Esta
escalonada A
es la condición que buscamos! Afirmar que admite solución el sistema de
es equivalente a afirmar que x3 − 2x1 = 0, luego afirmar
matriz ampliada A
que el vector (x1 , x2 , x3 ) es igual a una combinación lineal de los vectores (1, −1, 2) y (2, 0, 4) también es equivalente a afirmar que x3 − 2x1 = 0.
Podemos concluir lo siguiente: todos los vectores (x1 , x2 , x3 ) de R3 que
La condición x3 − 2x1 = 0,
o bien: x3 = 2x1 , expresada
con palabras reza así: los que
cumplen que su tercera componente es igual al doble de la
primera.
Para (1, 2, −3), la tercera componente no es igual al doble
de la primera; para (1, a, 2), sí.
se pueden expresar como una combinación lineal de los vectores (1, −1, 2)
y (2, 0, 4) son exactamente los que satisfacen la condición x3 − 2x1 = 0, o
dicho de otra forma: son exactamente las soluciones de la ecuación lineal
homogénea (esto es, con término independiente nulo) x3 − 2x1 = 0.
Por ejemplo, es inmediato comprobar que el vector (1, 2, −3) no es igual
a una combinación lineal de los vectores (1, −1, 2) y (2, 0, 4), pero que sí lo
es todo vector de la forma (1, a, 2) cualquiera que sea el número a.
III. VECTORES
Otro ejemplo
279
Dados los vectores (1, −1, 1, 0), (2, 1, 0, 2) y (1, 2, −1, 2), esta vez
de R4 , estudiemos qué condiciones debe cumplir un vector (x1 , x2 , x3 , x4 )
de R4 para ser combinación lineal de ellos.
Escribimos, distinguiendo la última columna, la matriz cuyos vectores
columna son (1, −1, 1, 0), (2, 1, 0, 2), (1, 2, −1, 2) y (x1 , x2 , x3 , x4 ):
⎞
⎛
1 2
1 x1
⎟
⎜
⎜ −1 1
2 x2 ⎟
⎟
=⎜
A
⎜ 1 0 −1 x ⎟ .
3⎠
⎝
0 2
2 x4
La escalonamos:
⎛
1 2
1
⎜
⎜ −1 1
2
⎜
⎜ 1 0 −1
⎝
0 2
2
Ayuda con el tercer término de
la última columna:
2
(x1 + x2 )
3
2
1
= − x1 + x2 + x3 .
3
3
x3 − x1 +
⎞
⎛
x1
1
F2 ←F2 +F1
⎟
⎜
⎜0
x2 ⎟
F
←F
−F
3
3
1
⎟ →
⎜
⎜0
x3 ⎟
⎠
⎝
x4
0
⎛
1
⎜
⎜
F3 ←F3 +(2/3)F2 ⎜
⎜0
F4 ←F4 −(2/3)F2 ⎜
→
⎜
⎜0
⎜
⎜
⎜
⎝
0
2
3
−2
2
1
3
−2
2
⎞
x1
⎟
x1 + x2 ⎟
⎟
x3 − x1 ⎟
⎠
x4
2
1
x1
3
3
0
0
0
0
⎞
⎟
⎟
⎟
⎟
⎟
⎟.
1
2
− x1 + x2 + x3 ⎟
⎟
⎟
3
3
⎟
⎠
2
2
− x1 − x2 + x4
3
3
x1 + x2
tiene solución precisamente
El sistema cuya matriz ampliada es la matriz A
si la matriz escalonada recién obtenida no tiene un pivote en su última columna, lo que a su vez es equivalente a que se cumplan simultáneamente
estas dos igualdades:
1
2
2
2
− x1 + x2 + x3 = 0 y − x1 − x2 + x4 = 0,
3
3
3
3
o bien (multiplicando los dos miembros de ambas igualdades por −3):
x1 − 2x2 − 3x3 = 0
y
2x1 + 2x2 − 3x4 = 0.
Y las dos igualdades pueden interpretarse como las ecuaciones de un sistema de ecuaciones lineales homogéneo (de dos ecuaciones y cuatro incógnitas).
Finalmente concluimos: todos los vectores (x1 , x2 , x3 , x4 ) de R4 que son
combinación lineal de los vectores (1, −1, 1, 0), (2, 1, 0, 2) y (1, 2, −1, 2) son
precisamente las soluciones del siguiente sistema de ecuaciones lineales homogéneo:
⎧
⎨ x1 − 2x2 − 3x3
=0
⎩ 2x1 + 2x2
− 3x4 = 0.
III.1. VECTORES
Otro ejemplo más
280
¿Cuáles son los vectores que son combinación lineal de estos tres
de R3 : (1, 1, 0), (2, 0, 1) y (3, 1, 0)?
Escribamos la matriz cuyos vectores columna son los cuatro siguientes:
los tres vectores dados (en el mismo orden en que están escritos) y un vector
genérico de R3 : (x1 , x2 , x3 ); distinguiendo la última columna, tal matriz es
esta:
⎛
1
=⎜
A
⎝1
0
2
0
1
3
1
0
Escalonemos la matriz:
⎛
⎞
⎛
1
1 2 3 x1
⎜
⎟ F2 ←F2 −F1
=⎜
⎝0
A
⎝ 1 0 1 x2 ⎠ →
0 1 0 x3
0
⎛
1
F3 ←F3 +(1/2)F2 ⎜
→
⎝0
0
⎞
x1
⎟
x2 ⎠ .
x3
2
−2
1
3
−2
0
⎞
x1
⎟
x2 − x1 ⎠
x3
2
−2
0
3
−2
1
⎞
x1
⎟
x2 − x1
⎠.
x3 + (x2 − x1 )/2
La matriz escalonada obtenida no presenta ningún pivote en la última columna, y ello cualesquiera que sean x1 , x2 y x3 . El sistema de ecuaciones
admite, pues, solución cuallineales cuya matriz ampliada es la matriz A
quiera que sea el valor de x1 , x2 y x3 .
En términos de las combinaciones lineales de los tres vectores (1, 1, 0),
(2, 0, 1) y (3, 1, 0), podemos entonces afirmar: cualquier vector (x1 , x2 , x3 )
de R3 es igual a alguna combinación lineal de estos tres vectores.
Adicionalmente, nótese que, fijado un valor de x1 , x2 y x3 , el sistema de
tiene solución única (el número
ecuaciones lineales con matriz ampliada A
de pivotes es igual al número de incógnitas). En otras palabras, cada vecExploraremos esta propiedad
en la SECCIÓN III.3.
Las soluciones de un sistema
homogéneo como
combinaciones lineales de
vectores
tor (x1 , x2 , x3 ) de R3 se puede escribir de una única manera como combinación lineal de los vectores (1, 1, 0), (2, 0, 1) y (3, 1, 0).
281
En los § 278 y 279, hemos visto sendos ejemplos en los que acon-
tece lo siguiente: dados unos vectores, encontramos un sistema de ecuaciones lineales homogéneo (en el § 278, tal sistema se reducía a una única
ecuación lineal homogénea) de modo que todos los vectores que son combinación lineal de los vectores dados son precisamente las soluciones de
tal sistema. Nos surge la pregunta de si acontecerá a su vez el recíproco:
dado un sistema de ecuaciones lineales homogéneo, ¿existen algunos vectores tales que las soluciones del sistema son precisamente todas las posibles
combinaciones lineales de esos vectores?
III. VECTORES
Veamos un ejemplo. Consideremos este sistema de ecuaciones lineales
homogéneo:
⎧
⎪
x1
⎪
⎪
⎨
+ x3 + 2x4 = 0
2x2 + 3x3 − x4 = 0
⎪
⎪
⎪
⎩ 2x + 2x + 5x + 3x = 0.
1
2
3
4
(5)
Para resolverlo, buscamos la forma escalonada reducida de su matriz de
coeficientes (al ser homogéneo, recordemos que es más cómodo operar solo
con la matriz de coeficientes, en vez de con la matriz ampliada, cf. § 97,
p. 99):
⎛
1
⎜
⎝0
2
0
2
2
1
3
5
⎞
⎛
2
1
⎟ F3 ←F3 −2F1 ⎜
−1 ⎠ →
⎝0
3
0
⎛
1
F2 ←(1/2)F2 ⎜
→
⎝0
0
⎛
1
⎜
→
⎝0
0
F3 ←F3 −2F2
⎞
2
⎟
−1 ⎠
−1
0
2
2
1
3
3
0
1
2
1
3/2
3
⎞
2
⎟
−1/2 ⎠
−1
0
1
0
1
3/2
0
⎞
2
⎟
−1/2 ⎠ .
0
Quitando la ecuación nula —que sería la tercera—, el sistema homogéneo
cuya matriz de coeficientes es la matriz escalonada reducida recién obtenida
se nos queda en el siguiente:
⎧
⎪
⎨ x1
⎪
⎩
+
x3 + 2x4 = 0
x2 +
3
1
x3 − x4 = 0.
2
2
Las incógnitas básicas son x1 y x2 , y las otras dos son libres; si despejamos
aquellas en función de estas, y sustituimos x3 y x4 por λ y μ, respectivamente, podemos afirmar que todas las soluciones del sistema de ecuaciones
lineales (5) son todas las cuaternas (x1 , x2 , x3 , x4 ) tales que:
⎧
⎪
⎪
⎪ x1 = − λ − 2μ,
⎪
⎪
⎪
⎪
1
3
⎪
⎪
⎨ x2 = − λ + μ,
2
2
donde λ y μ son números cualesquiera;
⎪
⎪
⎪
⎪ x3 =
λ
,
⎪
⎪
⎪
⎪
⎪
⎩x =
μ,
4
o bien, todas las cuaternas de la forma:
3
1
−λ − 2μ, − λ + μ, λ, μ , donde λ y μ son números cualesquiera.
2
2
III.1. VECTORES
Hasta aquí, nos hemos limitado a resolver el sistema de ecuaciones lineales homogéneo (5) —como sabemos que se resuelven los sistemas de
este tipo—, pero examinemos la cuaterna genérica que expresa todas sus
soluciones: (−λ − 2μ, −(3/2)λ + (1/2)μ, λ, μ). Podemos escribir:
3
1
3
1
−λ − 2μ, − λ + μ, λ, μ = −λ, − λ, λ, 0 + −2μ, μ, 0, μ
2
2
2
2
1
3
= λ −1, − , 1, 0 + μ −2, , 0, 1 ,
2
2
lo que expresa a su vez tal cuaterna como una combinación lineal de dos
vectores: (−1, −3/2, 1, 0) y (−2, 1/2, 0, 1), con coeficientes λ y μ. De esta
manera, podemos afirmar que todas las soluciones del sistema (5) son exactamente todas las combinaciones lineales de tales vectores.
En definitiva: las soluciones del sistema de ecuaciones lineales homogéneo (5) son precisamente todas las combinaciones lineales de los vectores (−1, −3/2, 1, 0) y (−2, 1/2, 0, 1).
Otro ejemplo
282
Consideremos esta ecuación lineal homogénea (o si queremos, este
sistema de una ecuación lineal y tres incógnitas, que es homogéneo):
x − 2y − z = 0.
(6)
¿Sería posible encontrar algunos vectores tales que las soluciones de esta
ecuación lineal sean justamente todas las combinaciones lineales de tales
vectores?
Resolvamos la ecuación. De ella obtenemos: x = 2y + z. Sustituyendo y
Si lo vemos como un sistema
de una ecuación, la matriz de
coeficientes ya es escalonada
reducida:
1 −2 −1 .
La incógnita x es básica (es la
primera que figura en la ecuación), y las incógnitas y y z
son libres.
y z por λ y μ, respectivamente, podemos decir que las soluciones de la
ecuación son las ternas (x, y, z) tales que:
⎧
⎪
x = 2λ + μ,
⎪
⎪
⎨
y= λ
, donde λ y μ son números cualesquiera;
⎪
⎪
⎪
⎩z =
μ,
o bien, todas las ternas de la forma:
(2λ + μ, λ, μ),
donde λ y μ son números cualesquiera.
Ahora, podemos escribir:
(2λ + μ, λ, μ) = (2λ, λ, 0) + (μ, 0, μ) = λ(2, 1, 0) + μ(1, 0, 1),
lo cual nos permite concluir que las soluciones de la ecuación lineal (6)
son precisamente todas las combinaciones lineales de los vectores (2, 1, 0)
y (1, 0, 1).
III. VECTORES
Y otro ejemplo más
283
Consideremos ahora este sistema de ecuaciones lineales homogé-
neo:
⎧
⎨x − y + z = 0
⎩x
+ z = 0.
(7)
Al resolver el sistema, buscamos la forma escalonada reducida de su
matriz de coeficientes:
1 −1 1 F2 ←F2 −F1
1
→
1
0 1
0
−1
1
1
0
F1 ←F1 +F2
→
1
0
0
1
1
0
.
El sistema de ecuaciones lineales homogéneo con matriz de coeficientes la
matriz que acabamos de obtener es este:
x
+z = 0
y
= 0.
Las incógnitas x y y son básicas y la incógnita z es libre. Depejando x en
función de z (la incógnita y toma un valor fijo y no hace falta despejarla), y escribiendo λ en lugar de z, podemos afirmar que las soluciones del
sistema (7) son todas las ternas (x, y, z) tales que:
⎧
⎪
⎪
⎪ x = −λ,
⎨
y = 0, donde λ es un número cualquiera;
⎪
⎪
⎪
⎩ z = λ,
o bien, todas las ternas de la forma:
(−λ, 0, λ),
donde λ es un número cualquiera.
Como (−λ, 0, λ) = λ(−1, 0, 1), concluimos que las soluciones del sistema
de ecuaciones lineales homogéneo (7) son justamente todas las combinaciones lineales del vector (−1, 0, 1), es decir, todos los múltiplos del vector (−1, 0, 1) (cf. § 272, p. 251).
Una propiedad
284
Las combinaciones lineales de vectores tienen esta propiedad (de la
que haremos uso en contextos sobre todo teóricos): si un vector es combinación lineal de unos vectores, y cada uno de estos lo es a su vez de otros
vectores dados, entonces el primer vector también es combinación lineal de
estos últimos.
Vamos a ver. Para fijar ideas, supongamos que las combinaciones lineaSuponemos todos los vectores
de Rn .
les de las que hablamos son de dos vectores. Tenemos, pues, un vector u
que es combinación lineal de dos vectores v y v , pongamos: u = αv + α v (para algunos escalares α y α ), y suponemos que estos vectores v y v son
III.1. VECTORES
a su vez expresables como combinación lineal de otros vectores w 1 y w 2 ,
digamos:
v = β1 w 1 + β2 w 2
y
v = β1 w 1 + β2 w 2
(para algunos escalares β1 , β2 , β1 y β2 ). Acontece entonces que el primer
vector: u, es combinación lineal, directamente, de los vectores w 1 y w 2 . En
efecto, podemos escribir:
Hacemos uso de las propiedades de las dos operaciones entre vectores (cf. § 263, p. 245);
en particular, de la distributiva respecto de la adición de
números.
u = αv + α v = α(β1 w 1 + β2 w 2 ) + α (β1 w 1 + β2 w 2 )
= αβ1 w 1 + αβ2 w 2 + α β1 w 1 + α β2 w 2
= (αβ1 + α β1 )w 1 + (αβ2 + αβ2 )w 2 ,
y la igualdad obtenida: u = (αβ1 + αβ1 )w 1 + (αβ2 + α β2 )w 2 , nos expresa
el vector u como combinación lineal de los vectores w 1 y w 2 .
En el caso general, si el vector u es igual a una combinación lineal
de unos vectores v 1 , v 2 , . . . , v k , y cada uno de estos es a su vez combinación lineal de unos terceros vectores w 1 , w 2 , . . . , w s , entonces el vector u puede escribirse directamente como combinación lineal de los vectores w 1 , w 2 , . . . , w s . La justificación en este caso general es completamente
análoga a la vista en el párrafo anterior.
Otra propiedad
285
Dados unos vectores, un vector que sea combinación lineal de ellos
seguirá siendo combinación lineal de los vectores dados aunque la lista de
estos se amplíe con más vectores.
Veamos lo que queremos decir con un vector que es igual a una combinación lineal de dos vectores. Pongamos que u = α1 v 1 + α2 v 2 , donde u, v 1
y v 2 son vectores, todos de Rn , y α1 y α2 son escalares (números). Cualquiera que sea el vector w de Rn , podemos escribir:
u = α1 v 1 + α2 v 2 + 0w,
lo que expresa el vector u también como una combinación lineal de los
vectores v 1 , v 2 y w. Y de la misma manera podríamos seguir añadiendo
vectores a la combinación lineal.
En general, si un vector u es igual a una combinación lineal de unos vectores v 1 , v 2 , . . . , v k , también este vector u es igual a una combinación lineal
de los vectores v 1 , v 2 , . . . , v k , w 1 , w 2 , . . . , w s cualesquiera que sean los vectores w 1 , w 2 , . . . , w s (del mismo espacio vectorial que u, por supuesto). La
demostración en este caso general es análoga a la que hemos escrito en las
líneas anteriores para combinaciones lineales de dos vectores.
III. VECTORES
Ejercicios III.1
1
Nos dan dos vectores u y v y nos dicen que u
5
En los siguientes casos, encontrar un sistema de
es múltiplo de v. ¿Podemos deducir de ello que v es
ecuaciones lineales homogéneo de modo que sus solu-
múltiplo de u?
ciones sean precisamente las combinaciones lineales de
los vectores escritos:
2
Escribir todos los vectores columna y todos los
vectores fila de estas matrices:
⎛
⎞
−2 5
0
⎜
⎟
⎜ 1 0 −1 ⎟
⎜
⎟,
2 −3
⎜ 2 1
⎟
3⎠
⎝
2 1
3
3
a)
y
⎛ ⎞
0
⎜ ⎟
⎝0⎠.
0
Considérense los vectores (−1, 0, 1) y (1, 2, 3).
a)
(−1, 0, 1) y (1, 2, 3);
b)
(−1, 0, 1);
c)
(−1, 0, 1) y (−2, 0, 2);
d)
(−1, 0, 1), (1, 2, 3) y (4, 4, 0);
e)
(−1, 0), (1, 0) y (2, 2).
6
Para cada uno de los siguientes sistemas de ecua-
¿Es el vector (4, 4, 4) igual a alguna combinación
lineal de estos vectores? En caso afirmativo, ¿con qué
coeficientes?
ciones lineales homogéneos, encontrar algunos vecto-
Si a designa un número real, ¿para qué valores
res de modo que las soluciones del sistema sean pre-
de a es el vector (4, 4, a) igual a alguna combinación
lineal de los vectores dados? En cada caso, ¿con qué
cisamente las combinaciones lineales de tales vectores:
2x1 − x2 = 0;
a)
b)
coeficientes?
c)
¿Es el vector (4, 4, 4) igual a alguna combinación
lineal de los vectores (−1, 0, 1), (1, 2, 3) y (0, 2, 4)? En
b)
⎧
⎨ 2x1 − x2 = 0
⎩ 4x1 − 2x2 = 0;
c)
⎧
⎨ 2x1 − x2 = 0
⎩ 4x1 + 2x2 = 0;
d)
⎧
⎨ 2x1 − x2 + x3 = 0
⎩ 4x − 2x − x = 0;
1
2
3
e)
⎧
⎪
⎪
⎪ 2x1 − x2 + x3 = 0
⎨
4x1 − 2x2 − x3 = 0
⎪
⎪
⎪
⎩
x3 = 0.
caso afirmativo, escribir todas las formas de expresar
tal combinación lineal.
4 a)
Detallar todas las formas de escribir el vector
nulo (0, 0) como una combinación lineal de los vectores (1, 2) y (2, 4).
b)
Si a designa un número real, detallar, según los
valores de a, todas las formas de escribir el vector
nulo (0, 0) como una combinación lineal de los vectores (1, 2) y (2, a).
III.2. SUBESPACIOS VECTORIALES
III.2 SUBESPACIOS VECTORIALES
En esta sección trabajamos con ciertos subconjuntos de Rn ; es decir, con
ciertos conjuntos formados por vectores de Rn . Los conjuntos que estudiamos son los llamados subespacios vectoriales de Rn , que son espacios
vectoriales dentro del espacio vectorial Rn . Además de su definición y algunos ejemplos relevantes, vemos distintas formas de presentarlos y cómo
podemos pasar de una a otra. También introducimos el concepto de generadores de un subespacio vectorial.
1. Conjuntos de vectores
En este apartado, empezamos a tratar conjuntos formados por vectores
(subconjuntos de Rn ) no necesariamente iguales al mismo conjunto Rn .
Conjuntos de vectores: un
primer ejemplo
286
Hasta ahora, el único conjunto de vectores que hemos tratado ex-
plícitamente como tal conjunto es el conjunto Rn (en los ejemplos, R2 , R3 ,
etc., y el mismo Rn en las consideraciones más teóricas), pero —como comentamos al principio de este capítulo— queremos manejar otros conjuntos
también formados por vectores; es decir, queremos manejar subconjuntos
de Rn . Tras haber estudiado con detalle las operaciones entre vectores, aquí
empezamos a estudiar tales conjuntos.
A modo de primer ejemplo, consideramos el siguiente tipo de conjunto:
el conjunto formado por todos los vectores que son combinación lineal de
unos vectores dados. Verbigracia (cf. § 278, p. 256), podemos considerar el
conjunto formado por todos los vectores que son combinación lineal de los
dos vectores (1, −1, 2) y (2, 0, 4). Si denotamos este conjunto con una letra
mayúscula —como es habitual con los conjuntos—, pongamos F , podemos
Escribir ‘α1 ∈ R’ —que se
lee α1 pertenece a R— es lo
mismo que afirmar que α1 es
un número real.
escribir:
Al ver —en la notación de un
conjunto—: ‘|’, léase ‘tal que’.
Lo que figura entre llaves (entre ‘{’ y ‘}’) describe cómo son los elementos del
!
"
F = α1 (1, −1, 2) + α2 (2, 0, 4) ! α1 ∈ R y α2 ∈ R .
conjunto F : justamente son los de la forma α1 (1, −1, 2) + α2 (2, 0, 4) con α1
y α2 números reales cualesquiera. Si damos un valor numérico concreto a
estos coeficientes, obtenemos un elemento de F , y cuando estos coeficientes
recorren el conjunto R, obtenemos todos los elementos de F .
Por otra parte, nótese lo siguiente: como los dos vectores (1, −1, 2)
y (2, 0, 4) son de R3 , cada combinación lineal de ellos también lo es; es
decir, cada elemento del conjunto F es a su vez un elemento de R3 , o lo
III. VECTORES
que es lo mismo: el conjunto F es un subconjunto de R3 . Esto se denota
así: F ⊆ R3 .
A tenor de lo visto en el citado § 278, podemos escribir: (1, 2, −3) ∉ F , y
∉ : no pertenece.
también: (1, a, 2) ∈ F cualquiera que sea el número a.
Un ejemplo más general de
conjunto de vectores
287
En general, dados dos vectores v 1 y v 2 , ambos de Rn , el conjunto
formado por todas las combinaciones lineales de los dos vectores se escribe
así:
!
"
α1 v 1 + α2 v 2 ! α1 ∈ R y α2 ∈ R .
Este conjunto es un subconjunto de Rn : todos sus elementos también son
!
"
elementos de Rn ; esto es: α1 v 1 + α2 v 2 ! α1 ∈ R y α2 ∈ R ⊆ Rn cuando v 1 y v 2 son vectores de Rn .
Y más en general aún: el conjunto formado por todas las combinaciones
lineales de k vectores dados, v 1 , v 2 , . . . , v k , todos de Rn , toma este aspecto:
!
"
α1 v 1 + α2 v 2 + · · · + αk v k ! α1 ∈ R, α2 ∈ R, . . . , αk ∈ R .
Este conjunto también es un subconjunto de Rn .
Nota
Debemos hacer una puntualización sobre la notación. Puede ocurrir que
alguna combinación lineal de la forma α1 v 1 + α2 v 2 sea igual a otra de esta
misma forma para valores distintos de los coeficientes α1 y α2 . (Por ejemplo,
si los vectores v 1 y v 2 son iguales, ello acontece sin más que intercambiar los
coeficientes: α1 v 1 + α2 v 2 = α2 v 1 + α1 v 2 .) Estrictamente hablando, pues, la no"
tación α1 v 1 + α2 v 2 | α1 ∈ R y α2 ∈ R no sería adecuada para un conjunto
(los elementos de un conjunto no deben repetirse); en este sentido, sería mejor
referirse al conjunto de las combinaciones lineales de v 1 y v 2 de esta otra forma:
!
"
u ∈ Rn ! u = α1 v 1 + α2 v 2 para algún α1 ∈ R y algún α2 ∈ R .
No obstante, adoptaremos la primera notación por resultar más cómoda e instructiva, y porque en definitiva no lleva a confusión a poca atención que se
ponga. Similar comentario podríamos formular para el conjunto de las combinaciones lineales de k vectores.
Más conjuntos de vectores
288
También consideraremos el siguiente tipo de conjunto: dado un
sistema de ecuaciones lineales homogéneo, el conjunto formado por todos
los vectores que son solución del sistema. Si el sistema es de n incógnitas,
tal conjunto resultará ser un subconjunto de Rn .
Por ejemplo (cf. § 279, p. 258), podemos considerar el conjunto formado
por todas las soluciones de este sistema de ecuaciones lineales homogéneo:
⎧
⎨ x1 − 2x2 − 3x3
=0
⎩ 2x1 + 2x2
− 3x4 = 0.
III.2. SUBESPACIOS VECTORIALES
Tal conjunto se puede denotar, verbigracia, por la letra G, y escribir así:
Recuérdese: ‘|’ se lee ‘tal que’.
!
"
G = (x1 , x2 , x3 , x4 ) ∈ R4 ! x1 − 2x2 − 3x3 = 0 y 2x1 + 2x2 − 3x4 = 0 .
Como acontecía con el conjunto F del § 286, lo que figura escrito entre
llaves da cuenta exacta de cómo son los elementos del conjunto G: de entre
los vectores (x1 , x2 , x3 , x4 ) de R4 , son precisamente aquellos cuyas componentes satisfacen las ecuaciones x1 − 2x2 − 3x3 = 0 y 2x1 + 2x2 − 3x4 = 0.
Por otra parte, el conjunto G está formado por cuaternas, luego G ⊆ R4 .
Por cierto, en el mismo § 279, comprobamos que todas las combinaciones lineales de los vectores (1, −1, 1, 0), (2, 1, 0, 2) y (1, 2, −1, 2) son precisamente las soluciones del sistema de ecuaciones lineales homogéneo anterior. Si denotamos este conjunto de combinaciones lineales por H:
Esta es una notación como la
vista en el § 286.
H = α1 (1, −1, 1, 0) + α2 (2, 1, 0, 2) + α3 (1, 2, −1, 2)
!
"
! α1 ∈ R, α2 ∈ R y α3 ∈ R ,
podemos, pues, escribir: H = G. Estamos ante un caso de igualdad de conjuntos.
Nota bene
Escribir una igualdad entre dos conjuntos (como H = G) significa
afirmar simultáneamente dos enunciados: por un lado, que todo elemento del
primer conjunto es a su vez elemento del segundo (en el ejemplo, toda combinación lineal es solución del sistema: H ⊆ G); por otro lado, que todo elemento
del segundo conjunto también lo es del primero (toda solución del sistema es
combinación lineal: G ⊆ H).
Más ejemplos
289
En el § 278 (cf. p. 256), pudimos comprobar que todos los vecto-
res (x1 , x2 , x3 ) de R3 que se pueden expresar como una combinación lineal
de los vectores (1, −1, 2) y (2, 0, 4) son exactamente los que satisfacen la
condición x3 − 2x1 = 0; en el contexto (y notación) de conjuntos de vectores
en el que estamos trabajando, esta afirmación se concreta en una igualdad
de conjuntos. En el § 286, denotamos por F el conjunto de las combinaciones lineales de (1, −1, 2) y (2, 0, 4):
!
"
F = α1 (1, −1, 2) + α2 (2, 0, 4) ! α1 ∈ R y α2 ∈ R ,
y denotamos ahora por F las soluciones de la ecuación lineal x3 − 2x1 = 0:
!
"
F = (x1 , x2 , x3 ) ∈ R3 ! x3 − 2x1 = 0 ;
acontece entonces que F = F .
III. VECTORES
Y otro ejemplo: de acuerdo con lo que obtuvimos en el § 283 (cf. p. 262),
podemos escribir esta otra igualdad de conjuntos:
!
!
"
"
(x, y, z) ∈ R3 ! x − y + z = 0 y x + z = 0 = α(−1, 0, 1) ! α ∈ R .
Y un ejemplo final: según lo que calculamos en el § 280 (cf. p. 259), se
cumple esta igualdad de conjuntos de vectores:
!
"
α1 (1, 1, 0) + α2 (2, 0, 1) + α3 (3, 1, 0) ! α1 ∈ R, α2 ∈ R y α3 ∈ R = R3 .
Conjuntos de vectores (a
modo de epílogo)
290
Los conjuntos de vectores que manejaremos, aparte del mismo Rn ,
serán básicamente de las dos clases que hemos visto en los parágrafos anteriores: bien el conjunto de las combinaciones lineales de unos vectores
dados, bien el conjunto de las soluciones de un sistema de ecuaciones li-
Estos conjuntos serán subespacios vectoriales.
neales homogéneo. Con estos conjuntos acontece que, dado un conjunto de
una clase, es posible encontrar un conjunto de la otra que sea igual al dado;
aunque esta afirmación se probará con detalle más adelante, los ejemplos
vistos al final del apartado dedicado a las combinaciones lineales dan cuenta
de cómo proceder.
Queremos destacar un caso particular sencillo, pero no por ello menos
importante: el del conjunto {0}, formado exclusivamente por el vector nulo
(en R2 , este conjunto es {(0, 0)}; en R3 , es {(0, 0, 0)}, etc.). El conjunto {0}
se puede ver como el de todas las combinaciones lineales de un vector: el
nulo, y se puede ver también como el conjunto de las soluciones de un
sistema de ecuaciones lineales homogéneo: cualquiera que tenga solución
única (bueno, no cualquiera exactamente: si estamos considerando el vector 0 de Rn , tal sistema debe ser de n incógnitas).
Por otra parte, a veces nos podemos encontrar con conjuntos como este:
!
"
(a, b, b) ! a ∈ R y b ∈ R .
Es fácil ver que es en el fondo el conjunto de las combinaciones lineales de
ciertos vectores: como (a, b, b) = (a, 0, 0) + (0, b, b) = a(1, 0, 0) + b(0, 1, 1),
podemos escribir:
!
!
"
"
(a, b, b) ! a ∈ R y b ∈ R = a(1, 0, 0) + b(0, 1, 1) ! a ∈ R y b ∈ R .
El lector se estará preguntando quizá por el conjunto de soluciones
de un sistema de ecuaciones lineales no necesariamente homogéneo. Por
supuesto, se puede hablar de este tipo de conjuntos. La estructura de un
Estos conjuntos serán subespacios afines.
conjunto como este es similar, pero no igual, a la estructura que vamos
enseguida a desentrañarle a los conjuntos de vectores de las clases citadas
anteriormente.
III.2. SUBESPACIOS VECTORIALES
2. Subespacios vectoriales
Introducimos en este apartado el importante concepto de subespacio vectorial, que refleja la idea de un espacio vectorial dentro de otro.
Definición
Definición de subespacio
vectorial
291
El conjunto Rn tiene estructura de espacio vectorial, como hemos
detallado en el § 263 (cf. p. 245) —y venimos en el fondo estudiando desde
que empezó este capítulo—; los conjuntos de vectores que hemos estado
manejando en los parágrafos anteriores también tienen esta estructura, como veremos a continuación. Es decir, tales conjuntos son espacios vectoriales por sí mismos, dentro a su vez del espacio vectorial Rn .
Si nos dan un conjunto F de vectores, es decir, un subconjunto F de Rn
(en símbolos: F ⊆ Rn ), las ocho propiedades enunciadas en el citado § 263
—gracias a las cuales catalogamos el conjunto E = Rn como un espacio vectorial— se cumplen, pues operar con elementos del conjunto F es en última
instancia operar con elementos de Rn , que sí cumplen tales propiedades.
Por ejemplo, será indiferente el orden en que sumemos dos elementos de F
(propiedad conmutativa), pues es indiferente el orden en que se sumen dos
elementos de Rn cualesquiera.
Entonces: ¿cuál es el punto crucial para que pudiéramos considerar que
el conjunto F dado es, en sí mismo, un espacio vectorial? Este: que la adición de vectores y la multiplicación de vectores por un número sean efectivamente operaciones sobre el conjunto F .2 ¿Qué queremos decir? Queremos decir que, al sumar dos vectores del conjunto F , o al multiplicar por un
número un vector del conjunto F , debe obtenerse como resultado un vector de F . Si el conjunto F satisface esta condición, sí podemos decir de él
que, dotado de la adición de vectores y de la multiplicación de vectores por
números reales, es un espacio vectorial sobre R.
Todo lo anterior motiva la siguiente definición. Dado un conjunto de
vectores F , no vacío, subconjunto de Rn : F ⊆ Rn , diremos que es un subespacio vectorial de Rn (o simplemente un subespacio de Rn ) si se satisfacen
estas dos condiciones:
• Cualesquiera que sean los vectores x y y de F , la suma x + y es un
vector de F ; esto es, si x ∈ F y y ∈ F , entonces x + y ∈ F .
• Cualesquiera que sean el número λ y el vector x de F , el producto λx
es un vector de F ; es decir, si λ ∈ R y x ∈ F , entonces λx ∈ F .
2
Técnicamente, esto debería formularse así: que la restricción al conjunto F de las operaciones adición y multiplicación por un número sean operaciones sobre F .
III. VECTORES
De acuerdo con lo afirmado en los párrafos anteriores, cualquier subespacio
vectorial de Rn presenta, por sí mismo, estructura de espacio vectorial.
Nota bene
Pedimos que el conjunto F sea no vacío, con el fin de que haya vecto-
res en él con los que poder operar. En todo caso, no queremos que el conjunto
vacío pueda ser considerado un subespacio vectorial.
Una primera propiedad: el
vector nulo pertenece a
cualquier subespacio vectorial
292
Antes de empezar a ver ejemplos de subespacios vectoriales, haga-
mos notar esta propiedad: a cualquier subespacio vectorial debe pertenecer
al menos el vector nulo. Es decir, si F es un subespacio vectorial (de Rn ),
entonces el vector 0 es un elemento de F .
Otra justificación de lo mismo:
si x es un vector de F , también
lo es λx para cualquier número λ; si λ = 0, entonces:
λx = 0x = 0.
¿Cómo lo comprobamos? El conjunto F es no vacío, así que al menos
pertenece a él un vector, pongamos x. En virtud de las condiciones de la
definición de subespacio vectorial (§ 291), como x es un elemento de F ,
también lo es su producto por el número −1 (segunda condición): (−1)x,
de lo que se deduce que también es un elemento de F la suma x + (−1)x
(primera condición). Pero: x + (−1)x = x + (−x) = 0 (hacemos uso de las
propiedades de espacio vectorial). El vector nulo es, pues, un elemento del
susbespacio vectorial F .
Una segunda propiedad: las
combinaciones lineales de
vectores de un subespacio
vectorial pertenecen al
subespacio vectorial
293
Otra propiedad más antes de pasar a los ejemplos: si calculamos
una combinación lineal de vectores de un subespacio vectorial, el resultado
es un vector que sigue perteneciendo al subespacio vectorial.
Dado un subespacio vectorial F , si v 1 y v 2 son dos vectores de F , entonces cualquier combinación lineal suya, digamos α1 v 1 + α2 v 2 , sigue siendo
un vector de F . ¿Por qué? En virtud de la segunda condición de la definición de subespacio vectorial (§ 291), los vectores α1 v 1 y α2 v 2 son vectores
de F ; en virtud ahora de la primera condición, se concluye que la suma de
estos: α1 v 1 + α2 v 2 , pertenece también a F .
De manera similar se probaría el resultado para una combinación lineal
de k vectores: si v 1 , v 2 , . . . , v k son k vectores de un subespacio vectorial F ,
entonces cualquier combinación lineal de ellos: α1 v 1 + α2 v 2 + · · · + αk v k ,
es un vector que también pertenece a F .
A veces se enuncia esta propiedad aseverando que los subespacios vectoriales son cerrados para las combinaciones lineales de sus elementos.
Ejemplos
Primer ejemplo de subespacio
vectorial: Rn
294
El conjunto Rn mismo es un subespacio vectorial de Rn (es, diga-
mos, subespacio vectorial de sí mismo). Cumple obviamente las dos con-
III.2. SUBESPACIOS VECTORIALES
diciones de la definición de subespacio vectorial (§ 291): el resultado de
sumar dos vectores de Rn , o de multiplicar por un número un vector de Rn ,
es —por definición de estas operaciones— un vector de Rn .
Otro ejemplo sencillo: {0}
295
Otro ejemplo inmediato de subespacio vectorial es el conjunto {0}.
Claramente, la suma de vectores de este conjunto es igual a un vector del
Nótese esto: según la propiedad vista en el § 292, el conjunto {0} es el único subespacio vectorial de un solo elemento.
Todas las combinaciones
lineales de unos vectores
dados forman un subespacio
vectorial
Denotamos este conjunto con
la letra F por abreviarlo con alguna letra.
conjunto (pues 0 + 0 = 0), y lo mismo acontece con el producto por un
número (pues λ0 = 0).
Verbigracia, el conjunto {(0, 0)} es un subespacio vectorial de R2 , y el
conjunto {(0, 0, 0)} lo es de R3 .
296
Dados unos vectores, el conjunto formado por todos los vectores
que son combinación lineal de ellos es un subespacio vectorial.
Veámoslo para el conjunto de las combinaciones lineales de dos vectores. Nos dan, pues, dos vectores v 1 y v 2 de Rn , y queremos comprobar que
!
"
el conjunto F = α1 v 1 + α2 v 2 ! α1 ∈ R y α2 ∈ R es un subespacio vectorial de Rn . Para ello debemos comprobar dos cosas. Lo primero es que la
suma de dos elementos cualesquiera de F sigue siendo un elemento de F .
Dos elementos arbitarios de F tienen este aspecto:
α1 v 1 + α2 v 2
y
α1 v 1 + α2 v 2 ,
para algunos números α1 , α2 , α1 y α2 ; si los sumamos, obtenemos:
(α1 v 1 + α2 v 2 ) + (α1 v 1 + α2 v 2 ) = (α1 + α1 )v 1 + (α2 + α2 )v 2 ,
y el vector al que llegamos es una combinación lineal de v 1 y v 2 , es decir,
un elemento de F . Lo segundo que debemos comprobar es que el producto
de un elemento de F por un número es a su vez un elemento de F . Pero se
tiene: λ(α1 v 1 +α2 v 2 ) = (λα1 )v 1 +(λα2 )v 2 (aquí λ es un número cualquiera),
lo cual nos sasegura lo que buscamos.
Enunciamos (y demostramos)
esta propiedad para una cantidad finita de vectores.
Para una cantidad cualquiera de vectores, el resultado reza de esta manera: si v 1 , v 2 , . . . , v k son k vectores de Rn , entonces el conjunto de sus
combinaciones lineales:
!
"
α1 v 1 + α2 v 2 + · · · + αk v k ! α1 ∈ R, α2 ∈ R, . . . , αk ∈ R ,
es un subespacio vectorial de Rn . La justificación es análoga a la que hemos
desarrollado en el párrafo anterior para dos vectores.
Por ejemplo, en el § 286, denotamos por F el conjunto de las combinaciones lineales de los vectores (1, −1, 2) y (2, 0, 4):
!
"
F = α1 (1, −1, 2) + α2 (2, 0, 4) ! α1 ∈ R y α2 ∈ R .
Este conjunto F es entonces un subespacio vectorial de R3 .
III. VECTORES
Otro ejemplo: en el § 288 recordamos, y denotamos por H, el conjunto
de todas las combinaciones lineales de los vectores (1, −1, 1, 0), (2, 1, 0, 2)
y (1, 2, −1, 2):
H = α1 (1, −1, 1, 0) + α2 (2, 1, 0, 2) + α3 (1, 2, −1, 2)
!
"
! α1 ∈ R, α2 ∈ R y α3 ∈ R .
El conjunto H es otro subespacio vectorial, esta vez de R4 .
Todas las soluciones de un
sistema de ecuaciones
lineales homogéneo forman
un subespacio vectorial
297
Dado un sistema de ecuaciones lineales homogéneo, el conjunto de
sus soluciones también es un subespacio vectorial. Si el sistema homogéneo
es de n incógnitas, tal conjunto es un subespacio vectorial de Rn .
Justifiquemos la anterior afirmación para un sistema de dos incógnitas.
Fijémonos en esto: si tenemos dos soluciones, pongamos (p, q) y (p , q ),
de una ecuación lineal homogénea con dos incognitas, como ax + by = 0,
entonces la suma de estas soluciones: (p, q) + (p , q ) = (p + p , q + q ),
también es solución de la ecuación. En efecto: al ser los vectores (p, q)
y (p , q ) soluciones de la ecuación, se cumple:
ap + bq = 0 y
ap + bq = 0,
y para el vector suma (p + p , q + q ) se verifica:
a(p+p )+b(q+q ) = ap+ap +bq+bq = (ap+bq)+(ap +bq ) = 0+0 = 0,
lo que establece que también este vector suma es solución de la ecuación.
Por otra parte, si λ es un número, el producto λ(p, q) = (λp, λq) es solución
de la ecuación si (p, q) lo es, porque a(λp) + b(λq) = λ(ab+ bq) = λ· 0 = 0.
De esta forma, acabamos de probar lo siguiente: dada una ecuación lineal
homogénea, tanto la suma de dos soluciones suyas como el producto por un
número de una solución tienen como resultado otra solución. Si en vez de
una sola ecuación homogénea tenemos varias (es decir, tenemos un sistema
de ecuaciones lineales homogéneo), entonces la suma de dos soluciones de
todas las ecuaciones tendrá como resultado una solución también de todas
las ecuaciones; en otras palabras, la suma de dos soluciones de un sistema
homogéneo es otra solución del mismo sistema. Lo mismo acontece con
el producto de una solución del sistema por un número. Con estas observaciones, se justifica que el conjunto de soluciones de un sistema de
ecuaciones lineales homogéneo que tiene dos incógnitas es un subespacio
vectorial de R2 .
La justificación para sistemas de n incógnitas es del todo análoga.
III.2. SUBESPACIOS VECTORIALES
Conjunto de soluciones de este sistema homogéneo:
⎧
⎨ x1 − 2x2 − 3x3
=0
⎩ 2x + 2x
− 3x = 0.
1
2
4
Por ejemplo, en el § 288 trabajamos con este conjunto:
!
"
G = (x1 , x2 , x3 , x4 ) ∈ R4 ! x1 − 2x2 − 3x3 = 0 y 2x1 + 2x2 − 3x4 = 0 ,
que es, por tanto, un subespacio vectorial de R4 .
Y en el § 289 tratamos otro conjunto de este tipo: el de soluciones de la
ecuación lineal x3 − 2x1 = 0, que denotamos allí por F :
!
"
F = (x1 , x2 , x3 ) ∈ R3 ! x3 − 2x1 = 0 .
Este conjunto F es un subespacio vectorial de R3 .
3. Subespacio vectorial generado por unos vectores
Cf. § 296.
En este apartado, estudiamos específicamente los subespacios vectoriales
formados por todas las combinaciones lineales de unos vectores dados.
Definición: generadores
Subespacio generado por
unos vectores
298
Es especialmente importante poder escribir un subespacio vectorial
como el conjunto formado por todas las combinaciones lineales de ciertos vectores. Un subespacio vectorial así presentado recibe el nombre de
subespacio vectorial generado por los vectores dados.
Más en concreto, dados k vectores v 1 , v 2 , . . . , v k de Rn , se denomina
subespacio vectorial (o simplemente subespacio) generado por los vecto-
También se denota de esta
forma: L v1 , v2 , . . . , vk , o in$
#
cluso así: v 1 , v 2 , . . . , vk .
res v 1 , v 2 , . . . , v k al subespacio vectorial de Rn formado por todas las com
binaciones lineales de estos vectores. Se denota: L v 1 , v 2 , . . . , v k ; es decir:
L v1 , v2 , . . . , vk
!
"
= α1 v 1 + α2 v 2 + · · · + αk v k ! α1 ∈ R, α2 ∈ R, . . . , αk ∈ R .
El lector observará que, en los ejemplos de los parágrafos anteriores,
hemos visto varios subespacios generados por vectores. Por ejemplo, en el
§ 286 (cf. p. 265) trabajamos con el conjunto de las combinaciones lineales
de los vectores (1, −1, 2) y (2, 0, 4), que denotamos allí por F ; se tiene:
!
"
F = α1 (1, −1, 2) + α2 (2, 0, 4) ! α1 ∈ R y α2 ∈ R = L (1, −1, 2), (2, 0, 4) .
También, verbigracia, en el § 288 (cf. p. 266) hablamos del conjunto, denotado por H, de todas las combinaciones lineales de los vectores (1, −1, 1, 0),
(2, 1, 0, 2) y (1, 2, −1, 2); es decir: H = L (1, −1, 1, 0), (2, 1, 0, 2), (1, 2, −1, 2) .
III. VECTORES
Generadores
299
Dado un subespacio vectorial, si es posible encontrar unos vectores
de tal suerte que el subespacio generado por ellos coincida con el subespacio vectorial dado, de tales vectores se dice que son unos generadores del
subespacio vectorial.
En símbolos: si F es un subespacio vectorial de Rn y v 1 , v 2 , . . . , v k son
vectores de Rn tales que F coincide con el subespacio vectorial generado
por ellos, diremos que los vectores v 1 , v 2 , . . . , v k son unos generadores del
subespacio vectorial F (o que generan el subespacio vectorial F ); en otras
palabras: los vectores v 1 , v 2 , . . . , v k son unos generadores del subespacio
vectorial F precisamente si L v 1 , v 2 , . . . , v k = F .
Por ejemplo, hemos comprobado (cf. § 279, p. 258, y § 288, p. 266) que
este conjunto:
!
"
G = (x1 , x2 , x3 , x4 ) ∈ R4 ! x1 − 2x2 − 3x3 = 0 y 2x1 + 2x2 − 3x4 = 0 ,
coincide con el de las combinaciones lineales de los vectores (1, −1, 1, 0),
(2, 1, 0, 2) y (1, 2, −1, 2); es decir: G = L (1, −1, 1, 0), (2, 1, 0, 2), (1, 2, −1, 2) .
Los vectores (1, −1, 1, 0), (2, 1, 0, 2) y (1, 2, −1, 2) son, pues, unos generadores del subespacio vectorial G.
Otro ejemplo: en el § 278 (cf. p. 256), calculamos que todos los vectores (x1 , x2 , x3 ) de R3 que se pueden expresar como una combinación lineal
de los vectores (1, −1, 2) y (2, 0, 4) son precisamente los que satisfacen la
condición x3 − 2x1 = 0; escrito en símbolos (con la notación que hemos
introducido en el § 298):
!
"
L (1, −1, 2), (2, 0, 4) = (x1 , x2 , x3 ) ∈ R3 ! x3 − 2x1 = 0 .
Esta igualdad nos dice que los vectores (1, −1, 2) y (2, 0, 4) son unos gene!
"
radores del subesapcio vectorial (x1 , x2 , x3 ) ∈ R3 ! x3 − 2x1 = 0 .
Otro ejemplo
300
De acuerdo con los cálculos del § 283 (cf. p. 262) —que fueron recor-
dados hacia el final del § 289 (cf. p. 267)—, podemos escribir:
!
"
(x, y, z) ∈ R3 ! x − y + z = 0 y x + z = 0 = L (−1, 0, 1) ,
lo que nos dice que un solo vector —justamente el vector (−1, 0, 1)— ge!
"
nera el subespacio vectorial (x, y, z) ∈ R3 ! x − y + z = 0 y x + z = 0 .
Este subespacio vectorial está formado, pues, por todos los múltiplos del
vector (−1, 0, 1) (cf. § 272, p. 251).
Una propiedad de los
subespacios generados por
un solo vector
301
Interrumpamos la lista de ejemplos para examinar una propiedad
de los subespacios generados por un solo vector: el subespacio generado
III.2. SUBESPACIOS VECTORIALES
por un único vector es el mismo que el subespacio generado por cualquier
múltiplo no nulo de este único vector. En símbolos: si v es un vector (nulo
o no) y λ es un número no nulo, entonces L v = L λv .
¿Cómo es un elemento de L v , es decir, una combinación lineal de v?
Es un vector que es múltiplo de v (cf. § 272, p. 251), digamos αv para algún
número α. ¿Y cómo es un elemento de L λv ? Así: β(λv) para algún número β. Ahora acontece que todo vector del primer tipo se puede escribir como
uno del segundo: αv = β(λv) para β = α/λ; y todo vector del segundo tipo
se puede escribir como uno del primero: β(λv) = αv para α = βλ. Esto
prueba que los conjuntos L v y L λv son iguales.
Por ejemplo, el conjunto formado por los múltiplos del vector (2, 1) es
(4, 2) = 2(2, 1) y 2 ≠ 0
el mismo que el conjunto formado por los múltiplos del vector (4, 2), pues
este vector es múltiplo no nulo de aquel. En símbolos: L (2, 1) = L (4, 2) .
Rectas y planos
Rectas de un espacio vectorial
302
Una recta es un subespacio vectorial generado por un solo vector no
nulo. Más en concreto, dado un subespacio vectorial F de Rn , decimos que F
es una recta de Rn si existe algún vector no nulo v (de Rn ) tal que F = L v .
En este caso, decimos asimismo que el vector v es un vector director de la
recta F .
Por ejemplo, el subespacio L (2, 1) es la recta de R2 de vector direc-
tor (2, 1). También, de acuerdo con el ejemplo visto en § 300, el subespacio
!
"
vectorial (x, y, z) ∈ R3 ! x − y + z = 0 y x + z = 0 resulta ser la recta
de vector director (−1, 0, 1).
Según la propiedad vista en el § 301, cualquier múltiplo no nulo del
vector director de una recta es vector director de la misma recta. Las rec
tas L (2, 1) y L (4, 2) —subespacios vistos en este § 301— son la misma.
Una propiedad
303
Si nos dan dos vectores no nulos tales que uno es múltiplo del otro,
entonces el subespacio generado por ambos es una recta, precisamente la
que tiene por vector director cualquiera de los vectores dados. Más en concreto, si v 1 y v 2 son dos vectores no nulos tales que uno es múltiplo del
otro, entonces L v 1 , v 2 = L v 1 = L v 2 .
Para verlo, pongamos que v 1 = λv 2 para algún número λ. Si un vector
es combinación lineal de v 1 y v 2 , digamos α1 v 1 + α2 v 2 para algunos números α1 y α2 , entonces tal vector se puede escribir como combinación lineal
solamente de v 2 :
α1 v 1 + α2 v 2 = α1 (λv 2 ) + α2 v 2 = (α1 λ + α2 )v 2 ;
III. VECTORES
recíprocamente, si un vector es igual a una combinación lineal de v 2 , pongamos βv 2 para algún número β, entonces también es combinación lineal de
los vectores v 1 y v 2 , pues podemos escribir: βv 2 = 0v 1 +βv 2 . De esta forma,
probamos que el subespacio generado por los dos vectores v 1 y v 2 juntos
es igual al generado por el vector v 2 en solitario; es decir: L v 1 , v 2 = L v 2 .
Finalmente, tenemos la justificación completa de la propiedad al darnos
cuenta de que las rectas L v 1 y L v 2 son la misma por ser sus vectores
directores múltiplos uno del otro (§ 302).
Por ejemplo, el subespacio L (2, 1), (4, 2) es justamente la recta de vector director (2, 1), o la de vector director (4, 2) (ambas son la misma); esto
es: L (2, 1), (4, 2) = L (2, 1) = L (4, 2) .
Planos de un espacio vectorial
304
Pero si nos dan dos vectores no nulos tales que ninguno de ellos es
múltiplo del otro, entonces ocurre que el subespacio generado por ambos
no es una recta.
En efecto. Dados dos vectores no nulos v 1 y v 2 , si existe otro vector no
nulo w tal que L v 1 , v 2 = L w , en particular los vectores v 1 y v 2 pertene cen a la recta L w , con lo que cada uno de ellos verifica ser igual a algún
múltiplo no nulo del vector w, es decir: v 1 = λ1 w y v 2 = λ2 w para algunos
números no nulos λ1 y λ2 ; de ello se deduce que el vector v 1 es múltiplo
de v 2 :
λ λ1
λ1
1
λ2 w =
(λ2 w) =
v2.
λ2
λ2
λ2
y v 2 son tales que ninguno es múltiplo del otro,
v 1 = λ1 w =
Así, si los vectores v 1
entonces no existe ningún vector w de forma que el subespacio generado
por v 1 y v 2 coincida con la recta de vector director w.
Un subespacio vectorial generado por dos vectores no nulos tales que
ninguno de ellos es múltiplo del otro se denomina plano del espacio vectorial. Más en concreto, dado un subespacio vectorial G de Rn , decimos que G
es un plano de Rn si existen dos vectores no nulos v 1 y v 2 (de Rn ), ninguno
de los dos múltiplo del otro, tales que G = L v 1 , v 2 . En tal caso, además decimos —como con las rectas— que los vectores v 1 y v 2 son unos vectores
directores del plano G.
Por ejemplo, en virtud del último ejemplo señalado en el § 299, podemos
!
"
(x1 , x2 , x3 ) ∈ R3 ! x3 − 2x1 = 0 es el
afirmar que el subespacio vectorial
plano de R3 de vectores directores (1, −1, 2) y (2, 0, 4), pues:
!
"
L (1, −1, 2), (2, 0, 4) = (x1 , x2 , x3 ) ∈ R3 ! x3 − 2x1 = 0 .
Nótese que los dos vectores (1, −1, 2) y (2, 0, 4) cumplen el requisito de que
ninguno es múltiplo del otro.
III.2. SUBESPACIOS VECTORIALES
Generadores de Rn
Vectores que generan Rn
305
Siguiendo con los ejemplos de subespacios generados por vectores,
si recordamos lo visto en el § 280 (cf. p. 259) —que también fue citado en el
§ 289 (cf. p. 267)—, podemos escribir:
L (1, 1, 0), (2, 0, 1), (3, 1, 0) = R3 .
Es decir, los vectores (1, 1, 0), (2, 0, 1) y (3, 1, 0) generan todo el espacio
vectorial R3 .
Condiciones para ser
generadores de Rn
306
Dado un subespacio vectorial, ¿cómo deben ser unos vectores para
ser generadores del subespacio vectorial? Para subespacios vectoriales generales, analizaremos esta cuestión en la Sección III.3, pero podemos ahora
dar una respuesta cuando el subespacio vectorial es el mismo Rn .
Nos dan, pues, unos vectores v 1 , v 2 , . . . , v k de Rn .
¿Qué condición
deben cumplir estos k vectores para generar todo el espacio vectorial Rn ?
Acontece lo siguiente: si formamos la matriz cuyos vectores columna son
los k vectores v 1 , v 2 , . . . , v k , el que estos vectores generen Rn es equivalente a que la matriz así formada tenga rango igual a n.
Veamos. Afirmar que los k vectores v 1 , v 2 , . . . , v k
mita solución para cualquier elección de los términos
generan Rn es afirmar que cualquier vector u de Rn se
independientes. Pero esto es a su vez equivalente a que
puede escribir como combinación lineal de ellos. Dado
un vector u cualquiera de Rn , formemos la matriz A
el rango de la matriz de coeficientes del sistema sea
igual al número de ecuaciones (cf. § 175, p. 169).
cuyos vectores columna son v 1 , v 2 , . . . , v k y u; sabe-
Ahora bien: ¿cuál es la matriz de coeficientes de
mos que el vector u es combinación lineal de los vec-
tal sistema? La que tiene por vectores columna los k
tores v 1 , v 2 , . . . , v k precisamente si admite solución el
vectores v 1 , v 2 , . . . , v k . ¿Cuántas ecuaciones tiene el
sistema de ecuaciones lineales cuya matriz ampliada
(cf. § 277, p. 255). Como consecuencia de ello, que
es A
sistema?, o bien: ¿cuántas filas tiene la matriz de coefi-
los vectores v 1 , v 2 , . . . , v k generen Rn es equivalente
adentonces a que este sistema de matriz ampliada A
columna —que son vectores de Rn —, esto es, exacta-
cientes? Tantas como componentes tienen sus vectores
mente n.
Una consecuencia es esta: para generar el espacio vectorial Rn , hacen
falta al menos n vectores. Si no se ve a primera vista, dése uno cuenta de
lo siguiente: si la matriz cuyos vectores columna son los vectores generadores de Rn ha de tener rango igual a n, entonces debe tener un número de
columnas —y por ende de vectores columna— mayor o igual que n.
Por ejemplo, los tres vectores de R4 escritos (entre otros lugares) al final
del § 298 no pueden generar R4 , ni el vector (−1, 0, 1) por sí solo puede
III. VECTORES
generar R3 (§ 300): necesitaríamos al menos un vector más en el primer
caso y dos vectores más en el segundo.
Sin embargo, para los tres vectores (1, 1, 0), (2, 0, 1) y (3, 1, 0), que sí
Para el cálculo de este rango,
véase el § 280 (cf. p. 259).
generan R3 (§ 305), podemos comprobar que es igual a 3 el rango de la
También es válido si escribimos “. . . la matriz que los tiene como vectores fila. . . ” (el
rango de ambas matrices es el
mismo).
Una condición necesaria y suficiente para que unos vectores de Rn gene-
Un ejemplo
307
matriz que los tiene como vectores columna.
ren Rn es que la matriz que los tiene como vectores columna tenga rango
igual a n.
Para generar R2 hacen falta, al menos, dos vectores (§ 306). Los
dos vectores (1, 0) y (0, 1) son suficientes, pues la matriz que los tiene por
vectores columna, precisamente la matriz identidad de orden 2:
1 0
I2 =
,
0 1
tiene rango igual a 2. Podemos, pues, escribir: L (1, 0), (0, 1) = R2 .
En general, los vectores columna de la matriz identidad In son generadores del espacio vectorial Rn , pues el rango de la matriz In es igual a n. Es
decir:
Otro ejemplo
308
L (1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0, . . . , 1) = Rn .
Consideremos los tres vectores (2, 1), (4, 2) y (−2, 5), todos de R2 .
¿Generan estos vectores R2 ?
Formamos la matriz cuyos vectores columna son (2, 1), (4, 2) y (−2, 5),
y la escalonamos para calcular el rango:
2 4 −2 F2 ←F2 −(1/2)F1
2
→
1 2
5
0
4
0
−2
6
.
Vemos que son dos los pivotes de la matriz escalonada obtenida, luego el
rango de la matriz es igual a 2. Como consecuencia (§ 306), los tres vectores (2, 1), (4, 2) y (−2, 5) sí generan R2 .
Otro ejemplo (continuación)
309
En el ejemplo del § 308, hemos escrito tres generadores de R2 . ¿Po-
dríamos generar este espacio vectorial con solo dos de esos tres vectores?
Veamos. Con los vectores (4, 2) y (−2, 5) (estamos descartando el primero de los tres) sí lo conseguimos, pues la matriz que los tiene como vectores columna tiene tango igual a 2:
4 −2 F2 ←F2 −(1/2)F1
4
→
2
5
0
−2
6
.
III.2. SUBESPACIOS VECTORIALES
¡Compruébelo el lector, por favor!
Por otro lado, si el vector que descartamos es el segundo, también resultan
ser generadores de R2 los dos vectores restantes. Pero si el vector descartado es el tercero, sucede algo diferente; la matriz cuyos vectores columna
son (2, 1) y (4, 2) tiene rango igual a 1:
2 4 F2 ←F2 −(1/2)F1
2
→
1 2
0
4
0
,
luego los vectores (2, 1) y (4, 2) no generan R2 .
A la hora de calcular el subespacio que generan los tres vectores (2, 1),
(4, 2) y (−2, 5) —en este caso, el propio R2 —, vemos entonces que cualquiera de los dos primeros es superfluo, en el sentido de que sin él los
otros dos generan el mismo subespacio que generan todos juntos. En este
mismo sentido, el tercer vector es, sin embargo, imprescindible: sin él no
conseguimos generar el mismo subespacio que con los tres vectores juntos.
Si nos dan unos vectores, ¿hay una forma sencilla de saber cuántos —y
cuáles— entre ellos son superfluos en el sentido dado a esta palabra en el
párrafo anterior? ¿Y cuántos —y cuáles— son imprescindibles? Responderemos a estas cuestiones en la Sección III.3.
Ejercicios III.2
1
Determinar cuáles de los siguientes conjuntos de
vectores de R3 son subespacios vectoriales de R3 :
a)
{(a, b, c)} (para algún vector (a, b, c) de R3 );
b)
{(0, 0, 0), (1, 1, 1)};
!
"
(a + b, 2b, a) ! a ∈ R y b ∈ R ;
!
"
(a + b + 1, 2b, a) ! a ∈ R y b ∈ R ;
!
"
λ(2, 2, 0) ! λ ∈ R ;
!
"
(2, 2λ, 0) ! λ ∈ R ;
!
"
λ(2, 2, 0) + μ(0, 0, 1) ! λ ∈ R y μ ∈ R ;
!
"
λ(2, 2, 0) + (0, 0, 1) ! λ ∈ R ;
!
"
λ(2, 2, 0) + (1, 1, 0) ! λ ∈ R ;
L (0, 0, 1), (2, 2, 0) ;
L (0, 0, 0) ;
!
"
(x, y, z) ∈ R3 ! x + y = z ;
!
"
(x, y, z) ∈ R3 ! x + y = z y 2y = −2z ;
!
"
(x, y, z) ∈ R3 ! x + y = 0 y z = 0 ;
c)
d)
e)
f)
g)
h)
i)
j)
k)
l)
m)
n)
o)
p)
q)
r)
s)
2
!
"
(x, y, z) ∈ R3 ! x + y = 0 y z = 2 ;
!
"
(x, y, z) ∈ R3 ! x 2 + y = 0 ;
!
"
(x, y, z) ∈ R3 ! xy + z = 0 ;
!
"
(x1 , x2 , x3 ) ∈ R3 ! x12 + x22 + x32 = 0 ;
!
"
(x1 , x2 , x3 ) ∈ R3 ! x12 + 1 = 0 .
Encontrar unos generadores de los subespacios
vectoriales de R3 que se hayan señalado en el ejercicio
anterior. ¿Cuáles son rectas y cuáles son planos?
3 a)
Los vectores (2, 0, 2), (3, 5, 3) y (5, −1, 5), ¿ge-
neran R3 ? ¿Y los vectores (2, 0, 2) y (3, 5, 3)?
b)
Los cuatro vectores (2, 0, 2), (3, 5, 3), (5, −1, 5)
y (0, 0, 1), ¿generan R3 ? En caso afirmativo, si eliminamos alguno de ellos, ¿los que quedan siguen generando R3 ?
c)
Estudiar, según los valores de a y b, si los vectores (2, 0, 2), (3, 5, a) y (5, −1, b) generan R3 .
III. VECTORES
4
Dados dos conjuntos A y B (cualesquiera, no ne-
5
Dados dos conjuntos A y B de vectores de Rn , se
cesariamente de vectores), los elementos que pertene-
define su suma como el conjunto formado por los vec-
cen a la vez a A y a B constituyen un conjunto que se
denomina intersección de los conjuntos A y B, y que
tores que se pueden escribir como suma de un vector
de A y un vector de B. Se denota por A + B. Podemos
!
"
escribir: A + B = a + b ! a ∈ A y b ∈ B .
se denota por A ∩ B.
a)
Si A = {1, 2, 3, 4} y B = {2, 4, 6, 8, 10}, escribir el
conjunto A ∩ B.
b)
Demostrar que la intersección de dos o más sub-
espacios vectoriales de Rn es un conjunto no vacío que
también es un subespacio vectorial de Rn .
c)
Dados estos subespacios vectoriales de R3 :
!
"
G1 = (x, y, z) ∈ R3 ! x + y = 0 ,
!
"
G2 = (x, y, z) ∈ R3 ! x = z ,
escribir un sistema de ecuaciones lineales homogéneo
cuyo conjunto de soluciones coincida con G1 ∩ G2 . Encontrar unos generadores de G1 ∩ G2 .
d)
Dados estos subespacios vectoriales de R3 :
F = L (2, 2, 0), (0, 0, 1) y
a)
Si A = {(0, 1), (0, 0)} y B = {(2, 1), (2, 2), (1, 1)},
escribir el conjunto A + B.
G = L (2, 2, 1), (0, 1, 0) ,
b)
Demostrar que la suma de dos o más subespacios
vectoriales de Rn es un subespacio vectorial de Rn .
c)
Dados estos subespacios vectoriales de R3 :
F = L (2, 2, 0), (0, 0, 1) y G = L (2, 2, 1), (0, 1, 0) ,
encontrar unos generadores de F + G.
d)
Dados estos subespacios vectoriales de R3 :
!
"
F1 = (x, y, z) ∈ R3 ! x + y = 0 y z = 0 ,
!
"
F2 = (x, y, z) ∈ R3 ! x = z y y = 0 ,
encontrar un sistema de ecuaciones lineales homogé-
encontrar unos generadores de F ∩ G. (Indicación: Es-
neo cuyo conjunto de soluciones coincida con F1 + F2 .
cribir F y G como las soluciones de sendos sistemas de
(Indicación: Calcular unos generadores de cada uno de
ecuaciones lineales homogéneos.)
los subespacios F1 y F2 .)
III.3. INDEPENDENCIA LINEAL
III.3 INDEPENDENCIA LINEAL
En esta sección estudiamos la dependencia y la independencia lineal de vectores. Estudiamos también qué es una base y qué es la dimensión de un
espacio vectorial, y definimos el rango de unos vectores (que tiene una estrecha relación con el rango de una matriz). Los conceptos de esta sección
tratan de formalizar la idea de cuántos vectores, entre unos dados, son “imprescindibles” para determinar el subespacio generado por todos juntos.
Terminamos viendo las ecuaciones de un subespacio vectorial.
1. Vectores linealmente dependientes y vectores linealmente independientes
Vemos en este apartado los importantes conceptos —uno opuesto del otro—
de dependencia lineal e independencia lineal de vectores. Presentamos también los sistemas de vectores.
Definiciones y propiedades
Vectores linealmente
dependientes (caso de dos
vectores)
310
En el § 303 (cf. p. 275), vimos la siguiente propiedad: si tenemos
dos vectores no nulos v 1 y v 2 tales que uno es múltiplo del otro, entonces
el subespacio que ambos generan coincide con el que genera cualquiera de
ellos por sí solo: L v 1 , v 2 = L v 1 = L v 2 . Dos vectores en estas condiciones: uno múltiplo del otro, son un caso particular de lo que se denomina
vectores linealmente dependientes.
Más precisamente: dados dos vectores v 1 y v 2 (nulos o no, ambos de Rn ),
decimos que son linealmente dependientes si uno de ellos al menos es combinación lineal del otro (o lo que es lo mismo —por tratarse de combinaciones lineales de un solo vector—: si uno de ellos al menos es múltiplo del
otro). Es decir: v 1 y v 2 son linealmente dependientes si v 1 = λv 2 para algún
número λ, o si v 2 = μv 1 para algún número μ.
(2, 1, −3) =
1
(4, 2, −6)
2
(4, 2, −6) = 2(2, 1, −3)
Por ejemplo, los vectores (2, 1, −3) y (4, 2, −6) son linealmente dependientes, pues al menos uno de ellos es múltiplo —y por ende combinación
lineal— del otro (de hecho, ambos vectores cumplen este requisito).
Otro ejemplo: los vectores (2, −3) y (3, 1) no son linealmente dependientes: el primero no es igual a una combinación lineal del segundo (cualquier
múltiplo de este último es tal que su primera componente es triple de la
segunda, y el primer vector no lo cumple), y el segundo no es igual a una
combinación lineal del primero (la justificación sería similar).
III. VECTORES
Un ejemplo y una propiedad:
cuando el vector nulo es uno
de los vectores
311
Los dos vectores (2, −1) y (0, 0) son linealmente dependientes. ¿Por
qué? Porque el segundo es múltiplo del primero: (0, 0) = 0(2, −1).
Si nos dan dos vectores y al menos uno de ellos es nulo, entonces los
dos vectores son linealmente dependientes; ello es debido a que el vector
nulo es expresable como combinación lineal de cualquier vector: 0 = 0v.
Nota bene
Los vectores (2, −1) y (0, 0) son tales que el segundo es múltiplo del
primero, pero no al revés. Para que dos vectores sean linealmente dependientes,
se pide que al menos uno sea múltiplo del otro; no se exige que ambos vectores
cumplan este requisito.
Una propiedad importante
312
Vemos ahora una forma más operativa de expresar el hecho de que
dos vectores sean linealmente dependientes; a saber: afirmar que dos vectores v 1 y v 2 son linealmente dependientes es equivalente a afirmar que la
igualdad α1 v 1 + α2 v 2 = 0 se satisface para algunos números α1 y α2 no
simultáneamente nulos. Dicho de otra forma: los vectores v 1 y v 2 son linealmente dependientes precisamente si el vector 0 se puede escribir como
una combinación lineal de ellos con los coeficientes no todos nulos.
Nota bene
0v1 + 0v2 = 0
Dados dos vectores cualesquiera, el vector nulo se puede escribir
como combinación lineal de ellos: basta tomar todos los coeficientes iguales
a 0. Para comprobar que los vectores son linealmente dependientes, debemos
buscar alguna combinación lineal de ellos igualada al vector nulo que sea distinta de esta descrita, es decir, con algún coeficiente distinto de 0.
Supongamos en primer lugar que los vectores v 1
En segundo lugar, para probar el recíproco, supon-
y v 2 son linealmente dependientes, y comprobemos
que existen dos números α1 y α2 , no nulos a la vez,
gamos que α1 v 1 + α2 v 2 = 0 para algunos coeficientes α1 y α2 no simultáneamente nulos, y probemos que
tales que α1 v 1 + α2 v 2 = 0. Por ser linealmente depen-
los vectores v 1 y v 2 son linealmente dependientes. Si
dientes los vectores v 1 y v 2 , se tiene que v 1 = λv 2 para
el coeficiente α1 es no nulo, podemos escribir:
algún número λ, o que v 2 = μv 1 para algún número μ.
En el primer caso, podríamos escribir: v 1 − λv 2 = 0,
con lo que nos valdrían α1 = 1 y α2 = λ; en el se-
α1 v 1 = −α2 v 2 ,
de donde:
v1 = −
α2
v2 ,
α1
gundo: μv 1 − v 2 = 0, y podríamos tomar α1 = μ
lo que expresa el vector v 1 como combinación lineal del
y α2 = −1. En ambos casos, conseguimos expresar el
vector v 2 ; si el coeficiente α1 es nulo, entonces α2 no
vector nulo como una combinación lineal de los vectores v 1 y v 2 con al menos un coeficiente distinto de 0.
lo es, y v 2 = 0. En cualquiera de los dos casos, los dos
vectores v 1 y v 2 resultan ser linealmente dependientes.
Un ejemplo
313
Veamos un ejemplo de aplicación del resultado estudiado en el
§ 312: ¿son linealmente dependientes los vectores (1, −1, 2) y (−2, 2, −4)?
III.3. INDEPENDENCIA LINEAL
Con un examen detallado, se aprecia que uno es múltiplo del otro —con lo
que sí son linealmente dependientes—, pero no dejemos de aplicar el resultado anterior, lo cual, por cierto, nos dará la pauta para responder, un
poquito más adelante, preguntas similares con más vectores.
cuyos vectoSi escribimos, distinguiendo la última columna, la matriz A
res columna son (1, −1, 2), (−2, 2, −4) y (0, 0, 0), sabemos que cada forma
de expresar el vector (0, 0, 0) como una combinación lineal de los vectores (1, −1, 2) y (−2, 2, −4) se corresponde con una solución del sistema de
y viceversa (cf. § 277, p. 255).
ecuaciones lineales cuya matriz ampliada es A,
es esta:
La matriz A
⎛
1
=⎜
A
⎝ −1
2
−2
2
−4
⎞
0
⎟
0⎠,
0
la cual corresponde a un sistema homogéneo (sus términos independientes
son todos nulos). Escalonamos la matriz de coeficientes de este sistema
homogéneo (como sabemos que se hace con cualquier sistema homogéneo):
⎛
⎛
⎛
⎞
⎞
⎞
1 −2
1 −2
1 −2
⎜
⎟ F2 ←F2 +F1 ⎜
⎟
⎟ F3 ←F3 −2F1 ⎜
2 ⎠ →
0⎠.
0 ⎠ →
⎝0
⎝0
⎝ −1
2 −4
0
0
2 −4
La matriz escalonada obtenida solo tiene un pivote, luego el sistema homogéneo —que es de dos incógnitas— tiene infinitas soluciones: es compatible indeterminado. Excepto la nula, cualquiera de estas soluciones nos sirve
para escribir el vector (0, 0, 0) como una combinación lineal, con los coeficientes no simultáneamente nulos, de los vectores (1, −1, 2) y (−2, 2, −4).
Confirmamos, pues, que estos vectores son linealmente dependientes.
Tal sistema es equivalente a
una única ecuación lineal homogénea: x1 −2x2 = 0 (escrita
en las incógnitas x1 y x2 ),
cuyas soluciones son (2λ, λ)
para todo número λ.
De hecho, el lector puede comprobar que las soluciones del sistema ho son los pares ordenados de la forma (2λ, λ)
mogéneo de matriz ampliada A
para algún número λ; tomando como valor de λ cualquier número no nulo,
escribimos una combinación lineal como la que buscamos:
(0, 0, 0) = 2λ(1, −1, 2) + λ(−2, 2, −4);
es decir, una combinación lineal de los vectores (1, −1, 2) y (−2, 2, −4) igualada al vector nulo, y en la que algún coeficiente es no nulo (en este caso,
todos).
Vectores linealmente
dependientes (caso general)
314
Extendamos la definición de vectores linealmente dependientes a
más vectores. Dados unos vectores (dos o más), decimos que son linealmente dependientes si alguno de ellos se puede escribir como combinación
lineal de los demás.
III. VECTORES
Por ejemplo, los tres vectores (2, 1), (4, 2) y (−2, 5) (cf. § 309, p. 278)
son linealmente dependientes, pues uno de ellos —nos sirven el primero o
el segundo— es igual a una combinación lineal de los demás:
(2, 1) =
Cuando el vector nulo es uno
de los vectores
1
(4, 2) + 0(−2, 5) o
2
(4, 2) = 2(2, 1) + 0(−2, 5).
Una propiedad: si entre unos vectores dados está el vector nulo,
315
entonces tales vectores son linealmente dependientes. Esto es así porque
el vector nulo se puede escribir como combinación lineal de cualesquiera
Generalizamos así lo afirmado
en el § 311.
vectores: basta tomar los coeficientes correspondientes iguales a 0.
Los vectores (4, 2, −3), (0, 0, 0) y (−2, 0, 5) (por poner un ejemplo) son
linealmente dependientes: el vector nulo (0, 0, 0) es uno de ellos.
Una propiedad importante
que da una definición
equivalente
La caracterización de la dependencia lineal que vimos en el § 312
316
para dos vectores se cumple también para una cantidad cualquiera de vectores. Es decir: dados k vectores v 1 , v 2 , . . . , v k (con k 2, y todos de Rn ),
estos vectores son linealmente dependientes precisamente si existen k esca-
Recuérdese:
escalar ≡ número real.
lares α1 , α2 , . . . , αk , no todos nulos, tales que α1 v 1 + α2 v 2 + · · · + αk v k = 0.
La justificación de esta propiedad es análoga a la vista en el citado § 312
para la dependencia lineal de dos vectores.
Como veremos enseguida, este resultado permite averiguar de una forma
sencilla si unos vectores dados son linealmente dependientes o no; en muchos libros, de hecho, esta propiedad se da como definición de vectores
linealmente dependientes.
Un ejemplo
Apliquemos el resultado del § 316 para estudiar si son linealmente
317
dependientes los vectores (1, 2, 3), (3, 2, 1) y (4, 4, 4). Podemos proceder
como en el § 313: escribimos la matriz cuyos vectores columna son estos
vectores y el vector nulo (0, 0, 0), y examinamos si admite infinitas soluciones (o solo una) el sistema de ecuaciones lineales cuya matriz ampliada
es la recién escrita. Pero como ya sabemos que los términos independientes de tal sistema resultan todos nulos, es decir, el sistema es homogéneo,
trabajamos solo con su matriz de coeficientes, que en este caso es, simplemente, la que tiene por vectores columna los tres vectores dados: (1, 2, 3),
(3, 2, 1) y (4, 4, 4). Escribimos y escalonamos esta matriz:
⎛
1
⎜
⎝2
3
3
2
1
⎞
⎛
F2 ←F2 −2F1
4
1
F
←F
−3F
⎟ 3 3
1 ⎜
4 ⎠ →
⎝ 0
4
0
3
−4
−8
⎛
⎞
4
1
F
←F
−2F
⎟ 3 3
2 ⎜
−4 ⎠ →
⎝0
0
−8
3
−4
0
⎞
4
⎟
−4 ⎠ .
0
Obtenemos dos pivotes, menos que el número de incógnitas del sistema —el
cual sería tres, pues son tres las columnas de la matriz de coeficientes que
III.3. INDEPENDENCIA LINEAL
hemos obtenido—, luego se trata de un sistema compatible indeterminado.
Enfaticemos lo siguiente: decir que un vector (en particular, una terna) es no nulo es
tanto como decir que alguna
de sus componentes es distinta de 0.
Otro ejemplo
Hay, pues, infinitas soluciones; cualquiera de ellas distinta de la nula nos
proporciona una terna de coeficientes, no todos nulos, para escribir el vector (0, 0, 0) como una combinación lineal de los vectores (1, 2, 3), (3, 2, 1)
y (4, 4, 4). Estos vectores son, entonces, linealmente dependientes.
318
Consideremos estos tres vectores de R4 : (1, −2, 0, 1), (2, −3, 1, 0)
y (2, 0, 0, −2). ¿Son linealmente dependientes?
Trabajando como en el § 317, escribimos la matriz cuyos vectores columna son los vectores dados, la cual denotamos por A, y la escalonamos:
⎛
⎛
⎞
⎞
1
2
2
1
2
2
F
←F
+2F
2
2
1
⎜
⎜
⎟
⎟
⎜ −2 −3
⎜0
0⎟
1
4⎟
4 −F1
⎜
⎟ F4←F
⎟
A=⎜
→
⎜ 0
⎜0
1
0⎟
1
0⎟
⎝
⎝
⎠
⎠
1
0 −2
0 −2 −4
⎛
⎞
1 2
2
F3 ←F3 −F1 ⎜
⎟
4⎟
0 1
F4 ←F4 +2F2 ⎜
⎜
⎟
→
⎜
⎟
⎝ 0 0 −4 ⎠
0 0
4
⎛
⎞
1 2
2
⎜
⎟
4⎟
0 1
F4 ←F4 +F3 ⎜
⎟
→
⎜
⎜ 0 0 −4 ⎟ .
⎝
⎠
0 0
0
La matriz escalonada obtenida tiene tres pivotes, tantos como columnas,
luego el sistema de ecuaciones lineales homogéneo cuya matriz de coeficientes es la matriz A es compatible determinado: solo admite una solución,
que es la nula. No hay forma, entonces, de escribir el vector (0, 0, 0) como
una combinación lineal de los tres vectores dados de forma que alguno de
los coeficientes sea distinto de 0. Los tres vectores (1, −2, 0, 1), (2, −3, 1, 0)
y (2, 0, 0, −2) no son, pues, linealmente dependientes.
Una propiedad relacionada
con los generadores de un
subespacio
319
Si tenemos unos vectores que son linealmente dependientes, enton-
ces entre ellos hay alguno superfluo (quizá más de uno) a la hora de calcular
el subespacio generado por todos. Más concretamente: dados unos vectores linealmente dependientes, sabemos que —por definición— hay al menos
uno entre ellos que es igual a una combinación lineal de los demás; precisamente este vector es tal que, si lo “eliminamos”, los que quedan generan el
mismo subespacio que generan todos juntos.
En el § 310, se recordó lo visto
en el § 303 (cf. p. 275).
Esta propiedad generaliza, para una cantidad cualquiera de vectores (nulos o no), el resultado recordado en el § 310 para dos vectores no nulos.
III. VECTORES
Para justificar la propiedad anterior, vale la pena
y por ende de sí mismo y cualesquiera vectores que
traer a colación el § 284 (cf. p. 262) y el § 285
le adjuntemos (§ 285).
(cf. p. 263), con sendos resultados sobre combinaciones
sultado del § 284, cualquier vector que sea igual a
lineales.
Dados k vectores v 1 , v 2 , . . . , v k (todos de Rn ), supongamos que uno de ellos, verbigracia el último, es
una combinación lineal de v 1 , v 2 , . . . , v k se podrá escribir como una combinación lineal de v 1 , v 2 , . . . , v k−1 .
Esto prueba que L v 1 , v 2 , . . . , v k ⊆ L v 1 , v 2 , . . . , v k−1 .
igual a una combinación lineal de los restantes.
Recíprocamente, se tiene que cualquier combinación li-
De
Como consecuencia del re-
cada uno de los vectores v 1 , v 2 , . . . , v k podemos de-
neal de los vectores v 1 , v 2 , . . . , v k−1 se puede escribir
cir que es igual a una combinación lineal solo de los
a su vez como una combinación lineal de los vec-
vectores v 1 , v 2 , . . . , v k−1 : en el caso del último: v k ,
tores v 1 , v 2 , . . . , v k (§ 285). Ello demuestra el otro
contenido: L v 1 , v 2 , . . . , v k−1 ⊆ L v 1 , v 2 , . . . , v k .
En definitiva: L v 1 , v 2 , . . . , v k = L v 1 , v 2 , . . . , v k−1 .
de acuerdo con lo supuesto; en el caso de los demás,
porque un vector es combinación lineal de sí mismo,
A modo de ejemplo, recordemos los tres vectores con los que trabajamos
en el § 309 (cf. p. 278): (2, 1), (4, 2) y (−2, 5). Vimos allí que los tres vectores
juntos generan R2 , y que si descartamos el primero o el segundo, los dos
que quedan también generan R2 . Gracias al resultado anterior, vemos aquí
una confirmación de todo ello, porque tanto el primer vector de los tres
como el segundo cumplen el ser iguales a alguna combinación lineal de
los demás (escribimos una para cada uno en el § 314, al apuntar que eran
linealmente dependientes). Esto es, como el vector (2, 1) resulta ser igual
a una combinación lineal de los vectores (4, 2) y (−2, 5), podemos escri
bir: L (2, 1), (4, 2), (−2, 5) = L (4, 2), (−2, 5) , y lo mismo podemos escribir,
mutatis mutandis, sobre el vector (4, 2).
Es de observar que entre los vectores (4, 2) y (−2, 5), o entre los vectores (2, 1) y (−2, 5), ya no sobra ninguno, en el sentido de que si falta
cualquiera, el que queda no puede generar lo mismo que los dos juntos, que
Cf. § 306, p. 277.
Vectores linealmente
independientes
es R2 : para generar el espacio vectorial Rn hacen falta al menos n vectores.
320
Decimos que unos vectores (dos o más) son linealmente indepen-
dientes si no son linealmente dependientes. Es decir, dados unos vectores,
todos de Rn , decimos que son linealmente independientes si ninguno de
ellos se puede escribir como combinación lineal de los demás.
Por ejemplo, los vectores (2, −3) y (3, 1) son linealmente independien-
Vemos cuándo dos vectores
son linealmente independientes. . .
tes: en el § 310 comprobamos que ninguno de ellos es combinación lineal
—o bien, múltiplo— del otro. En general, dos vectores son linealmente independientes precisamente si ninguno de ellos es múltiplo del otro.
Los tres vectores (1, −2, 0, 1), (2, −3, 1, 0) y (2, 0, 0, −2) son linealmente
independientes: en el § 318 vimos que no son linealmente dependientes.
III.3. INDEPENDENCIA LINEAL
Cuando el vector nulo es uno
de los vectores
321
De acuerdo con la propiedad vista en el § 315, si nos dan unos vecto-
res y alguno de ellos es nulo, entonces los vectores dados no son linealmente
independientes.
Tres vectores que escribimos
en el citado § 315.
Definición equivalente y
método práctico
El simple hecho de que uno de los vectores (4, 2, −3), (0, 0, 0) y (−2, 0, 5)
sea nulo hace que los tres no sean linealmente independientes.
322
El resultado del § 316 tiene un correspondiente inmediato para vec-
tores linealmente independientes; a saber: dados k vectores v 1 , v 2 , . . . , v k
(con k 2, y todos de Rn ), estos vectores son linealmente independientes precisamente si la igualdad vectorial α1 v 1 + α2 v 2 + · · · + αk v k = 0 es
verificada solamente para los escalares nulos: α1 = α2 = . . . = αk = 0.
Es decir, los vectores v 1 , v 2 , . . . , v k (en cantidad k 2) son linealmente
independientes precisamente si de la igualdad α1 v 1 + α2 v 2 + · · ·+ αk v k = 0
se deduce necesariamente que α1 = α2 = . . . = αk = 0.
Como acontecía con el resultado correspondiente para dependencia lineal, esta caracterización de los vectores linealmente independientes es la
definición de independencia lineal en muchos libros, y también establece
una manera sencilla de determinar si unos vectores dados son linealmente
independientes o no.
A la vista de los ejemplos de los § 313, 317 y 318, el procedimento para
ello sería el siguiente. Se escribe la matriz cuyos vectores columna son los
vectores dados, y se escalona, con el fin de discutir el sistema de ecuaciones
lineales homogéneo cuya matriz de coeficientes es la matriz escrita. Si tal
sistema resulta compatible indeterminado, los vectores son linealmente dependientes (por ejemplo, los del § 313, y también los del § 317), pues cada
solución no nula del sistema señala una manera de expresar el vector nulo
como una combinación lineal de los vectores dados de modo que no todos
los coeficientes sean iguales a 0. Por el contrario, si el sistema homogéneo es
compatible determinado, los vectores son linealmente independientes (verbigracia, los del § 318 —que fueron recordados en el § 320—): el hecho de
que la única solución del sistema sea la nula indicaría que solamente con
todos los coeficientes iguales a 0 conseguimos expresar el vector nulo como
una combinación lineal de los vectores dados. Ahora bien, un sistema de
ecuaciones lineales homogéneo es compatible indeterminado si su matriz
de coeficientes tiene rango menor que el número de columnas, y es compatible determinado si tal rango es igual al número de columnas (cf. § 178,
p. 172). En el caso del sistema que venimos considerando, con matriz de
coeficientes la matriz cuyos vectores columna son los vectores dados, el
número de columnas es justamente el número de vectores.
III. VECTORES
En definitiva, podemos afirmar:
Dados unos vectores, se forma la matriz que los tiene como vectores columna. Si la matriz tiene rango menor que el número de vectores, entonces
los vectores son linealmente dependientes; si tiene rango igual al número
de vectores, entonces los vectores son linealmente independientes.
Un ejemplo
323
Estudiemos, según los valores del parámetro a, si son linealmente
dependientes o independientes los vectores (1, 1, −1), (1, 0, 0) y (1, −1, a).
De acuerdo con el resultado establecido en el § 322, escribamos la matriz
cuyos vectores columna son los tres vectores dados, y calculemos su rango.
Al escribirla y escalonarla, nos queda:
⎛
⎛
⎛
⎞
⎞
F2 ←F2 −F1
1 1
1
1
1
1
1
⎜
⎟ F3 ←F3 +F1 ⎜
⎟ F3 ←F3 +F2 ⎜
⎝ 0 −1 −2 ⎠ →
⎝0
⎝ 1 0 −1 ⎠ →
−1 0
a
0
0
1 a+1
1
−1
0
⎞
1
⎟
−2 ⎠ .
a−1
La matriz escalonada obtenida tiene al menos dos pivotes. Presenta un tercero o no según sea a− 1 distinto de 0 o igual a 0, respectivamente, es decir,
según sea a ≠ 1 o a = 1, respectivamente. Si hay tres pivotes, el rango
de la matriz coincide con el número de vectores, y los tres vectores dados
son linealmente independientes; si hay dos pivotes, el rango es menor que el
número de vectores, y los vectores son linealmente dependientes. Es decir:
• si a ≠ 1, los vectores (1, 1, −1), (1, 0, 0) y (1, −1, a) son linealmente
independientes;
• si a = 1, los vectores (1, 1, −1), (1, 0, 0) y (1, −1, a) son linealmente
dependientes.
Cuando tenemos un solo
vector
324
En principio, no hemos definido la dependencia o la independencia
lineal para un solo vector. Lo hacemos ahora: un solo vector es linealmente
dependiente si es nulo, y es linealmente independiente si es no nulo.
Por ejemplo, el vector (0, 0, 0) es linealmente dependiente, pero el vector (1, −3) es linealmente independiente.
La propiedad de la dependencia lineal que vimos en el § 316, y también la
de la independencia lineal que vimos en el § 322, sigue siendo válida para un
solo vector, de forma que podemos afirmar: dados k vectores v 1 , v 2 , . . . , v k
(con la cantidad k ahora mayor o igual que 1), estos vectores son linealmente
dependientes precisamente si existen k escalares α1 , α2 , . . . , αk , no simultáneamente nulos, tales que α1 v 1 + α2 v 2 + · · · + αk v k = 0; y son linealmente
independientes precisamente si esta igualdad es verificada solamente con
los k escalares α1 , α2 , . . . , αk iguales a 0: α1 = α2 = . . . = αk = 0.
III.3. INDEPENDENCIA LINEAL
Una propiedad importante de
los vectores que son
linealmente independientes
325
Dados unos vectores linealmente independientes, cualquier vector
que sea combinación lineal de ellos lo es de forma única. Queremos decir
lo siguiente: dados unos vectores v 1 , v 2 , . . . , v k que son linealmente independientes, si un vector w es combinación lineal de ellos, entonces los
coeficientes α1 , α2 , . . . , αk tales que w = α1 v 1 + α2 v 2 + · · · + αk v k son
únicos.
Escrito de otra forma: si w es un vector del subespacio generado por
unos vectores linealmente independientes v 1 , v 2 , . . . , v k , entonces existen
unos únicos escalares α1 , α2 , . . . , αk tales que w = α1 v 1 +α2 v 2 +· · ·+αk v k .
Para justificar la propiedad, consideramos k vecto-
de tal sistema tiene rango igual al número de sus co-
res v 1 , v 2 , . . . , v k linealmente independientes y un vec-
lumnas (§ 322), que es k, igual al número de incógnitas
tor w que es combinación lineal de ellos. Si escribimos
del sistema. Si un sistema que admite solución es tal
la matriz cuyos vectores columna son v 1 , v 2 , . . . , v k
que el rango de su matriz de coeficientes es igual al
y w, esta matriz es la ampliada de un sistema de ecuaciones linales, con k incógnitas, que admite solución
número de incógnitas, tal sistema es compatible determinado (cf. § 174, p. 168): la solucion es única. Solo hay
(cf. § 277, p. 255). Como los vectores v 1 , v 2 , . . . , v k son
una forma, pues, de expresar el vector w como combi-
linealmente independientes, la matriz de coeficientes
nación lineal de los vectores v 1 , v 2 , . . . , v k .
Por ejemplo, los vectores (2, −3) y (3, 1) son linealmente independientes (§ 320), y el vector (1, −7) se puede escribir como una combinación
lineal de ellos: (1, −7) = 2(2, −3) − 1(3, 1). Se tiene que estos coeficientes
son únicos: si (1, −7) = α(2, −3) + β(3, 1), entonces necesariamente α = 2
y β = −1. Dado cualquier vector del subespacio L (2, −3), (3, 1) , son únicos los coeficientes que permiten escribirlo como combinación lineal de los
vectores (2, −3) y (3, 1).
Enunciamos la propiedad anterior de esta forma:
Dados unos vectores v 1 , v 2 , . . . , v k linealmente independientes, cualquier
vector del subespacio L v 1 , v 2 , . . . , v k se puede escribir de una única manera como combinación lineal de los vectores v 1 , v 2 , . . . , v k .
Una propiedad relacionada
con los generadores de un
subespacio (continuación del
§ 319)
326
Como contrapartida de la propiedad que enunciamos en el § 319,
podemos afirmar que, a la hora de calcular el subespacio generado por unos
vectores linealmente independientes, ninguno de ellos es superfluo. Es decir: si nos dan unos vectores que son linealmente independientes, entonces
cada uno de ellos es imprescindible en el sentido de que, si lo “eliminamos”,
los restantes no generan el mismo subespacio que generan todos juntos.
III. VECTORES
Para verlo, nos dan k vectores v 1 , v 2 , . . . , v k linealmente independientes. Si aconteciera que “sobra” uno
y en particular el mismo vector v k sería un elemento
de L v 1 , v 2 , . . . , v k−1 . Pero esto último sería tanto
(en el sentido explicitado en el párrafo anterior), ponga-
como decir que el vector v k es igual a una combinación
mos el último: v k , podríamos escribir la igualdad (en
tre subespacios) L v 1 , v 2 , . . . , v k = L v 1 , v 2 , . . . , v k−1 ,
lineal de los vectores v 1 , v 2 , . . . , v k−1 , en contradicción
con que todos son linealmente independientes.
Por ejemplo, en el § 304 (cf. p. 276) comprobamos la siguiente afirmación: dados dos vectores no nulos tales que ninguno de ellos es múltiplo
¿Recta? Recordemos: subespacio vectorial generado por
un vector no nulo; es decir,
de la forma L v para algún
vector no nulo v (cf. § 302,
p. 275).
del otro, el subespacio generado por ambos —lo que se llama un plano—
no es una recta. Otra forma de decir lo mismo es esta: dados dos vectores
linealmente independientes, el subespacio generado por ambos no es igual
a un subespacio generado por un único vector no nulo. En particular, si v 1
y v 2 son dos vectores linealmente independientes, el subespacio L v 1 , v 2
es distinto de cualquiera de los subespacios L v 1 y L v 2 . Ello confirma
la propiedad anterior: los dos vectores linealmente independientes v 1 y v 2
son imprescindibles cuando queremos calcular el subespacio que ambos generan.
Sistemas de vectores
Sistemas de vectores
327
En algunas ocasiones, resulta cómodo referirse a varios vectores
juntos como un todo; ello motiva la definición de sistema de vectores.
Un sistema de vectores es una lista, o colección, finita ordenada de
vectores de un mismo espacio vectorial. Más en concreto, dados unos vecAquí: k 1.
tores v 1 , v 2 , . . . , v k de Rn , estos vectores, en este mismo orden, forman
un sistema de vectores de Rn , el cual se escribe así: v 1 , v 2 , . . . , v k . A veces denotaremos los sistemas de vectores con letras mayúsculas en negrita,
como S o B; podríamos escribir, por ejemplo: S = v 1 , v 2 , . . . , v k .
Verbigracia, los vectores (2, −3) y (3, 1) (cf. § 310, p. 281), en este mismo
orden, forman el sistema de vectores (2, −3), (3, 1) , de R2 . Y los vectores (1, −2, 0, 1), (2, −3, 1, 0) y (2, 0, 0, −2) (§ 318), en este orden, forman el
sistema de vectores (1, −2, 0, 1), (2, −3, 1, 0), (2, 0, 0, −2) , esta vez de R4 .
En principio, el orden en que figuran escritos los vectores de un sistema
de vectores es relevante. Por ejemplo, el sistema (2, −3), (3, 1) del párrafo
anterior no se considera el mismo que el sistema (3, 1), (2, −3) .
También debe notarse que la definición de sistema de vectores no impide
que figuren en un sistema algunos vectores repetidos. Por ejemplo, po
dríamos considerar los sistemas (2, −3), (3, 1), (3, 1) o (3, 1), (3, 1) .
III.3. INDEPENDENCIA LINEAL
Sistemas ligados y sistemas
libres
328
Dado un sistema de vectores, decimos que es un sistema ligado si
los vectores que lo forman son linealmente dependientes; y decimos que es
un sistema libre si tales vectores son linealmente independientes.
Por ejemplo, podemos afirmar que los sistemas (2, 1), (4, 2), (−2, 5)
y (1, 2, 3), (3, 2, 1), (4, 4, 4) —el primero de vectores de R2 y el segundo de
vectores de R3 — son sistemas ligados (§ 314 y 317). Por el contrario, los sis
temas (2, −3), (3, 1) y (1, −2, 0, 1), (2, −3, 1, 0), (2, 0, 0, −2) son sistemas
libres (§ 320).
Cuando en un sistema figura
el vector nulo, y otras
propiedades
329
Si en un sistema de vectores figura el vector nulo, entonces el sis-
tema es ligado, pues unos vectores entre los que se encuentre el vector nulo
son linealmente dependientes (§ 314).
Por otra parte, si en un sistema de vectores figuran vectores repetidos,
entonces el sistema también es ligado (de cualquiera de los vectores repeti-
¿Ve el lector por qué?
dos podemos afirmar que es igual a una combinación lineal de los demás).
También, de acuerdo con el § 322, podemos afirmar:
Si nos dan un sistema de vectores y escribimos la matriz que tiene como
vectores columna los vectores que forman el sistema, entonces el sistema
es libre si la matriz tiene rango igual al número de vectores, y es ligado si
tal rango es menor que el número de vectores.
Un ejemplo
330
Para practicar, estudiemos según los valores de los parámetros a
y b si es libre o ligado el sistema S = (1, 1, 0, 1), (−1, 0, 1, −2), (0, a, b, 1) .
Formamos la matriz cuyos vectores columna son los vectores del sistema, y la escalonamos para calcular su rango:
⎛
⎞
⎛
⎛
⎞
1 −1 0
1 −1 0
1
F
←F
−F
F
←F
−F
2
2
1
3
3
2
⎜
⎟
⎜
⎜
⎟
⎜1
⎟ F4 ←F4 −F1 ⎜ 0
⎟ F4 ←F4 +F2 ⎜ 0
0
a
1
a
⎜
⎟ →
⎟ →
⎜
⎜
⎜0
⎜0
⎜0
1 b⎟
1 b⎟
⎝
⎠
⎝
⎝
⎠
1 −2 1
0
0 −1 1
−1
1
0
0
⎞
0
⎟
a ⎟
⎟.
b−a⎟
⎠
a+1
Si a + 1 = 0, la última fila de la matriz recién obtenida es nula, y vemos
que esta matriz presenta un tercer pivote precisamente si b−a ≠ 0; es decir:
si a = b = −1, hay dos pivotes; si a = −1 y b ≠ −1, hay tres.
¿Y si a ≠ −1? Seguimos escalonando (lo primero, intercambiando las
filas tercera y cuarta):
⎛
⎛
⎞
1 −1
0
1
⎜
⎜
⎟
⎜0
⎟ F3 ↔F4 ⎜ 0
1
a
⎜
⎟ →
⎜
⎜0
⎜0
0 b − a⎟
⎝
⎝
⎠
0
0 a+1
0
−1
1
0
0
⎛
⎞
0
1
⎜
⎟
b−a
F4 ←F4 − a+1 F3 ⎜ 0
a ⎟
⎟ →
⎜
⎜0
a+1⎟
⎝
⎠
0
b−a
−1
1
0
0
⎞
0
⎟
a ⎟
⎟,
a + 1⎟
⎠
0
III. VECTORES
lo que nos lleva a una matriz escalonada con tres pivotes, y ello independientemente del valor de b. Esto es: si a ≠ −1, hay tres pivotes cualquiera
que sea b.
Cuando el número de pivotes coincide con el de vectores, el sistema que
estos forman es libre; cuando es menor, el sistema es ligado. En resumen:
• si a = b = −1, el sistema S es ligado;
• si a = −1 y b ≠ −1, o si a ≠ −1 (y b es cualquier número), el sistema S
es libre.
Otro ejemplo: el sistema
formado por los vectores
columna de una matriz
identidad es libre
331
En el § 307 (cf. p. 278) hablamos de los vectores columna de la
matriz identidad In . El sistema que estos vectores forman es el siguiente:
(1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0, . . . , 1) .
Como la propia matriz In tiene rango igual a n, este sistema es libre (§ 329).
Lo enfatizamos: los vectores columna de la matriz identidad son linealmente independientes.
Por ejemplo, para n = 2 el sistema formado por los vectores columna
de la matriz identidad I2 toma la forma: (1, 0), (0, 1) ; para n = 3, el de
los vectores columna de la matriz I3 es (1, 0, 0), (0, 1, 0), (0, 0, 1) . Se trata,
entonces, de sistemas libres.
Sistemas de un solo vector
332
¿Se puede hablar de sistemas formados por un solo vector? Desde
luego; por ejemplo: (0, 0) , o (1, 9, −3, 0) .
Se verifica que un sistema formado por un solo vector es ligado o libre
según sea tal vector nulo o no, respectivamente (§ 324). Más en concreto:
un sistema formado por un solo vector: v , es ligado si v = 0, y es libre
si v ≠ 0. El sistema (0, 0) es ligado, y el sistema (1, 9, −3, 0) es libre.
Nótese que el resultado del § 329 —el cual relaciona el que un sistema de
vectores sea libre o ligado con el rango de la matriz cuyos vectores columna
son los vectores del sistema— es válido también para sistemas con un solo
vector.
Una propiedad: ¿qué ocurre
cuando adjuntamos un vector
a un sistema libre?
Nótese que si a un sistema de
vectores (libre o ligado) se le
adjunta un vector que sí es
combinación lineal de los vectores del sistema, entonces el
nuevo sistema es ligado.
333
Si a un sistema de vectores que es libre le adjuntamos un vector que
no es igual a una combinación lineal de los vectores del sistema, entonces el
sistema nuevo también es un sistema libre. En símbolos: si v 1 , v 2 , . . . , v k
es un sistema libre de vectores (de Rn ) y w es un vector (también de Rn ) que
no es igual a una combinación lineal de los vectores v 1 , v 2 , . . . , v k , entonces
el sistema w, v 1 , v 2 , . . . , v k es a su vez libre.
Para comprobarlo, escribamos una combinación lineal de los vectores w,
v 1 , v 2 , . . . , v k igualada al vector nulo, y veamos que los coeficientes de la
III.3. INDEPENDENCIA LINEAL
combinación lineal son necesariamente iguales a 0 (§ 322). Escribimos entonces:
βw + α1 v 1 + α2 v 2 + · · · + αk v k = 0.
(8)
Observemos que si β fuera distinto de 0, podríamos escribir que w es igual
a −(1/β)(α1 v 1 + α2 v 2 + · · · + αk v k ), lo que sería afirmar que w es igual
a alguna combinación lineal de v 1 , v 2 , . . . , v k , en contra de lo supuesto. La
igualdad (8) toma entonces la forma: α1 v 1 + α2 v 2 + · · · + αk v k = 0, pero de
aquí se deduce que α1 = α2 = . . . = αk = 0, pues los vectores α1 , α2 , . . . , αk
mismos ya son linealmente independientes.
Por ejemplo, el sistema (1, 0, 1), (2, 0, −1) es libre (ninguno de sus vectores es múltiplo del otro), y el vector (0, 1, 0) no es igual a una combinación
Animamos al lector a comprobarlo directamente.
Manipulaciones en un sistema
de vectores
lineal de sus vectores (cualquier combinación lineal de ellos no dejará de
tener nula su segunda componente): el sistema (1, 0, 1), (2, 0, −1), (0, 1, 0)
también es libre.
334
Dado un sistema de vectores, estamos interesados (al menos para
fines teóricos) en llevar a cabo ciertas “manipulaciones” entre los vectores
que lo forman. En concreto: intercambiar dos vectores, multiplicar un vector
por un número no nulo, y sumar a un vector un múltiplo de otro.
Por ejemplo, partiendo de un sistema de vectores como v 1 , v 2 , v 3 ,
hablamos de obtener sistemas de vectores como v 3 , v 2 , v 1 (intercambio
de vectores), o v 1 , 4v 2 , v 3 (producto de un vector por un número no nulo),
o v 1 , v 2 , v 3 + 2v 1 (suma a un vector de un múltiplo de otro).
Aplicar cualquiera de estas manipulaciones a un sistema de vectores nos
lleva a otro sistema del mismo tipo que el de partida: si el primero es ligado,
el segundo también; si el primero es libre, el segundo también.
Dado un sistema de vectores, si nos fijamos con
cuidado en la matriz cuyos vectores columna son los
mente, la suma a un vector de un múltiplo de otro toma
la forma de la suma a una columna de la matriz de un
vectores del sistema, vemos que las manipulaciones
múltiplo de otra. En resumen: las tres manipulaciones
que hagamos con los vectores tienen un correlato in-
de los vectores de un sistema en las que nos estamos
mediato como transformaciones entre las columnas de
fijando se corresponden con transformaciones elemen-
la matriz. En concreto: un intercambio de dos vecto-
tales por columnas (cf. § 212, p. 199) en la matriz que
res del sistema se traduce en un intercambio de dos
tiene como vectores columna los vectores del sistema.
columnas de la matriz; el producto de un vector por un
Como las transformaciones elementales por columnas
número no nulo se corresponde con el producto de una
conservan el rango (cf. § 218, p. 203), se sigue el resul-
columna de la matriz por el número no nulo; y, final-
tado aplicando la propiedad vista en el § 329.
III. VECTORES
Sistema de generadores
335
También resulta cómodo hablar de los generadores de un subes-
pacio vectorial (cf. § 299, p. 274) como vectores de un sistema. Dados un
subespacio vectorial y un sistema de vectores, diremos que el sistema es
un sistema de generadores del subespacio vectorial si los vectores que lo
forman generan el subespacio vectorial.
Si S = v 1 , v 2 , . . . , v k , tam bién pondremos L S para de
signar L v 1 , v 2 , . . . , v k .
En símbolos: si F es un subespacio vectorial de Rn , diremos que un sis
tema de vectores v 1 , v 2 , . . . , v k es un sistema de generadores del subespacio vectorial F si los vectores v 1 , v 2 , . . . , v k son unos generadores de F ,
es decir, si L v 1 , v 2 , . . . , v k = F .
Si recordamos los ejemplos de generadores que hemos visto hasta ahora,
tenemos inmediatamente ejemplos de sistemas de generadores. Así, pode
mos decir que el sistema (1, −1, 2), (2, 0, 4) es un sistema de generadores
!
"
del subespacio vectorial (x1 , x2 , x3 ) ∈ R3 ! x3 − 2x1 = 0 (véase el citado
§ 299). Asimismo (cf. § 305, p. 277), el sistema (1, 1, 0), (2, 0, 1), (3, 1, 0) es
un sistema de generadores de R3 . A su vez, el sistema (2, 1), (4, 2), (−2, 5)
es de generadores de R2 (cf. § 308, p. 278), y también lo son los siste
mas (4, 2), (−2, 5) y (2, 1)(−2, 5) (cf. § 309, p. 278).
Un último ejemplo: de acuerdo con lo que vimos en el § 307 (cf. p. 278),
el sistema formado por los vectores columna de la matriz identidad In :
(1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0, . . . , 1) ,
es un sistema de generadores de Rn .
Una propiedad de los
sistemas de generadores
336
Dado un sistema de generadores de un subespacio vectorial, pode-
mos ejecutar en él alguna de las manipulaciones que llevábamos a cabo en
el § 334: intercambiar dos vectores, multiplicar un vector por un número
no nulo, y sumar a un vector un múltiplo de otro. Al hacerlo, el nuevo sistema obtenido es también un sistema de generadores del mismo subespacio
vectorial.
Consideremos un sistema de vectores S, y denotemos por T el sistema que se obtiene al ejecutar en el
sistema S alguna de las manipulaciones citadas. Que remos comprobar que L S = L T .
Un vector v pertenece al subespacio L S precisamente si admite solución el sistema de ecuaciones li-
vector columna el vector v (cf. § 277, p. 255).
De
la misma manera, el vector v pertenece al subespa cio L T precisamente si admite solución el sistema
de ecuaciones lineales cuya matriz de coeficientes es
la que tiene por vectores columna los vectores de T , y
cuya matriz de términos independientes es la que tiene
neales cuya matriz de coeficientes es la que tiene por
como vector columna el vector v. Si nos fijamos bien en
vectores columna los vectores del sistema S, y cuya matriz de términos independientes es la que tiene como
de la otra mediante la aplicación de alguna transfor-
ambas matrices de coeficientes, una se puede obtener
III.3. INDEPENDENCIA LINEAL
talles sobre este punto en la demostración vista en el
valente a afirmar que v es un elemento de L T . En
definitiva: L S = L T .
§ 334). Las matrices de coeficientes de los dos sistemas
de ecuaciones lineales descritos tienen, pues, el mismo
Nota bene
mación elemental por columnas (recuérdense los de-
rango, y lo mismo acontece con sus matrices ampliadas. Que uno de los sistemas de ecuaciones lineales
tenga solución es tanto como afirmar que la tiene el
otro. Así, afirmar que v es un elemento de L S es equi-
Los dos sistemas de ecuaciones lineales
descritos no son necesariamente equivalentes (una
solución de uno no tiene por qué serlo del otro),
pero sí son del mismo tipo en lo que a su discusión
se refiere.
2. Bases y dimensión de un subespacio vectorial
Este apartado presenta las bases de un espacio vectorial y define el concepto
de dimensión. Con este último se formaliza en cierta manera la idea de cuán
grande es un subespacio vectorial.
Bases
Base
337
En las páginas anteriores, hemos hablado de dos tipos de sistemas
de vectores que tienen propiedades muy interesantes: los sistemas de generadores y los sistemas libres. Ahora estudiamos los sistemas de vectores
que cumplen a la vez ambos requisitos.
Una base de un subespacio vectorial es un sistema de vectores tal que
los vectores que lo forman generan el subespacio vectorial y además son
linealmente independientes. En símbolos: si F es un subespacio vectorial
de Rn , y B = v 1 , v 2 , . . . , v k es un sistema de vectores de F , diremos que el
O bien: L B = F .
sistema B es una base del subespacio vectorial F si B cumple estos dos re
quisitos: es un sistema de generadores de F (es decir: L v 1 , v 2 , . . . , v k = F),
y es libre (o lo que es lo mismo: los vectores v 1 , v 2 , . . . , v k son linealmente
independientes).
Por ejemplo, el sistema (4, 2), (−2, 5) es una base de R2 : es un sistema
de generadores de R2 (§ 335), y es un sistema libre (tiene dos vectores y
ninguno es múltiplo del otro).
Unos ejemplos
En el § 299 (cf. p. 274), vimos que los vectores (1, −1, 2) y (2, 0, 4)
!
"
generan el subespacio vectorial (x1 , x2 , x3 ) ∈ R3 ! x3 − 2x1 = 0 , que va338
mos a denotar por F . Como tales vectores son linealmente independientes (son dos, y ninguno es múltiplo del otro), podemos decir que el sis
tema (1, −1, 2), (2, 0, 4) es una base del subespacio vectorial F .
También, esta vez en el § 300 (cf. p. 274), comprobamos que el subes!
"
(x, y, z) ∈ R3 ! x − y + z = 0 y x + z = 0 está generado
pacio vectorial
III. VECTORES
por el vector (−1, 0, 1). Como este vector es no nulo, el sistema (−1, 0, 1)
es libre (§ 332), y resulta ser entonces una base del subespacio vectorial.
Bases de Rn
339
Nos dan un subespacio vectorial de Rn y un sistema de vectores del
subespacio vectorial. ¿Cómo podemos determinar, de una forma razonablemente sencilla, si el sistema de vectores dado es una base del subespacio
vectorial? Damos aquí una respuesta cuando el subespacio vectorial es el
mismo Rn .
En primer lugar, el sistema de vectores que nos han dado debe ser un
sistema de generadores de Rn . Sabemos que una condición necesaria y
suficiente para que unos vectores de Rn generen Rn es que la matriz que
los tiene como vectores columna tenga rango igual a n (cf. § 306, p. 277).
En segundo lugar, el sistema de vectores debe ser libre, y un sistema de
vectores es libre si la matriz cuyos vectores columna son los vectores del
sistema tiene rango igual al número de vectores (§ 329).
Aunando ambas condiciones, podemos afirmar:
Una condición necesaria y suficiente para un sistema de vectores de Rn
sea una base de Rn es que esté formado por n vectores tales que el rango
de la matriz que los tiene como vectores columna sea igual a n.
Un ejemplo
340
¿Es el sistema de vectores S = (0, 1, 1), (2, 0, 0), (0, −1, 0) una base
de R3 ?
De acuerdo con lo afirmado en el § 339, formemos la matriz cuyos vectores columna son los vectores del sistema S y calculemos su rango. Nos
queda:
⎛
0
⎜
⎝1
1
2
0
0
⎞
⎛
0
1
⎟ F1 ↔F2 ⎜
−1 ⎠ →
⎝0
0
1
0
2
0
⎛
⎞
1
−1
⎟ F3 ←F3 −F1 ⎜
0 ⎠ →
⎝0
0
0
0
2
0
⎞
−1
⎟
0⎠.
1
Como la matriz escalonada obtenida tiene tres pivotes, el rango de la matriz
original es igual a 3, y el sistema de vectores S es una base de R3 .
Otro ejemplo
¿Para qué valores del parámetro a es una base de R2 el sistema de
vectores (1, a), (a, 1) ?
341
De nuevo, formamos la matriz que tiene como vectores columna los del
sistema, y la escalonamos:
1
a
a
1
F2 ←F2 −aF1
→
1
0
a
1 − a2
.
III.3. INDEPENDENCIA LINEAL
La matriz escalonada obtenida tiene al menos un pivote, y tiene un segundo
1 − a2 = (1 + a)(1 − a)
precisamente si 1 − a2 ≠ 0. Como la ecuación 1 − a2 = 0 tiene dos soluciones: a = 1 y a = −1, deducimos que la matriz original tiene rango igual
a 2 —lo que hace que el sistema de vectores dado sea una base (§ 339)—
si a ≠ 1 y a ≠ −1, y tiene rango igual a 1 —lo que hace a su vez que el
sistema no sea una base— si a = 1 o a = −1.
En resumen:
• si a ≠ 1 y a ≠ −1, el sistema (1, a), (a, 1) es una base de R2 ;
• si a = 1 o a = −1, el sistema (1, a), (a, 1) no es una base de R2 .
Coordenadas de un vector en
una base
342
¿Qué tiene de peculiar una base de un subespacio vectorial? Como
los vectores que forman la base generan el subespacio vectorial, cada vector
de este se puede escribir como una combinación lineal de tales vectores;
pero hay más: como estos vectores de la base son linealmente independientes, la combinación lineal es única (§ 325). Los coeficientes de esta única
combinación lineal son las llamadas coordenadas del vector en la base.
En símbolos es así. Nos dan una base B = v 1 , v 2 , . . . , v k de un subespacio vectorial F de Rn . Si v es un vector de F , entonces existen unos únicos
números α1 , α2 , . . . , αk tales que v = α1 v 1 + α2 v 2 + · · · + αk v k . Diremos
que estos números α1 , α2 , . . . , αk (en este orden) son las coordenadas del
vector v en la base B.
Por ejemplo, dada la base (4, 2), (−2, 5) de R2 , las coordenadas del
vector (6, 9) en esta base son los números 2 y 1 (en este orden), pues podemos escribir: (6, 9) = 2(4, 2) + 1(−2, 5). Al ser los vectores (4, 2) y (−2, 5)
linealmente independientes, no hay otros coeficientes para expresar el vector (6, 9) como combinación lineal de ellos.
Nota bene
Es importante el orden en que se escriben las coordenadas de un
vector en una base. Por ejemplo, en la base (4, 2), (−2, 5) , el vector de coordenadas 1 y 2 sería (0, 12) —pues (0, 12) = 1(4, 2) + 2(−2, 5)—, distinto del de
coordenadas 2 y 1, que es (6, 9).
Y ¿cuál es el vector de coordenadas −1 y 1 en la base (4, 2), (−2, 5) ? El
que se obtiene como una combinación lineal de los vectores (4, 2) y (−2, 5)
con los coeficientes −1 y 1, respectivamente; esto es:
(−1)(4, 2) + 1(−2, 5) = (−6, 3).
Nota bene
No debe el lector confundir componentes con coordenadas. Las com-
ponentes de un vector están definidas ajenas a cualquier base, y las coorde
nadas requieren haber fijado una previamente.
III. VECTORES
Un ejemplo
Sabemos que el sistema (1, −1, 2), (2, 0, 4) es una base del subes!
"
pacio vectorial F = (x1 , x2 , x3 ) ∈ R3 ! x3 − 2x1 = 0 (§ 338). Si nos fija-
Para el vector (−1, −1, −2), la
ecuación x3 − 2x1 = 0 toma la
forma: (−2) − 2(−1) = 0.
plen la ecuación que determina este subespacio. ¿Cuáles son las coorde
nadas de este vector en la base (1, −1, 2), (2, 0, 4) ?
343
mos, el vector (−1, −1, −2) es un vector de F , pues sus componentes cum-
Las coordenadas que buscamos son dos números (reales) α1 y α2 tales
que (−1, −1, −2) = α1 (1, −1, 2) + α2 (2, 0, 4). Podemos encontrarlos planteando el sistema de ecuaciones lineales cuya matriz ampliada tiene por
vectores columna los vectores (1, −1, 2), (2, 0, 4) y (−1, −1, −2) (cf. § 277,
p. 255): este sistema tendrá solución única, y esta solución única nos dará
las coordenadas buscadas α1 y α2 . Escribimos y escalonamos la matriz ampliada descrita:
⎛
1
⎜
⎝ −1
2
2
0
4
⎛
⎞
F2 ←F2 +F1
−1
1
⎟ F3 ←F3 −2F1 ⎜
−1 ⎠ →
⎝ 0
−2
0
2
2
0
⎞
−1
⎟
−2 ⎠ ,
0
y seguimos hasta la forma escalonada reducida:
⎛
⎛
⎞
⎞
⎛
1 2 −1
1 2 −1
1
1
⎟ F2 ← 2 F2 ⎜
⎟ F1 ←F1 −2F2 ⎜
⎜
⎝ 0 1 −1 ⎠ →
⎝0
⎝ 0 2 −2 ⎠ →
0
0
0 0
0 0
0
0
1
0
⎞
1
⎟
−1 ⎠ .
0
La solución del sistema de ecuaciones lineales correspondiente se puede leer
Confirmamos:
(−1, −1, −2)
= 1(1, −1, 2) − 1(2, 0, 4).
Otro ejemplo
¿Lo ve el lector?
en la última columna: el par ordenado (1, −1) (recuérdese que el sistema es
de dos incógnitas), con lo que α1 = 1 y α2 = −1. Las coordenadas del
vector (−1, −1, −2) en la base (1, −1, 2), (2, 0, 4) son, pues, 1 y −1.
!
"
344
Para (x, y, z) ∈ R3 ! x − y + z = 0 y x + z = 0 , subespacio vec
torial de R3 , una base es el sistema (−1, 0, 1) (§ 338). El vector (2, 0, −2)
pertenece a este subespacio, pues satisface las dos ecuaciones que lo deter
minan. ¿Cuáles son las coordenadas de este vector en la base (−1, 0, 1) ?
Como la base solo tiene un vector, se trata de una única coordenada: el
número α tal que (2, 0, −2) = α(−1, 0, 1); claramente: α = −2.
Nótese que cualquier vector del subespacio vectorial anterior es igual
a λ(−1, 0, 1) para algún número λ, de forma que este factor λ es justamente
la coordenada del vector en la base (−1, 0, 1) .
Base canónica de R2
345
El sistema (1, 0), (0, 1) , formado por los vectores columna de la
matriz identidad I2 , es una base de R2 , pues es un sistema de generadores
de R2 (§ 335) y es un sistema libre (§ 331). Esta base es especialmente importante: se denomina base canónica de R2 . La denotaremos por BC ; es
decir: BC = (1, 0), (0, 1) .
III.3. INDEPENDENCIA LINEAL
Si nos dan un vector (a, b) de R2 , ¿cuáles son las coordenadas de este
vector en la base BC ? Veamos; podemos escribir:
(a, b) = (a, 0) + (0, b) = a(1, 0) + b(0, 1),
lo que expresa el vector (a, b) como una combinación lineal de los vectores (1, 0) y (0, 1). Los coeficientes de esta combinación lineal son a y b,
en este orden, luego estos dos números son las coordenadas buscadas. Las
coordenadas del vector (a, b) en la base canónica de R2 son, pues, a y b.
Por ejemplo, las coordenadas del vector (6, 9) en la base canónica BC
son 6 y 9. Como vimos en el § 342, en la base (4, 2), (−2, 5) (también
de R2 ), este vector tiene otras coordenadas —en concreto: 2 y 1—. En general, las coordenadas de un mismo vector no nulo en dos bases distintas
son números distintos. El vector nulo, sin embargo, tiene las mismas coordenadas en cualquier base: todas iguales a 0.
Si nos fijamos, las coordenadas del vector (a, b) en la base canónica BC
coinciden justamente con sus componentes. La base canónica es tal que las
coordenadas en ella de cualquier vector son precisamente las componentes
del vector.
Base canónica de Rn
346
Más en general, se define la base canónica de Rn , que también se
denota por BC , como el sistema de vectores formado por los vectores columna de la matriz identidad In :
BC = (1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0, . . . , 1) .
Se trata efectivamente de una base de Rn porque es un sistema de generadores de Rn (§ 335) y es un sistema libre (§ 331).
Como acontecía con la base canónica de R2 (§ 345), las coordenadas
de un vector de Rn en la base canónica coinciden con sus componentes.
Si a1 , a2 , . . . , an es un vector de Rn , entonces podemos escribir:
(a1 , a2 , . . . , an ) = a1 (1, 0, . . . , 0) + a2 (0, 1, . . . , 0) + · · · + an (0, 0, . . . , 1),
lo que confirma lo afirmado.
Nota bene
Se hace uso de la misma notación: BC , para cualquier base canónica
(para la de R2 , y en general para la de Rn ). La experiencia muestra que ello no
da lugar a confusión con solo un poquito de atención.
Las coordenadas de un vector en la base canónica son precisamente sus
componentes.
III. VECTORES
347
Una propiedad
Las bases tienen una propiedad importante: el número de vectores
que figura en una base de un subespacio vectorial es el máximo múmero de
vectores linealmente independientes que hay en el subespacio vectorial.
Más en concreto: dado un subespacio vectorial F de Rn , si hay una base
de F formada por k vectores, entonces cualquier sistema de vectores de F
que tenga más de k vectores es ligado. Ello establece, entonces, que en un
subespacio vectorial no puede haber una cantidad de vectores linealmente
independientes mayor que el número de vectores de una base.
Pongamos que B = v 1 , v 2 , . . . , v k es una base del
subespacio vectorial F . Consideremos un sistema de
vectores S = u1 , u2 , . . . , u s , todos vectores de F y en
cantidad mayor que la cantidad de vectores de B: s > k.
Veamos que el sistema S es ligado. Para ello, estudiemos la igualdad vectorial
α1 u1 + α2 u2 + · · · + αs us = 0;
(9)
si podemos encontrar algunos números α1 , α2 , . . . , αs ,
no todos nulos, que la verifiquen, entonces habremos
probado que el sistema S es ligado.
Si fijamos un número natural i tal que 1 i s,
cada vector ui es un elemento de F , y B es una base
de F ; denotemos por βi 1 , βi2 , . . . , βik las coordenadas
del vector ui en la base B:
ui = βi 1 v 1 + βi2 v 2 + · · · + βik v k =
k
βij v j .
j=1
Sustituyendo en (9), obtenemos:
α1
k
k
k
β1j v j + α2
β2j v j + · · · + αs
βsj v j = 0,
j=1
j=1
o bien:
s k
j=1
k
i=1 j=1
αi βij v j =
k
s
j=1 i=1
s
s
s
αi βi1 v 1 +
αi βi2 v 2 + · · · +
αi βik v k = 0.
i=1
i=1
i=1
Ahora bien, los vectores v 1 , v 2 , . . . , v k son linealmente
independientes (pues forman base), luego de la última
igualdad vectorial obtenida se deduce:
s
i=1
αi βi1 = 0,
s
αi βi2 = 0,
i=1
...,
s
αi βik = 0.
i=1
Estas k igualdades, escritas desarrolladas, toman la
forma de un sistema de k ecuaciones lineales en las s
incógnitas α1 , α2 , . . . , αs , el cual es homogéneo:
⎧
α1 β11 + α2 β21 + · · · + αs βs1 = 0
⎪
⎪
⎪
⎪
⎪
⎪
⎨ α1 β12 + α2 β22 + · · · + αs βs2 = 0
⎪
....................................
⎪
⎪
⎪
⎪
⎪
⎩ α1 β1k + α2 β2k + · · · + αs βsk = 0.
Como s > k, este sistema homogéneo tiene más incógnitas que ecuaciones, así que es compatible indeterminado (cf. § 96, p. 99); ello implica que admite soluciones distintas de la nula. Cualquiera de estas (insisti-
αi βij v j = 0; pero:
mos: distinta de la nula) nos proporciona una colec-
i=1 j=1
s
con lo que podemos decir que (9) toma la forma:
αi βij v j =
k s
j=1 i=1
αi βij v j ,
ción de números α1 , α2 , . . . , αs , no todos nulos, que verifica (9). El sistema de vectores S es, pues, ligado.
En el caso particular de Rn , conocemos al menos una base: la canónica, la
cual tiene n vectores (§ 346). El resultado anterior nos dice que el número
máximo de vectores linealmente independientes en Rn es n. Es decir, si
en Rn tenemos un sistema con más de n vectores, tal sistema es ligado.
III.3. INDEPENDENCIA LINEAL
Todas las bases de un mismo
subespacio vectorial (si las
hay) tienen idéntico número
de vectores
348
Vemos ahora una consecuencia importantísima del resultado pro-
bado en el § 347: dado un subespacio vectorial (de Rn ), todas las bases que
tenga presentan el mismo número de vectores.
¿Cómo se deduce lo afirmado? Bueno, si tenemos dos bases de un mismo
subespacio vectorial de Rn , una de k vectores y la otra de k vectores, aplicando a la primera base el resultado citado deducimos que no puede haber
sistemas libres de más de k vectores: como la segunda base es un sistema
libre, esto nos dice que k k; pero aplicando el resultado a la segunda
base, de la misma manera deducimos que k k . En definitiva: k = k , y
ambas bases tienen el mismo número de vectores.
El subespacio vectorial {0} no
admite base; cualquier otro, sí
349
Antes de seguir, nos planteamos esta pregunta: ¿todos los subes-
pacios vectoriales de Rn admiten alguna base? La respuesta es que admiten
base todos menos uno: el subespacio vectorial cuyo único elemento es el
vector nulo, es decir: {0}.
El subespacio vectorial {0} no admite base porque no hay manera de
formar un sistema libre con su único vector: todo sistema de vectores de {0}
estará formado por el vector 0, acaso repetido.
¿Y un subespacio vectorial de Rn distinto del subespacio vectorial {0}?
Un subespacio vectorial así sí admite alguna base.
Denotemos por F un subespacio vectorial de Rn
están en L v 1 , v 2 (lo que es decir que no son combi-
distinto de {0}.
nación lineal de los vectores v 1 y v 2 ), empezamos de
El subespacio vectorial F admite algún vector no
nulo, pongamos v 1 . Si ocurre que L v 1 = F , enton ces el sistema v 1 es una base de F y hemos termi nado. Por el contrario, si L v 1 es distinto de F , enton-
nuevo: cogemos uno de tales vectores, pongamos v 3 , y
formamos el sistema v 1 , v 2 , v 3 , que resultará ser un
ces hay algún vector en F , pongamos v 2 , que no está
en L v 1 , es decir, que no es igual a una combinación
lineal de v 1 ; esto último hace que el sistema v 1 , v 2
sea libre (§ 333). Ahora, si L v 1 , v 2 = F , ya tenemos
con el sistema v 1 , v 2 una base de F y hemos termi-
tema libre de vectores de F , y en definitiva de vectores linealmente independientes (§ 347), en algún momento terminaremos: llegaremos a un sistema de vec
tores v 1 , v 2 , . . . , v k , formado por k vectores de F ,
nado. Pero si no, es decir, si hay vectores de F que no
con k n, que será una base de F .
sistema libre (de nuevo, § 333).
A cada paso del proceso descrito, formamos un sisres de Rn . Como en Rn hay un máximo de n vecto-
Dimensión
Dimensión
350
Si un subespacio vectorial admite base —lo que es tanto como decir
que es distinto de {0} (§ 349)—, sabemos que todas sus bases tienen el
mismo número de vectores (§ 348). A este número se le llama dimensión del
III. VECTORES
subespacio vectorial. En símbolos: dado un subespacio vectorial F de Rn ,
distinto de {0}: F ≠ {0}, se denomina dimensión del subespacio vectorial al
número de vectores que tiene cualquiera de sus bases. Se denota: dim F .
Por ejemplo, el mismo Rn tiene dimensión igual a n, pues tenemos
noticia de una base suya con n vectores —la canónica (§ 346)—. Escribimos: dim Rn = n.
Otro ejemplo: sabemos que el sistema (1, −1, 2), (2, 0, 4) es una base
!
"
del subespacio vectorial F = (x1 , x2 , x3 ) ∈ R3 ! x3 − 2x1 = 0 (§ 338); ello
nos dice que este subespacio vectorial tiene dimensión igual a 2: dim F = 2.
Y otro ejemplo más: también conocemos una base del subespacio vec!
"
(x, y, z) ∈ R3 ! x − y + z = 0 y x + z = 0 : el sistema (−1, 0, 1)
torial
(de nuevo, § 338). La dimensión de este subespacio vectorial es, pues, igual
!
"
a 1; esto es: dim (x, y, z) ∈ R3 ! x − y + z = 0 y x + z = 0 = 1.
Por otra parte, el subespacio vectorial {0} —como hemos recordado— no
admite base, pero también se define para él una dimensión. En concreto, diremos que el subespacio vectorial {0} es de dimensión nula, o de dimensión
igual a 0, y escribiremos: dim{0} = 0. Por ejemplo: dim{(0, 0, 0)} = 0.
Dimensión de una recta y
dimensión de un plano
Cf. § 332, p. 292.
351
Recordemos que una recta es un subespacio vectorial generado por
un vector no nulo (cf. § 302, p. 275). Como un vector no nulo forma un
sistema de vectores que es libre, una recta admite una base formada por un
solo vector. La dimensión de una recta es, pues, igual a 1.
De la misma manera, un plano es un subespacio vectorial generado por
dos vectores no nulos tales que ninguno de ellos es múltiplo del otro. Dos
Cf. § 320, p. 286.
vectores así son linealmente independientes, luego un plano admite una
base formada por dos vectores, y por ende su dimensión es igual a 2.
Vemos así que las rectas son los subespacios vectoriales de dimensión
igual 1, y los planos son los subespacios vectoriales de dimensión igual a 2.
Una primera observación
352
Afirmar que un subespacio vectorial F de Rn tiene dimensión igual
a p: dim F = p, implica afirmar que el número máximo de vectores linealmente independientes de F es justamente p, de forma que un sistema de
vectores de F que tenga más de p vectores es ligado.
Si p = 0, la afirmación es obvia: el máximo número de vectores linealmente independientes del subespacio {0} es justamente 0. Si p 1, entonces el subespacio vectorial F admite base (§ 349) y todas sus bases tienen p
vectores; pero el número de vectores de una base es el máximo número de
vectores linealmente independientes (§ 347), luego también se cumple lo
afirmado en este caso.
III.3. INDEPENDENCIA LINEAL
Una propiedad
353
Aparte de lo ya observado en el § 352, tener noticia de la dimensión
de un subespacio vectorial aporta mucha información sobre el subespacio.
Para empezar, si tenemos un sistema de vectores del subespacio vectorial
con tantos vectores como marca la dimensión (siendo esta positiva), aseguramos que el sistema es una base solo con pedirle que sea libre.
Lo vemos en símbolos. Consideremos un subespacio vectorial F de Rn
con dim F = p 1 (obviamos que F pueda ser igual a {0}, § 349). Si tenemos p vectores v 1 , v 2 , . . . , v p de F (esto es, tantos como marca la dimensión
de F ) que son linealmente independientes, entonces el sistema que estos p
vectores forman: v 1 , v 2 , . . . , v p , es una base de F .
Comprobémoslo. Pongamos S = v 1 , v 2 , . . . , v p . Para que el sistema S
sea una base de F , falta asegurar que es un sistema de generadores de F .
Pero lo es. ¿Por qué? Si no lo fuera, habría algún vector de F , pongamos w,
que no sería igual a una combinación lineal de los vectores v 1 , v 2 , . . . , v p ,
pero en tal caso el sistema w, v 1 , v 2 , . . . , v p , que tiene más de p vectores,
sería libre (§ 333). Esto último entraría en contradicción con el hecho de que
la dimensión de F es p, pues no puede haber en F un sistema libre de más
de p vectores (§ 352).
Otra propiedad
354
Más aún: si tenemos un sistema de vectores de un subespacio vecto-
rial, distinto de {0}, con tantos vectores como marca la dimensión, también
podemos concluir que este sistema es una base solo con pedirle que sea un
sistema de generadores.
Escrito más precisamente: si v 1 , v 2 , . . . , v p son p vectores que generan
un subespacio vectorial F de Rn tal que dim F = p 1 (con lo que F ≠ {0}),
entonces el sistema v 1 , v 2 , . . . , v p es una base de F .
Solo resta asegurarse de un detalle: el sistema de
vectores v 1 , v 2 , . . . , v p es libre.
en este proceso de descartar vectores no dejamos de tener sistemas de generadores de F . En algún momento,
Supongamos que no lo es. Entonces alguno de sus
alguno de ellos debe ser libre, pues al ser F distinto
vectores es igual a una combinación lineal de los de-
de {0}, alguno de sus generadores es no nulo. En defini-
más, y puede descartarse de forma que los que quedan
tiva, obtenemos un sistema de generadores de F que
siguen siendo generadores de F (cf. § 319, p. 285). Si
también es un sistema libre, pero con menos de p vec-
el sistema nuevo así formado, con un vector menos
tores; es decir, obtenemos una base de F con menos
—exactamente, con p − 1 vectores—, no es libre, de la
de p vectores. Esto último contradice el hecho de que
misma manera reducimos a un sistema con otro vector
la dimensión de F es igual a p.
menos —exactamente, con p − 2 vectores— que sigue
siendo un sistema de generadores de F . Si nos fijamos,
Debemos admitir, por tanto, que el sistema de vec
tores v 1 , v 2 , . . . , v p es libre.
III. VECTORES
Comparamos la dimensión de
un subespacio con la de Rn
355
La dimensión de un subespacio vectorial de Rn es menor o igual
que la de Rn , es decir, menor o igual que n. Y ambas dimensiones coinciden
solo si el subespacio vectorial es el mismo Rn ; en otras palabras: el único
subespacio vectorial de Rn con dimensión igual a n es el mismo Rn .
Lo escribimos en símbolos: si F es un subespacio vectorial de Rn , enton-
La negación de un enunciado
del tipo “si P , entonces Q” es
el enunciado “si no se verifica Q, entonces no se verifica P ”, donde P y Q son afirmaciones.
ces dim F dim Rn , o bien: dim F n. Y si dim F = n, entonces F = Rn ;
dicho de otra forma: si F ≠ Rn , entonces dim F < n.
Si F = {0}, es claro que lo afirmado se cumple: dim F = dim{0} = 0 < n.
Por el contrario, si F es un subespacio vectorial de Rn distinto de {0}, la afirmación que queremos probar está realmente justificada en la demostración
desarrollada en el § 349: en tal demostración, vimos que un subespacio vectorial F de este tipo admite una base con una cantidad de vectores menor o
igual que n; esto es lo mismo que afirmar que dim F n.
Finalmente, solo nos queda comprobar este punto: si dim F = n, entonces F = Rn . Es fácil: si F admite una base formada por n vectores (lo que es
tanto como decir que dim F = n), entonces estos n vectores son en definitiva n vectores de Rn linealmente independientes; como n vectores de Rn linealmente independientes forman una base de Rn (§ 353), concluimos que F
coincide con Rn .
A modo de epílogo del
apartado
356
¿Cómo podemos calcular efectivamente la dimensión de un subes-
pacio vectorial dado? En principio, solo tenemos una forma: calculamos
una base del subespacio (si la tiene —si no, se trata del subespacio {0}, que
tiene dimensión nula—), y contamos los vectores de la base.
A continuación, veremos una manera de calcular la dimensión de un
subespacio vectorial cuando conocemos de este un sistema de generadores
(no necesariamente una base). Y más adelante podremos efectuar el cálculo
de la dimensión para un subespacio vectorial que sea igual al conjunto de
soluciones de un sistema de ecuaciones lineales homogéneo.
3. Rango de unos vectores
Vemos ahora el concepto de rango de unos vectores, que da cuenta de cuántos vectores, entre unos dados, son linealmente independientes.
Definición
Rango de unos vectores
357
Dados unos vectores, o dado un sistema de vectores, su rango es
el número máximo de vectores linealmente independientes que hay entre
ellos. Más en concreto, dados unos vectores v 1 , v 2 , . . . , v k (todos de Rn ),
III.3. INDEPENDENCIA LINEAL
o dado un sistema de vectores v 1 , v 2 , . . . , v k , afirmar que su rango es
igual a p (donde p es un número natural) significa afirmar que entre los
En particular, dados unos vectores cuyo rango es igual a p,
si entre ellos escogemos más
de p, los escogidos son linealmente dependientes.
Los vectores (2, 1) y (−2, 5)
no son uno múltiplo del otro,
y lo mismo ocurre con (4, 2)
y (−2, 5).
vectores v 1 , v 2 , . . . , v k hay p vectores linealmente independientes, pero no
más de p. Si el rango de los vectores v 1 , v 2 , . . . , v k es igual a p, escribire
mos: rango v 1 , v 2 , . . . , v k = p.
Por ejemplo, el rango de los tres vectores (2, 1), (4, 2) y (−2, 5) es igual
a 2, lo que consignamos así: rango (2, 1), (4, 2), (−2, 5) = 2. ¿Por qué?
Porque es posible encontrar entre los tres vectores dos linealmente independientes —nos valen (2, 1) y (−2, 5), o (4, 2) y (−2, 5)—, pero no más de
dos —los tres juntos son linealmente dependientes (§ 314)—.
Notemos también que el rango de unos vectores no varía si alguno de
ellos es nulo y lo descartamos (el número máximo de vectores linealmente
independientes entre ellos no cambia incluyamos o no el vector nulo). Por
ejemplo:
rango (2, 1), (4, 2), (−2, 5), (0, 0) = rango (2, 1), (4, 2), (−2, 5) = 2.
Rango y dimensión
358
Veremos enseguida una forma sencilla de calcular el rango de unos
vectores. Antes debemos estudiar alguna propiedad.
Lo primero de todo es observar lo siguiente: el rango de unos vectores
es igual a la dimensión del subespacio vectorial que los vectores generan.
En símbolos, dados unos vectores v 1 , v 2 , . . . , v k (todos de Rn ), se verifi
ca: rango v 1 , v 2 , . . . , v k = dim L v 1 , v 2 , . . . , v k .
Pongamos que rango v 1 , v 2 , . . . , v k = p. Entonces,
vectores, en contradicción con que más de p vecto-
entre los vectores v 1 , v 2 , . . . , v k hay p linealmente in-
res entre los k originales son linealmente dependien-
dependientes y cualesquiera en cantidad mayor que p
tes. De esta forma, el subespacio vectorial generado
por los p vectores linealmente independientes es el
son linealmente dependientes. Supongamos que los p
primeros vectores son linealmente independientes (es
adecuado): v 1 , v 2 , . . . , v p . Ahora, notemos que cual-
mismo que el generado por todos los k vectores ori
ginales: L v 1 , v 2 , . . . , v p = L v 1 , v 2 , . . . , v k . El sistema
libre v 1 , v 2 , . . . , v p es una base del subespacio vecto-
quiera de los vectores restantes, pongamos v j (con j
rial que genera, luego:
cuestión de colocar los k vectores originales en el orden
tal que p + 1 j k), es combinación lineal de estos p
vectores: de no ser así, el sistema v 1 , v 2 , . . . , v p , v j
sería un sistema libre (cf. § 333, p. 292) de p + 1
Una propiedad
359
rango v 1 , v 2 , . . . , v k = p = dim L v 1 , v 2 , . . . , v p
= dim L v 1 , v 2 , . . . , v k .
El rango de un sistema de vectores no varía si ejecutamos en el
sistema alguna de las manipulaciones que llevábamos a cabo en el § 334
(cf. p. 293): intercambiar dos vectores, multiplicar un vector por un número
no nulo, y sumar a un vector un múltiplo de otro.
III. VECTORES
Esta propiedad es una consecuencia del resultado recién visto en el
§ 358. Si en un sistema de vectores ejecutamos alguna de las manipulaciones comentadas, el nuevo sistema de vectores obtenido genera el mismo
subespacio vectorial que el original (cf. § 336, p. 294); el rango del sistema,
al coincidir con la dimensión de este subespacio vectorial, es entonces el
mismo antes y después de la manipulación.
Relación con el rango de una matriz
360
Cálculo práctico del rango de
unos vectores
¿Cómo podemos calcular, de manera razonablemente sencilla, el
rango de unos vectores? De esta manera: formamos la matriz cuyos vectores columna son los vectores dados; el rango de esta matriz es precisamente
el rango de los vectores. En símbolos: dados unos vectores v 1 , v 2 , . . . , v k
(todos de Rn ), formamos la matriz A que tiene por vectores columna los
vectores v 1 , v 2 , . . . , v k . Entonces: rango v 1 , v 2 , . . . , v k = rango A.
Denotemos por B la matriz, de k filas, cuyos vectores fila son los vectores v 1 , v 2 , . . . , v k , de forma
Ahora bien, ¿cómo son los vectores v 1 , v 2 , . . . , v k ?
Si denotamos por r el rango de la matriz B, la matriz
que B = At (cf. § 269, p. 249).
escalonada B tiene sus últimas k − r filas nulas, luego
Designemos por B una forma escalonada de la mav 1 ,
v 2 ,
los vectores v r +1 , . . . , v k son k − r vectores nulos, y así
para dar cuenta de
el rango de los k vectores originales v 1 , v 2 , . . . , v k coin-
los k vectores fila de B . Fijémonos en este punto: cada
cide realmente con el de los r vectores v 1 , v 2 , . . . , v r
una de las transformaciones elementales por filas que
(§ 357). ¿Y el rango de estos últimos vectores?
se ejecuta para llegar a la matriz B tiene un correlato
matriz que los tiene como vectores columna —la cual
en los vectores fila correspondientes en términos de
es la traspuesta de la matriz resultante de eliminar en
alguna de las manipulaciones recordadas en el § 359
(por ejemplo, a una permutación de filas le corresponde
la matriz B sus k − r últimas filas (las nulas)— tiene
rango igual a r , así que se trata de r vectores lineal-
una permutación de los vectores fila). Esto significa, de
mente independientes (cf. § 322, p. 287). Si r vecto-
acuerdo con el resultado probado en este citado § 359,
res son linealmente independientes, su rango (vecto
rial) es igual a r : rango v 1 , v 2 , . . . , v r = r . En defini
tiva: rango v 1 , v 2 , . . . , v k = r = rango B = rango A.
triz B, y escribamos
...,
v k
que el rango de los vectores v 1 , v 2 , . . . , v k es el mismo
que el de los vectores v 1 , v 2 , . . . , v k .
La
Como el rango de una matriz coincide con el de su traspuesta, y los
vectores columna de una son los vectores fila de la otra, podemos afirmar:
El rango de unos vectores es igual al rango de la matriz que los tiene como
vectores columna, y también es igual al rango de la matriz que los tiene
como vectores fila.
III.3. INDEPENDENCIA LINEAL
Un ejemplo
361
En el § 317 (cf. p. 284), vimos que los vectores (1, 2, 3), (3, 2, 1)
y (4, 4, 4) son linealmente dependientes. ¿Cuál es la dimensión del subespacio vectorial de R3 que generan? Otra forma de preguntar lo mismo (§ 358):
¿cuál es el rango de estos vectores?
De acuerdo con el resultado recién probado en el § 360, el rango de los
tres vectores es igual al de la matriz que los tiene por vectores columna.
En el citado § 317, escribimos tal matriz, y calculamos para ella una forma
escalonada. Ambas matrices, respectivamente, son estas:
⎛
⎞
⎛
⎞
1 3 4
1
3
4
⎜
⎟
⎜
⎟
⎝ 2 2 4 ⎠ y ⎝ 0 −4 −4 ⎠ .
3 1 4
0
0
0
El rango es igual a 2, luego este número es el valor del rango de los vectores (1, 2, 3), (3, 2, 1) y (4, 4, 4), y este número es a su vez la dimensión del
subespacio vectorial que los tres vectores generan:
rango (1, 2, 3), (3, 2, 1), (4, 4, 4) = dim L (1, 2, 3), (3, 2, 1), (4, 4, 4) = 2.
Nota bene
El hecho de que el rango de los vectores sea menor que su cantidad
nos confirma que los vectores son linealmente dependientes.
Otro ejemplo
362
Calculemos, según los valores de los parámetros a y b, la dimensión
del subespacio vectorial de R3 generado por los vectores (0, 1, 2), (1, −1, 3),
(0, 2, a) y (2, b, 1).
Formamos la matriz cuyos vectores columna son los vectores dados, y
la escalonamos. Obtenemos:
⎛
⎞
⎛
0
1 2
1 −1
⎜
⎟
⎜
⎜ 1 −1 1 ⎟ F1 ↔F2 ⎜ 0
1
⎜
⎟ →
⎜
⎜0
⎜0
2 a⎟
2
⎝
⎠
⎝
2
b 1
2
b
¿Ayuda para el último término? Veamos:
−1 − (b + 2) · 2 = −2b − 5.
Nótese que la matriz B no es
necesariamente escalonada.
⎛
⎞
⎞
1 −1
1
1
⎜
⎟
⎟
⎜0
1
2⎟
2⎟
4 −2F1
⎜
⎟
⎟ F4←F
→
⎜0
2
a⎟
a⎟
⎝
⎠
⎠
0 b + 2 −1
1
⎛
⎞
1 −1
1
F3 ←F3 −2F2
⎜
⎟
2 ⎟
0 1
F4 ←F4 −(b+2)F2 ⎜
⎟.
→
⎜
⎜0 0
a− 4⎟
⎝
⎠
0 0 −2b − 5
Con la matriz que hemos obtenido, que denotaremos por B, distingamos
dos casos: a = 4 y a ≠ 4. En el primero: a = 4, la tercera fila de la matriz B
nos queda nula; la permutamos con la cuarta:
⎛
⎛
⎞
1 −1
1
1 −1
⎜
⎜
⎟
⎜0 1
⎟ F3 ↔F4 ⎜ 0 1
2
⎟ →
B=⎜
⎜
⎜0 0
⎜0 0
⎟
0
⎝
⎝
⎠
0 0 −2b − 5
0 0
⎞
1
⎟
⎟
2
⎟.
−2b − 5 ⎟
⎠
0
III. VECTORES
Ahora, si −2b − 5 = 0, o bien, si b = −5/2, entonces solo hay dos pivotes
(los de las dos primeras filas), y el rango es igual a 2; y si −2b − 5 ≠ 0, esto
es, si b ≠ −5/2, entonces hay tres pivotes, y el rango es igual a 3.
En el segundo caso que teníamos para la matriz B: a ≠ 4, podemos seguir
escalonando la matriz de esta manera:
⎛
⎛
⎞
1 −1
1
1 −1
⎜
⎜
⎟
−2b−5
⎜0 1
⎟ F4 ←F4 − a−4 F3 ⎜ 0 1
2
⎟ →
B=⎜
⎜
⎜0 0
⎜0 0
a − 4⎟
⎝
⎝
⎠
0 0
0 0 −2b − 5
⎞
1
⎟
2 ⎟
⎟,
a − 4⎟
⎠
0
y entonces son tres los pivotes (y ello cualquiera que sea b).
En resumen, la dimensión del subespacio vectorial de R3 generado por
los vectores (0, 1, 2), (1, −1, 3), (0, 2, a) y (2, b, 1) verifica:
• es igual a 2 si a = 4 y b = −5/2;
• es igual a 3 en cualquier otro caso, es decir, si a ≠ 4 o si b ≠ −5/2.
Cuadro-resumen
363
De acuerdo con los distintos resultados que hemos ido viendo en
las páginas anteriores, podemos escribir el siguiente cuadro:
Dados unos vectores de Rn , escribimos la matriz que los tiene como vectores columna (o la que los tiene como vectores fila), y calculamos su rango.
Se cumple:
• si el rango es menor que la cantidad de vectores, entonces los vectores son linealmente dependientes;
• si el rango es igual que la cantidad de vectores, entonces los vectores
son linealmente independientes;
• si el rango es menor que el número de componentes de los vectores
(es decir, menor que n), entonces los vectores no son generadores
de Rn ;
• si el rango es igual al número de componentes de los vectores (es
decir, igual a n), entonces los vectores son generadores de Rn ;
• si el rango es igual, simultáneamemte, a la cantidad de vectores y al
número de componentes de estos, entonces los vectores forman una
base de Rn .
Elegir una base entre unos
generadores
364
Si nos dan unos vectores, con su rango sabemos cuántos de ellos
debemos considerar para escribir una base del subespacio vectorial que todos generan. Ahora bien, ¿podemos saber con cuáles de los vectores quedarnos para tener tal base? Sí.
III.3. INDEPENDENCIA LINEAL
¡OJO! Esto no se puede llevar a
cabo en la matriz cuyos vectores fila son los vectores dados.
Solo con los vectores columna.
Para ello, escribimos la matriz cuyos vectores columna son los vectores
dados. En esta matriz, llamamos columna básica a cualquier columna tal
que la columna correspondiente de alguna de sus formas escalonadas presenta un pivote; como todas las formas escalonadas de una misma matriz
tienen sus pivotes en las mismas columnas (cf. § 99, p. 101), esta definición
no depende de la forma escalonada elegida. Se verifica lo siguiente: entre los
vectores dados, aquellos que se corresponden con columnas básicas forman
una base del subespacio vectorial generado por todos.
Nos dan k vectores de Rn ; denotemos su rango
cambios de columnas. La matriz B también tiene rango
por p, y denotemos el subespacio vectorial de Rn que
generan por F ; así: dim F = p. Escribamos la matriz A
igual a p, y es tal que sus columnas básicas son exactamente las p primeras. De esta forma, la matriz formada
cuyos vectores columna son los k vectores dados, y
solo por las p primeras columnas de B (descartando
consideremos su forma escalonada reducida, la cual
las k − p últimas) sigue teniendo rango igual a p, con
tendrá p pivotes (pues rango A = dim F , § 360). En esta
lo que sus p vectores columna son linealmente inde-
matriz escalonada reducida, podemos llevar a cabo in-
pendientes. Como dim F = p, estos p vectores lineal-
tercambios de columnas de forma que obtengamos una
mente independientes forman una base del subespacio
matriz escalonada reducida con los pivotes en las pri-
vectorial F (§ 353). Por otra parte, nótese que tales p
meras columnas (cf. § 76, p. 79); denotemos por B el
vectores son, entre los k originales, justamente los co-
resultado de aplicar a la matriz A estos mismos inter-
rrespondientes a las columnas básicas de la matriz A.
En el § 317 (cf. p. 284), trabajamos con los vectores (1, 2, 3), (3, 2, 1)
y (4, 4, 4), y en el § 361 comprobamos que la dimensión del subespacio vectorial de R3 generado por ellos es igual a 2. ¿Cómo descartamos uno de los
vectores para asegurarnos que los dos restantes forman una base del subespacio vectorial? Hay que reconocer que es fácil a simple vista porque solo se
trata de tres vectores, pero hagámoslo con el método sugerido en el párrafo
anterior. Escribimos entonces la matriz, que denotamos por A, que tiene los
tres vectores como vectores columna; en el citado § 317, le calculamos una
forma escalonada, que denotamos aquí por A . Ambas matrices son estas:
⎛
1
⎜
A = ⎝2
3
3
2
1
⎞
4
⎟
4⎠
4
⎛
y
1
⎜
A = ⎝ 0
0
3
−4
0
⎞
4
⎟
−4 ⎠ .
0
En la matriz escalonada A , los pivotes están en las columnas primera y
segunda, luego estas son las columnas básicas de la matriz A. Los vectores
correspondientes son los vectores primero y segundo: (1, 2, 3), (3, 2, 1). El
sistema (1, 2, 3), (3, 2, 1) es, pues, una base del subespacio vectorial de R3
generado por los tres vectores.
III. VECTORES
Un ejemplo
Consideremos el subespacio vectorial de R4 , que denotamos por H,
365
generado por los vectores (1, −2, 0, 1), (−2, 4, 0, −2) y (0, 1, 3, 0). Con el
resultado del § 364, busquemos una base de H entre estos tres vectores.
Formamos, pues, la matriz cuyos vectores columna son los tres vectores
anteriores, y la escalonamos:
⎛
⎞
⎛
1 −2 0
1
F
←F
+2F
2
2
1
⎜
⎟
⎜
⎜ −2
⎟ F4 ←F4 −F1 ⎜ 0
4
1
⎜
⎟ →
⎜
⎜ 0
⎜0
0 3⎟
⎝
⎠
⎝
1 −2 0
0
⎛
⎞
0
1
⎜
⎟
⎜
1⎟
0
F
←F
−3F
2
⎟ 33→
⎜
⎜0
3⎟
⎝
⎠
0
0
−2
0
0
0
−2
0
0
0
⎞
0
⎟
1⎟
⎟.
0⎟
⎠
0
Vemos que hay dos pivotes, luego dim H = 2. También, las columnas básicas
son la primera y la tercera (en la segunda no hay pivote), así que los vectores
primero y tercero de los tres considerados forman una base del subespacio
vectorial H. Tal base es (1, −2, 0, 1), (0, 1, 3, 0) .
Una observación sobre un
ejemplo anterior
En el ejemplo del § 364, entre los tres vectores (1, 2, 3), (3, 2, 1)
366
y (4, 4, 4) encontramos dos —los dos primeros— que forman una base del
subespacio vectorial de R3 generado por los tres juntos. Al formar la matriz
cuyos vectores columna son los vectores dados, ¿qué ocurre si consideramos los vectores en otro orden?
Veamos. Consideremos los tres vectores dados en este orden: (4, 4, 4),
(3, 2, 1) y (1, 2, 3). Formamos la matriz que los tiene (en este nuevo orden)
como vectores columna y la escalonamos:
⎛
4
⎜
⎝4
4
3
2
1
⎞
⎛
F2 ←F2 −4F1
1
4
⎟ F3 ←F3 −4F1 ⎜
2 ⎠ →
⎝ 0
3
0
3
−1
−2
⎛
⎞
1
4
⎟ F3 ←F3 −2F2 ⎜
1 ⎠ →
⎝0
0
2
3
−1
0
⎞
1
⎟
1⎠.
0
Vemos confirmado el valor del rango que ya conocíamos, y también en este
caso los vectores correspondientes a columnas básicas son los dos primeros
(la tercera columna es la única en la cual la matriz escalonada obtenida no
Los dos primeros vectores son
ahora distintos a los dos primeros del citado § 364.
presenta un pivote), es decir: (4, 4, 4) y (3, 2, 1). Obtenemos así una nueva
base para el subespacio vectorial de R3 generado por los vectores (1, 2, 3),
(3, 2, 1) y (4, 4, 4): tal base es el sistema (4, 4, 4), (3, 2, 1) .
4. Ecuaciones de un subespacio vectorial
Dedicamos este apartado a estudiar dos maneras de presentar un subespacio vectorial, ambas con la ayuda de ecuaciones lineales. Estamos hablando
de las ecuaciones paramétricas y de las ecuaciones implícitas. En particular,
aprenderemos a pasar de unas a otras.
III.3. INDEPENDENCIA LINEAL
Ecuaciones paramétricas
Ecuaciones paramétricas (un
primer ejemplo)
367
Vamos a intentar describir un subespacio vectorial de Rn como el
conjunto formado por los vectores de Rn cuyas componentes satisfacen
ciertas condiciones que toman el aspecto de ecuaciones lineales. Lo conseguiremos de dos maneras distintas; la primera de ellas mediante las llamadas ecuaciones paramétricas.
Empezamos a verlo con un ejemplo. Consideremos el subespacio vec-
Cf. § 277, p. 255.
torial de R3 , que denotaremos por F , generado por los vectores (1, 2, −1)
y (0, 2, 1); es decir: F = L (1, 2, −1), (0, 2, 1) . Ya sabemos que un vector (x1 , x2 , x3 ) de R3 es un vector de F precisamente si admite solución
el sistema de ecuaciones lineales cuya matriz de coeficientes tiene por vectores columna los vectores (1, 2, −1) y (0, 2, 1), y cuya matriz de términos
independientes tiene por vector columna el mismo vector (x1 , x2 , x3 ). Escribamos este sistema de ecuaciones lineales del que hablamos, designando
¿En el primer miembro? Véase
la "nota bene" más adelante.
las incógnitas con las letras λ1 y λ2 , y de forma que sus términos independientes figuren en el primer miembro. Nos queda:
⎧
⎪
x = λ1
⎪
⎪
⎨ 1
x2 = 2λ1 + 2λ2
⎪
⎪
⎪
⎩ x =−λ + λ .
3
1
(10)
2
Podemos afirmar que un vector (x1 , x2 , x3 ) de R3 pertenece a F precisamente si admite solución este sistema de ecuaciones lineales en las incógnitas λ1 y λ2 , o lo que es lo mismo: precisamente si se verifican las tres
igualdades del sistema para algún valor de λ1 y algún valor de λ2 .
Y nótese que también se verifica lo siguiente: todos los vectores del subPor ejemplo, tomando los valores λ1 = 1 y λ2 = −1, nos
queda el vector (1, 0, −2).
espacio vectorial F son aquellos cuyas componentes x1 , x2 y x3 se obtienen,
a partir de las igualdades de (10), dando valores a λ1 y λ2 .
Decimos que el sistema de ecuaciones lineales (10) es un sistema de
ecuaciones paramétricas del subespacio vectorial F (o simplemente que las
ecuaciones de (10) son unas ecuaciones paramétricas del subespacio vectorial F ). Las incógnitas de un sistema de ecuaciones paramétricas también
Nos encontramos otra vez con
el término parámetro. . .
reciben el nombre de parámetros.
Nota bene
Al presentar el sistema de ecuaciones paramétricas (10), hemos uti-
lizado la letra λ con subíndices para designar sus incógnitas (o parámetros).
En ecuaciones paramétricas, es habitual designar los parámetros con letras como λ (o μ), eventualmente con subíndices. También es usual escribir los terminos independientes —las componentes x1 , x2 , . . . — en el primer miembro, para
enfatizar el que se puedan obtener dando valores a los parámetros.
III. VECTORES
Ecuaciones paramétricas
(caso general)
368
Dado un subespacio vectorial, debemos enfatizar que unas ecua-
ciones paramétricas para el subespacio se escriben a partir de unos generadores del subespacio. ¿Cómo se procede en general? Análogamente a como
hemos hecho en el § 367.
En concreto, dados unos generadores de un subespacio vectorial, a partir
de ellos se construye un sistema de ecuaciones paramétricas del subespacio
vectorial de esta manera: la matriz de coeficientes del sistema tiene por vectores columna los generadores dados, y la matriz de términos independien-
Nótese bien que un sistema de
ecuaciones paramétricas tiene
tantas ecuaciones como componentes tienen los vectores,
y tantos parámetros como generadores del subespacio nos
han dado.
tes tiene por términos las componentes de un vector genérico del espacio
vectorial. Además, las incógnitas del sistema —esto es, los parámetros— se
designan con la letra λ (o la letra μ), quizá acompañada de subíndices, y los
términos independientes se escriben en el primer miembro.
Veamoslo con detalle. Consideremos unos vecto-
por λ1 , λ2 , . . . , λk , y escribimos los términos indepen-
res v 1 , v 2 , . . . , v k de Rn , y el subespacio vectorial F
de Rn generado por ellos: F = L v 1 , v 2 , . . . , v k .
dientes en el primer miembro, podemos afirmar que
Procedamos como hicimos en el § 277 (cf. p. 255).
Si consideramos el sistema de ecuaciones lineales cuya
el vector (x1 , x2 , . . . , xn ) pertenece a F precisamente si
sus componentes: x1 , x2 , . . . , xn , satisfacen las igualdades
matriz de coeficientes tiene por vectores columna los
⎧
⎪
x1 = v11 λ1 + v21 λ2 + · · · + vk1 λk ,
⎪
⎪
⎪
⎪
⎪
⎨ x2 = v12 λ1 + v22 λ2 + · · · + vk2 λk ,
⎪ .......................................
⎪
⎪
⎪
⎪
⎪
⎩
xn = v1n λ1 + v2n λ2 + · · · + vkn λk ,
vectores v 1 , v 2 , . . . , v k , y cuya matriz de términos
independientes tiene por vector columna un vector
genérico (x1 , x2 , . . . , xn ), podemos afirmar que el vector (x1 , x2 , . . . , xn ) pertenece a F precisamente si tal
sistema admite solución. Escribamos:
para algunos λ1 , λ2 , . . . , λk . Decimos que estas igual-
v 1 = (v11 , v1 2 , . . . , v1 n ),
dades son unas ecuaciones paramétricas del subespa-
v 2 = (v21 , v2 2 , . . . , v2 n ),
cio vectorial F , o que el sistema de ecuaciones que for-
..........................
man, en las incógnitas λ1 , λ2 , . . . , λk , es un sistema de
ecuaciones paramétricas del subespacio vectorial F .
v k = (vk1 , vk2 , . . . , vk n ),
de manera que vij designa la j-ésima componente del
Nótese que el sistema de ecuaciones paramétricas
i-ésimo vector v i (y ello para cada 1 i k y pa-
que acabamos de escribir para F es tal que su matriz
ra cada 1 j n). Si en el sistema de ecuaciones
de coeficientes tiene por vectores columna los genera-
lineales del que hablamos denotamos las incógnitas
dores de F dados al principio.
Un ejemplo
369
Consideremos el subespacio vectorial H de R4 generado por los
vectores (1, −2, 0, 1), (−2, 4, 0, −2) y (0, 1, 3, 0) (§ 365). Escribamos unas
ecuaciones paramétricas de H.
De acuerdo con lo visto en el § 368, a partir de los generadores dados, construimos un sistema de ecuaciones paramétricas para el subespa-
III.3. INDEPENDENCIA LINEAL
cio vectorial H de esta forma: la matriz de términos independientes tiene
por términos las componentes de (x1 , x2 , x3 , x4 ) —estamos trabajando con
vectores de R4 —, y la matriz de coeficientes tiene por vectores columna los
generadores dados. Tales matrices
⎛
⎞
x1
⎜
⎟
⎜ x2 ⎟
⎜
⎟
⎜x ⎟ y
⎝ 3⎠
x4
son estas:
⎛
1 −2
⎜
⎜ −2
4
⎜
⎜ 0
0
⎝
1 −2
⎞
0
⎟
1⎟
⎟.
3⎟
⎠
0
Designando los parámetros por λ1 , λ2 y λ3 (tantos como vectores), se obHay tantos parámetros como
generadores de H nos han dado, y tantas ecuaciones como
componentes tienen los vectores —cuatro, pues estamos
con vectores de R4 —.
tiene este sistema de ecuaciones paramétricas para el subespacio H:
⎧
⎪
λ1 − 2λ2
x1 =
⎪
⎪
⎪
⎪
⎪
⎨ x2 = −2λ1 + 4λ2 + λ3
⎪
⎪
x3 =
3λ3
⎪
⎪
⎪
⎪
⎩
x4 =
λ1 − 2λ2
.
El hecho de que este sistema sea un sistema de ecuaciones paramétricas del
subespacio vectorial H significa que un vector (x1 , x2 , x3 , x4 ) de R4 es un
vector de H precisamente si sus componentes: x1 , x2 , x3 y x4 , satisfacen
las cuatro ecuaciones del sistema para algún valor de λ1 , λ2 y λ3 Y también
significa: todos los vectores de H son aquellos cuyas componentes x1 , x2 ,
x3 y x4 se obtienen, a partir de las ecuaciones del sistema, dando valores
a λ1 , λ2 y λ3 .
Un ejemplo con una recta
Escribamos unas ecuaciones paramétricas del subespacio vectorial
!
"
de R siguiente: G = (x, y, z) ∈ R3 ! x − y + z = 0 y x + z = 0 .
370
2
Según lo detallado en el § 368, lo primero que necesitamos es un sistema de generadores del subespacio vectorial G. En el § 302 (cf. p. 275),
vimos que este subespacio vectorial es la recta de vector director (2, 1), de
forma que G = L (2, 1) . De acuerdo con ello, un sistema de ecuaciones
paramétricas del subespacio G tiene por matriz de términos independientes la matriz columna de términos x1 y x2 , y por matriz de coeficientes
Ambas matrices son, respectivamente, estas:
x1
2
.
y
1
x2
la que tiene por vector columna el generador (2, 1) (solo nos dan un generador de G). El sistema de ecuaciones paramétricas resulta con un único
parámetro; designándolo por λ, el sistema toma la forma:
⎧
⎨ x1 = 2λ
⎩ x2 = λ.
(11)
En general, cualquier recta admite algún sistema de ecuaciones paramétricas con un solo parámetro.
III. VECTORES
Un ejemplo con un plano
371
De la misma forma, un plano (cf. § 304, p. 276) admite un sistema
de ecuaciones paramétricas con dos parámetros.
Recordamos:
⎧
⎪
⎪
⎪ x1 = λ1
⎨
x2 = 2λ1 + 2λ2
⎪
⎪
⎪
⎩ x =−λ + λ .
3
1
2
Dimensión de un subespacio
vectorial dado por ecuaciones
paramétricas
El subespacio vectorial F de R3 que vimos en el ejemplo del § 367, esto
es: F = L (1, 2, −1), (0, 2, 1) , es un ejemplo de plano de R2 , pues los vectores (1, 2, −1) y (0, 2, 1) no son uno múltiplo del otro. En el mismo § 367,
escribimos un sistema de ecuaciones paramétricas de F con dos parámetros.
372
Vemos que si tenemos un sistema de ecuaciones paramétricas es-
crito para un subespacio vectorial dado, entonces podemos leer unos generadores del subespacio vectorial justamente en los vectores columna de
la matriz de coeficientes del sistema de ecuaciones. Como el rango de una
matriz coincide con el rango de sus vectores columna (cf. § 360, p. 306), y
el rango de unos vectores que sean generadores de un subespacio vectorial
nos da la dimensión del subespacio (cf. § 358, p. 305), podemos concluir lo
siguiente: dado un sistema de ecuaciones paramétricas de un subespacio
vectorial, la dimensión del subespacio vectorial coincide con el rango de la
matriz de coeficientes del sistema de ecuaciones.
Por ejemplo, la dimensión del subespacio vectorial de R2 de ecuaciones
paramétricas
⎧
⎪
x = λ1
⎪
⎪
⎨ 1
x2 = 2λ1 + 2λ2
⎪
⎪
⎪
⎩ x =−λ + λ
3
1
2
es igual a 2, pues es este el valor del rango de su matriz de coeficientes:
⎛
1
⎜
⎝ 2
−1
⎛
⎞
F2 ←F2 −2F1
1
0
⎟ F3 ←F3 +F1 ⎜
2 ⎠ →
⎝ 0
0
1
⎛
⎞
0
1
1
F
F
←F
−
⎟ 3 3 2 2 ⎜
2 ⎠ →
⎝ 0
0
1
⎞
0
⎟
2⎠.
0
El subespacio vectorial determinado por este sistema de ecuaciones paramétricas es justamente el subespacio vectorial F de R2 que hemos visto en
el ejemplo del § 367: F = L (1, 2, −1), (0, 2, 1) .
Otro ejemplo: la matriz de coeficientes del sistema de ecuaciones paramétricas (11) —que escribimos en el § 370 para la recta G de vector direcYa sabemos que la dimensión
de cualquier recta es igual a 1
(cf. § 351, p. 302).
Un ejemplo con una recta
(continuación)
tor (2, 1)— tiene una sola columna no nula, luego su rango es igual a 1; ello
nos confirma que el subespacio vectorial G tiene dimensión igual a 1.
373
Sabemos que el subespacio vectorial de R2 generado por los vecto-
res (2, 1) y (4, 2) es el mismo que el generado solamente por el vector (2, 1)
(por ejemplo, cf. § 303, p. 275): L (2, 1), (4, 2) = L (2, 1) . El subespacio
vectorial G que hemos visto en el § 370 también está generado, pues, por
III.3. INDEPENDENCIA LINEAL
los vectores (2, 1) y (4, 2). Calculemos unas ecuaciones paramétricas del
subespacio vectorial G a partir de estos generadores.
El sistema de ecuaciones paramétricas que buscamos tiene como términos independientes las componentes x1 y x2 de un vector genérico (x1 , x2 ),
y como matriz de coeficientes la matriz cuyos vectores columna son (2, 1)
y (4, 2); resulta entonces un sistema con dos parámetros, pongamos λ1 y λ2 .
El sistema es este:
⎧
⎨ x1 = 2λ1 + 4λ2
⎩ x2 = λ1 + 2λ2 .
(12)
Tenemos entonces dos sistemas de ecuaciones paramétricas para un
mismo subespacio vectorial, uno de ellos incluso con una incógnita más;
Recordemos bien que hay tantas ecuaciones como componentes tienen los vectores.
eso sí: ambos tienen la misma cantidad de ecuaciones. ¿Qué relación hay
entre los dos? La tenemos entre las dos matrices de coeficientes: si completamos con columnas nulas la que menos columnas tiene hasta que ambas
quedan del mismo orden, entonces se puede obtener una de la otra mediante la aplicación de transformaciones elementales por columnas sucesivas.
En efecto: la matriz de coeficientes del sistema (11), completada con una
columna nula, y la matriz de coeficientes del sistema (12) son, respectivamente, estas:
Sumar a la segunda columna
el doble de la primera.
¿Cuándo dos sistemas de
ecuaciones paramétricas
representan el mismo
subespacio?
Dos sistemas de ecuaciones
paramétricas que correspondan a un mismo subespacio
ya tienen el mismo número de
ecuaciones.
2
1
0
0
y
2
1
4
2
,
y es claro que la segunda se puede obtener de la primera con la transformación elemental C2 ← C2 + 2C1 .
374
Veamos en detalle el resultado general que se insinúa en el § 373.
Tal resultado puede enunciarse así: afirmar que dos sistemas de ecuaciones paramétricas representan un mismo subespacio vectorial es equivalente a afirmar que las matrices de coeficientes de ambos sistemas cumplen
la propiedad siguiente: tras añadir columnas nulas a la que menos columnas tenga de forma que ambas queden del mismo orden, una de las matrices
se puede obtener de la otra mediante la aplicación de transformaciones elementales por columnas sucesivas.
Antes de nada, hagamos una observación previa:
añadir columnas nulas a la matriz de coeficientes de
y después de añadir las columnas nulas, representa
el mismo subespacio vectorial. Podemos considerar,
un sistema de ecuaciones paramétricas es tanto como
pues, que todos los sistemas de ecuaciones paramétri-
añadir vectores nulos al sistema de generadores del
cas de los que hablemos en esta demostración son
subespacio vectorial representado por el sistema, con
tales que sus matrices de coeficientes tienen el mismo
lo que el sistema de ecuaciones paramétricas, antes
número de columnas.
III. VECTORES
Ahora, como acontece al demostrar cualquier equi-
de coeficientes A; esto es: AX = O (en notación matri-
valencia, debemos demostrar dos enunciados, uno
cial). Notemos lo siguiente: si añadimos a la matriz A
recíproco del otro. El primero es este: si en la matriz de
coeficientes de un sistema de ecuaciones paramétricas
cualquiera de las filas de la matriz B, el sistema de ecuaciones que resulta es equivalente al sistema AX = O.
ejecutamos una transformación elemental por colum-
¿Por qué? Como los vectores fila de B generan el mismo
nas (o una lista de ellas sucesivamente), el sistema
subespacio vectorial que los vectores fila de A, cada
resultante respresenta el mismo subespacio vectorial.
uno de los primeros es combinación lineal de los se-
Notemos que llevar a cabo una transformación elemen-
gundos; si añadimos a A una fila de B, resulta entonces
tal por columnas en una matriz se corresponde con
que esta fila nueva es igual a una suma de múltiplos
una manipulación, entre los vectores columna de la
de las filas de A; con transformaciones elementales por
matriz, del tipo que veíamos en el § 334 (cf. p. 293):
filas adecuadas, podríamos transformar esta fila nueva
intercambiar dos vectores, multiplicar un vector por
un número no nulo, o sumar a un vector un múltiplo
en una fila nula, lo que nos muestra que el sistema con
la fila añadida es equivalente al sistema sin ella. Como
de otro. Como los vectores columna de la matriz de
consecuencia, el sistema AX = O es equivalente al sis-
coeficientes de un sistema de ecuaciones paramétricas
tema DX = O, donde D es esta matriz:
forman un sistema de generadores del subespacio vectorial representado por el sistema, podemos deducir el
resultado del hecho de que las manipulaciones de las
que hablamos transforman un sistema de generadores
de un subespacio en otro sistema de generadores del
mismo subespacio (cf. § 336, p. 294).
⎛
D=⎝
A
B
⎞
⎠.
De la misma manera, cambiando el papel de las matrices A y B, y llevando a cabo permutaciones de filas, obtenemos que también el sistema BX = O es equivalente
El segundo resultado es este: si dos sistemas de
al sistema DX = O. En definitiva, los sistemas homogé-
ecuaciones paramétricas representan el mismo subes-
neos AX = O y BX = O son equivalentes. También lo
pacio vectorial, entonces sus matrices de coeficientes
serán los sistemas homogéneos A X = O y B X = O,
se pueden llevar una a la otra mediante la aplicación de
donde A y B son las formas escalonadas reducidas
transformaciones elementales por columnas sucesivas.
Denotemos por A y B las traspuestas de las matrices de
de A y B, respectivamente. Pero dos sistemas homogéneos que tengan escalonada reducida la matriz de coe-
coeficientes de los sistemas. Lo que queremos demos-
ficientes satisfacen esta propiedad: si los sistemas son
trar es equivalente a esta afirmación: si las matrices A
equivalentes, tal matriz de coeficientes es en ambos la
y B son tales que sus vectores fila generan el mismo
misma (cf. demostración en el § 100, p. 102). Final-
subespacio vectorial, entonces es posible obtener una
mente, como las matrices A y B tienen la misma forma
matriz de la otra mediante la aplicación de transforma-
escalonada reducida: A = B , es posible obtener una
ciones elementales por filas sucesivas. Consideremos
de otra mediante la aplicación de transformaciones ele-
el sistema de ecuaciones lineales homogéneo de matriz
mentales por filas sucesivas.
Si λ = λ1 + 2λ2 , entonces:
Nota
Cuando dos sistemas de ecuaciones paramétricas corresponden al mismo
x1 = 2λ
subespacio vectorial, también se verifica lo siguiente: es posible encontrar algún
x1 = 2(λ1 + 2λ2 )
el caso de los sistemas de ecuaciones paramétricas (11) y (12) —ambos corres-
= 2λ1 + 4λ2 ,
y x2 = λ = λ1 + 2λ2 .
cambio de parámetros adecuado que nos transforme un sistema en el otro. En
pondientes a un mismo subespacio vectorial de R2 (§ 373)—, podemos obtener
uno de otro con el cambio λ = λ1 + 2λ2 .
III.3. INDEPENDENCIA LINEAL
Nota bene
Si dos sistemas de ecuaciones paramétricas representan el mismo
subespacio vectorial, entonces las matrices de coeficientes de ambos sistemas
tienen el mismo rango.
Ecuaciones paramétricas a
partir de una base del
subespacio vectorial
El subespacio vectorial es distinto de {0} para que admita
base (cf. § 349, p. 301).
375
Dado un subespacio vectorial distinto de {0}, ¿cuántos paráme-
tros hay en un sistema de ecuaciones paramétricas que lo represente? Ya
lo hemos visto: tantos como vectores haya en el sistema de generadores
elegido para construir, a partir de él, el sistema de ecuaciones paramétricas.
Podemos minimizar esta cantidad de parámetros si el sistema de generadores de partida es una base del subespacio vectorial. En este caso, además,
el número de parámetros de las ecuaciones paramétricas coincidirá con la
dimensión del subespacio vectorial.
Por ejemplo, volvamos a considerar el subespacio vectorial H de R4 generado por los vectores (1, −2, 0, 1), (−2, 4, 0, −2) y (0, 1, 3, 0). En el § 365,
comprobamos que el sistema (1, −2, 0, 1), (0, 1, 3, 0) es una base de H. Las
ecuaciones paramétricas de H definidas a partir de esta base, designando
los parámetros por λ y μ, toman esta forma:
⎧
⎪
x1 =
λ
⎪
⎪
⎪
⎪
⎪
⎨ x2 = −2λ + μ
⎪
⎪
x3 =
⎪
⎪
⎪
⎪
⎩
x4 =
3μ
λ
.
Dos parámetros empleamos para estas ecuaciones paramétricas, y 2 es la
dimensión del subespacio vectorial H. No hay sistemas de ecuaciones paramétricas para el subespacio vectorial H con menos de dos parámetros.
Ecuaciones implícitas
Ecuaciones implícitas, y un
primer ejemplo
También decimos que el sistema homogéneo es un sistema de ecuaciones implícitas
que determina (o representa)
el subespacio vectorial F .
376
Sabemos que todas las soluciones de un sistema de ecuaciones li-
neales homogéneo de n incógnitas forman un subespacio vectorial de Rn
(cf. § 297, p. 272). Si un subespacio vectorial F de Rn es tal que coincide
con el conjunto de soluciones de un sistema homogéneo (de n incógnitas),
decimos que el sistema homogéneo es un sistema de ecuaciones implícitas
del subespacio vectorial F (o simplemente que las ecuaciones del sistema
homogéneo son unas ecuaciones implícitas del subespacio vectorial F ).
Por ejemplo, en el § 283 (cf. p. 262), consideramos este sistema de ecuaciones lineales homogéneo:
⎧
⎨x − y + z = 0
⎩x
+ z = 0,
(13)
III. VECTORES
y comprobamos que sus soluciones son precisamente los múltiplos del vector (−1, 0, 1); es decir, el conjunto de sus soluciones es la recta de vector
director (−1, 0, 1): L (−1, 0, 1) . Podemos entonces decir que el sistema de
ecuaciones lineales homogéneo (13) es un sistema de ecuaciones implícitas
de la recta L (−1, 0, 1) ; o, simplemente, que las ecuaciones del sistema homogéneo (esto es: x − y + z = 0 y x + z = 0) son unas ecuaciones implícitas
de tal recta.
Otro ejemplo
377
En el § 278 (cf. p. 256), estudiamos este ejemplo: todos los vec-
tores (x1 , x2 , x3 ) de R3 que se pueden expresar como una combinación
lineal de los vectores (1, −1, 2) y (2, 0, 4) son exactamente los que satisfacen la condición x3 − 2x1 = 0. En otras palabras: el subespacio vecto
rial L (1, −1, 2), (2, 0, 4) coincide con el conjunto de soluciones de la ecuación lineal homogénea x3 − 2x1 = 0.
La ecuación lineal x3 − 2x1 = 0 es, pues, una ecuación implícita del
subespacio vectorial L (1, −1, 2), (2, 0, 4) . O también: el sistema de ecuaciones lineales
x3 − 2x1 = 0
(de una sola ecuación) es un sistema de ecuaciones implícitas del subespacio
vectorial L (1, −1, 2), (2, 0, 4) .
Nota bene
Como los vectores (1, −1, 2) y (2, 0, 4) son tales que ninguno es múlti
plo del otro, el subespacio vectorial L (1, −1, 2), (2, 0, 4) es un plano de R3 . Dimensión de un subespacio
vectorial dado por ecuaciones
implícitas
378
Nos dan un sistema de ecuaciones implícitas de un subespacio vec-
torial. A la vista del sistema, ¿es posible averiguar la dimensión del subespacio vectorial? Sí: tal dimensión es igual a la diferencia entre el número
de componentes de los vectores y el rango de la matriz de coeficientes del
sistema. En símbolos: dado un sistema de ecuaciones lineales homogéneo
Podemos decir que la dimensión es: dim Rn − rango A.
con n incógnitas, con matriz de coeficientes A, sus soluciones forman un
subespacio vectorial de Rn de dimensión igual a n − rango A.
Consideremos un subespacio vectorial F de Rn , y
Antes de nada, distingamos dos casos triviales. Por
pongamos que tenemos un sistema de ecuaciones im-
un lado, si F = {0}, el sistema homogéneo AX = O tiene
plícitas para F de matriz de coeficientes A; es decir:
solución única —la nula—, y ello implica que el rango
el conjunto de soluciones del sistema de ecuaciones li-
de su matriz de coeficientes es igual al número de sus
neales homogéneo AX = O —escrito en notación matricial— coincide con F . Probemos que la dimensión de F
incógnitas (cf. § 178, p. 172); como este último es n, tenemos: n − rango A = n − n = 0 = dim F , y el resultado
es igual a n − rango A.
se cumple en este caso. Y, por otro lado, si F = Rn ,
III.3. INDEPENDENCIA LINEAL
el sistema AX = O está formado por ecuaciones nulas
puede escribir así: xr +1 u1 + xr +2 u2 + · · · + xn un−r , es
(cf. § 35, p. 51), con lo que rango A = 0, y también se
decir, como una combinación lineal de los n − r vec-
tiene el resultado: n − rango A = n − 0 = n = dim F .
Ahora, denotemos por A la forma escalonada re-
tores u1 , u2 , . . . , un−r . Estos vectores son, pues, unos
generadores del subespacio vectorial F .
ducida de la matriz A. El subespacio vectorial F tam-
Pero los vectores u1 , u2 , . . . , un−r también son li-
bién es igual al conjunto de soluciones del sistema de
nealmente independientes. Si nos fijamos en la ma-
ecuaciones lineales homogéneo A X = O (pues este
triz que los tiene como vectores fila, que es de or-
es equivalente al sistema AX = O). Pongamos que el
den (n−r , n), esta matriz se convierte de manera inme-
rango de la matriz A (y por tanto el de A ) es igual a r ,
diata en una matriz escalonada reducida de n − r pivo-
con 1 r < n (para no caer en los casos triviales co-
tes —y por tanto de rango igual a n − r — sin más que
mentados al principio), y supongamos que los r pivotes
“pasar” sus r primeras columnas a las últimas posi-
de la matriz A están en sus primeras columnas. El sistema A X = O, tras eliminar sus posibles ecuaciones
ciones (lo cual no supone más que ciertos intercambios de columnas, que no perturban el valor del rango).
nulas —las cuales serían las últimas—, es equivalente
Como el rango de esta matriz coincide con el número
al siguiente:
⎧
⎪
x1
⎪
⎪
⎪
⎪
⎪
⎪
x2
⎪
⎨
de vectores, estos son linealmente independientes.
En definitiva, el sistema u1 , u2 , . . . , un−r es una
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎩
+ b1(r +1) xr +1 + · · · + b1n xn = 0
+ b2(r +1) xr +1 + · · · + b2n xn = 0
..
.
..
.
..
.
..
.
xr + br (r +1) xr +1 + · · · + br n xn = 0,
para algunos números bij con 1 i r y r +1 j n.
Las soluciones del sistema son exactamente los vectores de Rn que se pueden escribir de esta forma:
− b1(r +1) xr +1 + · · · + b1n xn ,
− b2(r +1) xr +1 + · · · + b2n xn , . . . ,
− br (r +1) xr +1 + · · · + br n xn , xr +1 , . . . , xn ,
para algunos números xr +1 , . . . , xn (nótese que las incógnitas xr +1 , . . . , xn del sistema son las incógnitas libres). Si denotamos:
u1 = −b1(r +1) , −b2(r +1) , . . . , −br (r +1) , 1, 0, . . . , 0 ,
u2 = −b1(r +2) , −b2(r +2) , . . . , −br (r +2) , 0, 1, . . . , 0 ,
base del subespacio vectorial F . Como tiene n − r vectores, se concluye: dim F = n − r = n − rango A.
Para terminar, ¿qué ocurre si los r pivotes de la matriz escalonada reducida A no están en las primeras
columnas? En este caso, los pivotes se pueden llevar
donde queremos con intercambios adecuados de columnas, los cuales se traducen en intercambios de las
incógnitas del sistema, y en definitiva en intercambios
de las componentes de los vectores que son solución
del sistema (cf. § 220, p. 204). Podríamos entonces proceder como en los párrafos anteriores, solo que las incógnitas libres ya no serían las mismas —aunque sí tendríamos la misma cantidad de ellas: n−r , pues el rango
de la matriz de coeficientes seguiría siendo igual a r —,
y los vectores u1 , u2 , . . . , un−r podrían definirse como
los anteriores salvo intercambios de componentes, los
mismos en todos los vectores. Estos intercambios de
componentes no alteran el hecho de que los “nuevos”
vectores u1 , u2 , . . . , un−r generen el subespacio F (al
.........................................................
un−r =
−b1n , −b2n , . . . , −br n , 0, 0, . . . , 1 ,
ser los mismos intercambios en todos los vectores),
entonces podemos afirmar que toda solución del sistema A X = O —y por ende del sistema AX = O — se
terior salvo intercambios de columnas, con lo que su
rango sigue siendo igual a n − r ).
ni tampoco el que sean linealmente independientes (la
matriz que los tiene como vectores fila es como la an-
III. VECTORES
Destacamos este importante resultado, dándole rango de teorema (de
hecho, en algunos libros se refieren a él como el teorema fundamental del
Álgebra Lineal):
Teorema fundamental del
Álgebra Lineal
Un ejemplo
Teorema 3
El conjunto de soluciones de un sistema de ecuaciones lineales homogéneo con n incógnitas, con matriz de coeficientes A, es un
subespacio vectorial de Rn de dimensión igual a n − rango A.
379
En el ejemplo del § 376, vimos que la recta L (−1, 0, 1) admite el
siguiente sistema de ecuaciones implícitas:
⎧
⎨x − y + z = 0
⎩x
+ z = 0.
Sabemos que la dimensión de cualquier recta es igual a 1 (cf. § 351, p. 302),
pero comprobemos el valor de esta dimensión con la ayuda del teorema 3
(§ 378). Para ello, calculamos el rango de la matriz de coeficientes del sistema de ecuaciones implícitas anterior. Nos queda:
1 −1 1 F2 ←F2 −F1
1 −1 1
→
,
1
0 1
1 0
0
con lo que el rango de la matriz es igual a 2. Así, la dimensión del subespacio vectorial de R3 formado por las soluciones del sistema de ecuaciones es
igual a 3 − 2 = 1 —diferencia entre el número de componentes de los vectores y el rango de la matriz de coeficientes—, lo que nos da la comprobación
que queríamos.
Otro ejemplo
380
La ecuación lineal homogénea x3 − 2x1 = 0, o mejor dicho: el sis-
tema homogéneo cuya única ecuación es esta ecuación, tiene como matriz
de coeficientes una matriz que ya es escalonada:
−2
0
1 .
El rango de esta matriz es igual a 1, luego la dimensión del subespacio vectorial de R3 formado por todas las soluciones de la ecuación tiene dimensión
igual a 3 − 1 = 2 (de nuevo, diferencia entre el número de componentes —o
la dimensión del espacio vectorial, en este caso R3 — y el rango de la matriz
de coeficientes).
Recordemos que la ecuación lineal x3 −2x1 = 0 es una ecuación implícita
del plano L (1, −1, 2), (2, 0, 4) (§ 377), lo que nos confirma el cálculo de la
dimensión, pues los planos tienen dimensión igual a 2 (cf. § 351, p. 302).
III.3. INDEPENDENCIA LINEAL
Paso de ecuaciones implícitas
a paramétricas
381
Consideremos este sistema de ecuaciones lineales homogéneo:
⎧
⎪
+ 2x3 − x4 = 0
x1
⎪
⎪
⎨
x2 + 4x3 − x4 = 0
(14)
⎪
⎪
⎪
⎩ −x + x + 2x
= 0,
1
2
3
y denotemos por F el subespacio vectorial de R4 formado por todas sus
soluciones. Dicho de otra forma: el sistema (14) es un sistema de ecuaciones
implícitas del subespacio vectorial F . ¿Cuál es la dimensión de F ? Y otra pregunta: ¿podemos escribir unas ecuaciones paramétricas de F ?
Vamos con lo primero. Calculemos el rango de la matriz de coeficientes
del sistema homogéneo (14). Para ello, escribimos:
⎛
1
⎜
⎝ 0
−1
0
1
1
2
4
2
⎞
⎛
−1
1
⎟ F3 ←F3 +F1 ⎜
−1 ⎠ →
⎝0
0
0
0
1
1
⎛
⎞
−1
1
⎟ F3 ←F3 −F2 ⎜
−1 ⎠ →
⎝0
0
−1
2
4
4
0
1
0
2
4
0
⎞
−1
⎟
−1 ⎠ ,
0
con lo que tal rango es igual a 2. La dimensión del subespacio vectorial F es
entonces igual a 4 − 2 = 2 (diferencia entre el número de componentes de
los vectores y el rango recién calculado).
Y vamos ahora con lo segundo: ¿unas ecuaciones paramétricas del subespacio F ? La demostración del teorema 3 —en el § 378— nos da en el
fondo la pista: resolvamos el sistema (14). La forma escalonada que le hemos encontrado a su matriz de coeficientes —en el párrafo anterior— ya
es escalonada reducida; el sistema homogéneo que la tiene como matriz de
coeficientes —quitando su tercera ecuación, que es nula— se nos queda en
el siguiente:
⎧
⎨ x1
⎩
Las incógnitas x1 y x2 son básicas, y se despejan en función
de las libres, que se sustituyen
por λ y μ.
+ 2x3 − x4 = 0
x2 + 4x3 − x4 = 0.
Todas las soluciones de este sistema, y por ende del sistema (14), son los
vectores (x1 , x2 , x3 , x4 ) de R4 tales que:
⎧
x1 = −2λ + μ,
⎪
⎪
⎪
⎪
⎪
⎪
⎨ x2 = −4λ + μ,
⎪
x3 =
⎪
⎪
⎪
⎪
⎪
⎩
x4 =
Ya hemos llevado a cabo cálculos similares; por ejemplo,
en el § 281 (cf. p. 259).
λ
,
(15)
μ,
donde λ y μ son números cualesquiera. ¡Pero este es un sistema de ecuaciones paramétricas! ¿De qué subespacio vectorial? Respondemos con otra
pregunta: ¿cuál es el subespacio formado por los vectores de R4 cuyas componentes x1 , x2 , x3 y x4 se obtienen, a partir de las cuatro ecuaciones
III. VECTORES
de (15), dando valores a λ y μ? Justamente el subespacio formado por las
soluciones del sistema (14), es decir, el subespacio vectorial F . El sistema escrito en (15) es, pues, un sistema de ecuaciones paramétricas del subespacio
vectorial F .
Antes de terminar, observemos lo siguiente. Para el sistema de ecuaciones paramétricas (15) (en las incógnitas λ y μ), ¿cuál es su matriz de
coeficientes? Lo preguntamos porque los vectores columna de la matriz de
coeficientes de un sistema de ecuaciones paramétricas son unos generadores del subespacio vectorial representado por las ecuaciones (§ 372) . . . Tal
matriz de coeficientes es:
⎛
−2
⎜
⎜ −4
⎜
⎜ 1
⎝
0
⎞
1
⎟
1⎟
⎟,
0⎟
⎠
1
y sus vectores columna son (−2, −4, 1, 0) y (1, 1, 0, 1). El sistema de vecto
res (−2, −4, 1, 0), (1, 1, 0, 1) es, pues, un sistema de generadores del subespacio vectorial F . Como dim F = 2, este sistema además es una base del
subespacio vectorial F (cf. § 354, p. 303).
Nota bene
Para escribir unas ecuaciones paramétricas a partir de unas ecua-
ciones implícitas, hemos resuelto el sistema de ecuaciones implícitas: al escribir
todas sus soluciones según el método visto en el Capítulo I, ya escribimos unas
ecuaciones paramétricas. En un último paso, a partir de estas últimas —en los
vectores columna de su matriz de coeficientes—, leemos unos vectores generadores.
Paso de ecuaciones
paramétricas a implícitas:
eliminación de parámetros
382
Dado un subespacio vectorial, ¿cómo podemos escribir unas ecua-
ciones implícitas a partir de unas ecuaciones paramétricas?
Como es costumbre, empecemos a verlo con un ejemplo. Consideremos
el siguiente sistema de ecuaciones paramétricas:
⎧
⎪
x1 = λ1 − 2λ2 + λ3
⎪
⎪
⎪
⎪
⎪
⎨ x2 = −λ1 + λ2 + 2λ3
⎪
⎪
x3 = λ1
− λ3
⎪
⎪
⎪
⎪
⎩x =
2λ2 + 2λ3 ,
4
(16)
y denotemos por G el subespacio vectorial de R4 representado por ellas. Un
vector (x1 , x2 , x3 , x4 ) de R4 es un vector de G precisamente si sus componentes satisfacen las cuatro igualdades anteriores para algún valor de λ1 , λ2
y λ3 ; o lo que es lo mismo: un vector (x1 , x2 , x3 , x4 ) es un vector de G precisamente si el sistema (16) (en las incógnitas λ1 , λ2 y λ3 ) admite solución
III.3. INDEPENDENCIA LINEAL
escribiendo las componentes x1 , x2 , x3 y x4 como los términos independientes del sistema. Para obtener todos los vectores del subespacio vectorial G, debemos, pues, discutir el sistema de ecuaciones lineales (16) según
los valores de x1 , x2 , x3 y x4 : los vectores de G tendrán por componentes
aquellos valores de x1 , x2 , x3 y x4 para los que el sistema sea compatible,
bien determinado, bien indeterminado.
Para discutir el sistema (16), como siempre escribimos su matriz ampliada y la escalonamos —y aunque los términos independientes figuran
en el primer miembro, en la matriz ampliada los escribimos en la última
columna, según lo establecido para las matrices ampliadas de sistemas de
ecuaciones—. Ahora bien, acontece que los cálculos para escalonar esta matriz ampliada concreta fueron llevados a cabo en el § 279 (cf. p. 258): tal
matriz ampliada, y la forma escalonada que de esta obtuvimos en el parágrafo citado, son, respectivamente, estas matrices:
⎞
⎛
1
2
1
x1
⎟
⎜
⎛
⎞
⎟
⎜
1 2
1 x1
⎟
⎜0
3
3
x
+
x
1
2
⎜
⎟
⎟
⎜
⎜ −1 1
⎟
⎟
⎜
2
x
2
⎜
⎟.
⎟ y ⎜
1
2
⎜ 1 0 −1 x ⎟
⎜0
0
0 − x1 + x2 + x3 ⎟
⎟
3⎠
⎜
⎝
⎟
3
3
⎜
⎟
⎜
0 2
2 x4
⎠
⎝
2
2
0
0
0 − x1 − x2 + x4
3
3
El sistema (16) es compatible —determinado o indeterminado— precisamente si la matriz escalonada anterior no admite pivotes en su última columna, lo que es tanto como decir que se tienen a la vez estas igualdades:
1
2
2
2
− x1 + x2 + x3 = 0 y − x1 − x2 + x4 = 0,
3
3
3
3
o bien (multiplicando los dos miembros de ambas igualdades por −3):
x1 − 2x2 − 3x3 = 0
y
2x1 + 2x2 − 3x4 = 0.
En definitiva: los vectores del subespacio vectorial G de R4 son los vectores (x1 , x2 , x3 , x4 ) de R4 que satisfacen el siguiente sistema de ecuaciones
lineales homogéneo:
⎧
⎨ x1 − 2x2 − 3x3
=0
⎩ 2x1 + 2x2
− 3x4 = 0.
(17)
Este es, pues, un sistema de ecuaciones implícitas para el subespacio vectorial G. Estas ecuaciones implícitas y las ecuaciones paramétricas escritas
en (16) definen el mismo subespacio vectorial de R4 .
Al procedimiento de obtención de unas ecuaciones implícitas a partir de
unas ecuaciones paramétricas se le denomina eliminación de parámetros.
III. VECTORES
Eliminación de parámetros
(caso general)
383
¿Cómo funciona la eliminación de parámetros en general? Es una
generalización inmediata de lo que hemos visto en el ejemplo del § 382.
Consideremos un subespacio vectorial F de Rn de-
neales de matriz ampliada
A
X
admite entonces
terminado por un sistema de ecuaciones paramétri-
solución precisamente si las expresiones lineales de la
cas de matriz de coeficientes A.
Fijemos a su vez
matriz X correspondientes a las filas nulas de la ma-
y denotemos por X
triz A son iguales a 0 (para evitar pivotes en la última
la matriz columna cuyos términos son las componen-
columna). Estas expresiones lineales igualadas a 0, que
tes de este vector: x1 , x2 , . . . , xn . Sabemos que el vec-
tenemos en cantidad igual a n − r , forman un sistema
tor (x1 , x2 , . . . , xn ) pertenece al subespacio F precisa-
de ecuaciones implícitas del subespacio vectorial F .
mente si el
de ecuaciones lineales de matriz
sistema
ampliada A X admite solución (§ 368, y § 277,
Para finalizar, nos queda un detalle. ¿Qué ocurre
si el rango de la matriz A es igual a n? En este
p. 255). Escalonemos esta matriz ampliada,
con lo cual
X . En
obtendremos otra, que denotamos por A
caso, el sistema de ecuaciones lineales de matriz amX —que tiene n ecuaciones—, y por
pliada A
X , admite solución
tanto el de matriz ampliada A
un vector (x1 , x2 , . . . , xn ) de R
n
cada término de la matriz columna X queda alguna
expresión lineal en las variables x1 , x2 , . . . , xn , es de-
para cualquier elección de los términos independientes
cir, alguna expresión del tipo a1 x1 + a2 x2 + · · · + an xn
(cf. § 175, p. 169), y en definitiva para cualquier elección
para algunos números a1 , a2 , . . . , an (compárese con el
ejemplo del citado § 382).
del vector (x1 , x2 , . . . , xn ). El sistema de ecuaciones
paramétricas que nos han dado para F es verificado,
Supongamos ahora que el rango de la matriz A —y
pues, por todos los vectores de Rn ; es decir: F = Rn .
por tanto el número de filas no nulas de la matriz A —,
¿Y unas ecuaciones implícitas para Rn ? Nos vale cual-
que denotamos por r , es menor que n, de forma que
hay alguna fila nula en A . El sistema de ecuaciones li-
quier sistema de ecuaciones lineales homogéneo con n
incógnitas que tenga todas sus ecuaciones nulas.
El caso de Rn
384
El mismo Rn es un subespacio vectorial de Rn . ¿Cómo son unas
ecuaciones paramétricas y unas ecuaciones implícitas para Rn ?
Las primeras no tienen ninguna peculiaridad: buscamos un sistema de
generadores de Rn y escribimos a partir de él un sistema de ecuaciones
paramétricas. Por ejemplo, el sistema (4, 2), (−2, 5) es un sistema de generadores de R2 (de hecho, es una base de R2 , cf. § 337, p. 295); el sistema
de ecuaciones paramétricas que podemos escribir a partir de él toma esta
forma (denotando por λ y μ los parámetros):
⎧
⎨ x1 = 4λ − 2μ
⎩ x2 = 2λ + 5μ.
Y el sistema de ecuaciones paramétricas construido a partir de la base caRecuérdese:
BC = (1, 0), (0, 1) .
nónica de R2 (cf. § 345, p. 298) es el siguiente:
⎧
⎨ x1 = λ
⎩ x2 =
μ.
III.3. INDEPENDENCIA LINEAL
En cuanto a unas ecuaciones implícitas para Rn , sí son un tanto peculiares: según apuntamos al final del § 383 (véase la demostración allí incluida), como sistema de ecuaciones implícitas de Rn nos sirve cualquier
sistema de ecuaciones lineales homogéneo, con n incógnitas, en el que sean
nulas todas las ecuaciones. Por ejemplo, este sistema formado por una sola
ecuación de dos incógnitas:
Debido a su simpleza, no se
suele trabajar con ecuaciones
implícitas de Rn .
es un sistema de ecuaciones implícitas para R2 : cualquier vector (x1 , x2 )
de R2 es solución de la ecuación nula 0x1 + 0x2 = 0.
385
El caso de {0}
0x1 + 0x2 = 0 ,
Nos preguntamos ahora: ¿cómo son unas ecuaciones paramétricas
y unas ecuaciones implícitas del subespacio vectorial {0}?
El sistema de vectores 0 es un sistema de generadores del subespacio
vectorial {0}; si estamos en Rn , el sistema de ecuaciones paramétricas que
escribimos a partir del sistema de generadores 0 es este:
Podemos escribir el parámetro
—aquí: λ— para enfatizar que
son ecuaciones paramétricas.
⎧
⎪
x1 = 0λ
⎪
⎪
⎪
⎪
⎪
⎪
⎨ x2 = 0λ
..
..
⎪
⎪
⎪
.
.
⎪
⎪
⎪
⎪
⎩ x = 0λ,
n
o simplemente:
⎧
⎪
x1 = 0
⎪
⎪
⎪
⎪
⎪
⎪
⎨ x2 = 0
..
..
⎪
⎪
⎪
.
.
⎪
⎪
⎪
⎪
⎩ x = 0.
n
Por ejemplo, unas ecuaciones paramétricas para el subespacio {(0, 0)} son
⎧
⎧
⎨ x1 = 0
⎨ x1 = 0λ
o
⎩ x2 = 0.
⎩ x2 = 0λ,
¿Y unas ecuaciones implícitas del subespacio vectorial {0}? Nos vale
cualquier sistema de ecuaciones lineales homogéneo, con tantas incógnitas
como componentes tenga el vector 0, que sea compatible determinado: un
sistema tal tendrá como única solución el vector 0. Verbigracia, un sistema
de ecuaciones implícitas para el subespacio vectorial {(0, 0)} podría ser este:
⎧
⎪
⎪
⎪ 2x1 + x2 = 0
⎨
=0
3x1
⎪
⎪
⎪
⎩ x − x = 0,
1
⎛
2
⎜
rango ⎝ 3
1
⎞
1
⎟
0⎠ = 2
−1
2
pues tiene dos incógnitas —y son dos las componentes del vector (0, 0)— y
admite una única solución —por supuesto, la nula: (0, 0)—. Nótese que la
matriz de coeficientes del sistema tiene rango igual al número de incógnitas.
III. VECTORES
Ecuaciones implícitas a partir
de unos generadores
386
Dados unos generadores de un subespacio vectorial, ¿cómo escribi-
mos unas ecuaciones implícitas del subespacio? Tener unos generadores
es tanto como tener unas ecuaciones paramétricas (§ 372), luego podríamos
escribir las ecuaciones paramétricas correspondientes a los generadores dados, y aplicar el procedimiento de eliminación de parámetros para obtener
unas ecuaciones implícitas (por ejemplo, § 382). Así lo haremos, pero con
una pequeña salvedad.
El procedimiento de eliminación de parámetros requiere escribir la matriz ampliada del sistema de ecuaciones paramétricas (la cual es la matriz
que se escalona); si partimos de los generadores, no hace falta escribir
las ecuaciones paramétricas mismas, pues la matriz ampliada de la que
hablamos es justamente la que tiene por vectores columna los generadores dados y el vector genérico del espacio vectorial correspondiente.
Por ejemplo, para calcular un sistema de ecuaciones implícitas del subespacio vectorial de R4 generado por los tres vectores (1, −1, 1, 0), (2, 1, 0, 2)
En este ejemplo estamos con
vectores de R4 : el vector genérico es (x1 , x2 , x3 , x4 ).
y (1, 2, −1, 2), empezamos escribiendo la matriz cuyos vectores columna
son estos tres vectores y el vector genérico (x1 , x2 , x3 , x4 ):
⎛
1
⎜
⎜ −1
⎜
⎜ 1
⎝
0
2
1
0
2
1
2
−1
2
⎞
x1
⎟
x2 ⎟
⎟,
x3 ⎟
⎠
x4
y procedemos a escalonar la matriz. Ahora bien, ya tenemos este trabajo
hecho en otro lugar: si nos fijamos, esta matriz es la misma que obteníamos
en el § 382 —y que allí recordamos del § 279 (cf. p. 258)—, así que los
cálculos a partir de ahora serían exactamente los mismos que llevamos a
Recordamos el sistema (17):
⎧
⎨ x1 − 2x2 − 3x3
=0
⎩ 2x + 2x
− 3x = 0.
1
2
4
cabo en este citado § 382. El sistema de ecuaciones lineales homogéneo (17)
es, pues, un sistema de ecuaciones implícitas para el subespacio vectorial
de R4 generado por los vectores (1, −1, 1, 0), (2, 1, 0, 2) y (1, 2, −1, 2), es
decir, para el subespacio vectorial L (1, −1, 1, 0), (2, 1, 0, 2), (1, 2, −1, 2) .
Nota bene
Si el lector relee el ejemplo del § 279 (cf. p. 258), notará que todos los
cálculos allí realizados son los mismos que los realizados aquí (y en el § 382). En
este y otros ejemplos de la Sección III.1, caracterizábamos todos los vectores
que son combinación lineal de unos vectores dados como las soluciones de ciertos sistemas de ecuaciones lineales homogéneos. Con el lenguaje que hemos ido
aprendiendo hasta aquí, podemos apreciar que este problema es exactamente
el de calcular unas ecuaciones implícitas de un subespacio vectorial del cual
conocemos unos generadores.
III.3. INDEPENDENCIA LINEAL
¿Cuándo dos sistemas de
ecuaciones implícitas
representan el mismo
subespacio vectorial?
387
Si dos sistemas de ecuaciones lineales homogéneos son equivalen-
tes (y por tanto tienen las mismas soluciones), entonces es claro que ambos
son sistemas de ecuaciones implícitas de un mismo subespacio vectorial.
Pero podemos decir más; de hecho, se verifica un resultado análogo al que
vimos en el § 374 para las ecuaciones paramétricas. En concreto: afirmar
que dos sistemas de ecuaciones implícitas representan un mismo subespacio vectorial es equivalente a afirmar que las matrices de coeficientes de
ambos sistemas cumplen esta propiedad: tras añadir filas nulas a la que
menos filas tenga de forma que ambas resulten del mismo orden, una de las
matrices se puede obtener de la otra mediante la aplicación de transformaciones elementales por filas sucesivas.
La justificación de este resultado es esencialmente la misma que la justificación del resultado que hemos recordado del citado § 374.
Nota bene
Cuando dos sistemas de ecuaciones implícitas corresponden al mis-
mo subespacio vectorial, ambos sistemas tienen el mismo número de incógnitas
(tantas como componentes tienen los vectores del subespacio), con lo que las
dos matrices de coeficientes tienen el mismo número de columnas.
Esto también se puede deducir
del teorema 3 (§ 378).
Nótese también que si dos sistemas de ecuaciones implícitas representan
el mismo subespacio vectorial, en particular el rango de sus matrices de
coeficientes es el mismo.
Número mínimo de
ecuaciones implícitas
388
Dado un subespacio vectorial, sabemos que todos los sistemas de
ecuaciones paramétricas que lo representan tienen el mismo número de
ecuaciones —tantas como componentes tienen los vectores—, y que es el
número de parámetros el que puede variar; pero también sabemos que este
número de parámetros es mínimo para aquellos sistemas escritos a partir
de una base del subespacio vectorial (§ 375).
En el caso de los sistemas de ecuaciones implícitas, todos los que representan a un mismo subespacio vectorial tienen en común el número de
incógnitas —tantas como componentes presentan los vectores—, y puede
variar de unos a otros la cantidad de ecuaciones. Nos planteamos entonces
de qué forma sería posible minimizar el número de ecuaciones.
Pongamos que estamos hablando de un subespacio vectorial de Rn con
Excluimos el caso en que el
subespacio sea el mismo Rn ,
para evitar hablar de sistemas
de cero ecuaciones.
dimensión igual a d, donde d < n. Se tiene entonces que el número mínimo
de ecuaciones que debe tener cualquier sistema de ecuaciones implícitas
que represente el subespacio vectorial es n − d. Es decir, es posible determinar el subespacio vectorial con exactamente n − d ecuaciones implícitas,
pero no es posible conseguirlo con menos.
III. VECTORES
Si recordamos la demostración del resultado del
§ 383, nos dan un sistema de ecuaciones paramétri-
pues, un sistema de ecuaciones implícitas de exactamente n − d ecuaciones.
cas del subespacio vectorial y, después de eliminar
Por otra parte, de acuerdo con el teorema 3 (§ 378),
parámetros, nos queda una cantidad de ecuaciones implícitas igual a la diferencia entre n (número de com-
la matriz de coeficientes de un sistema de ecuaciones
implícitas que represente el subespacio vectorial debe
ponentes de los vectores) y el rango de la matriz de
tener rango igual a n − d. (En efecto, si tal matriz es A,
coeficientes del sistema de ecuaciones paramétricas, el
el teorema nos asevera que d = n − rango A, de lo que
cual coincide con la dimensión del subespacio (§ 372);
se deduce: rango A = n−d.) Pero una matriz debe tener
es decir, quedan n − d ecuaciones implícitas. El pro-
al menos tantas filas como marca su rango, luego debe
cedimiento descrito en el citado § 383 nos construye,
haber al menos n − d ecuaciones en el sistema.
Número mínimo de
ecuaciones implícitas de una
recta y de un plano
389
Una recta de Rn es un subespacio vectorial de Rn con dimensión
igual a 1. De acuerdo con el resultado probado en el § 388, cualquier sistema
de ecuaciones implícitas de una recta de Rn debe tener al menos n − 1 ecuaciones. Por ejemplo, una recta de R3 debe determinarse con al menos dos
ecuaciones implícitas.
De la misma forma, en cualquier sistema de ecuaciones implícitas de un
Pues la dimensión de un plano
es igual a 2.
¿Cómo descartar ecuaciones
implícitas sobrantes?
plano de Rn deben figurar al menos n − 2 ecuaciones. En particular, vemos
que un plano de R3 requiere únicamente una ecuación implícita.
390
Cuando un sistema de ecuaciones implícitas tiene más ecuaciones
que el mínimo dado por el resultado del § 388, es posible descartar ecuaciones del sistema de forma que las que queden sigan formando un sistema
de ecuaciones implícitas del mismo subespacio vectorial. Veamos cómo.
Como pedíamos en el § 388:
que el subespacio no coincida
con Rn y así evitar un posible
sistema de cero ecuaciones.
Nos dan un sistema de ecuaciones implícitas de un subespacio vectorial
de Rn con dimensión igual a d, donde d < n, pero el sistema dado tiene una
cantidad de ecuaciones mayor que n − d —que, como sabemos, es el mínimo número de ecuaciones implícitas que deberían figurar para determinar el
subespacio vectorial (§ 388)—. Con el fin de descartar ecuaciones implícitas,
de entre las dadas, de forma que queden al final n − d ecuaciones que sigan
siendo ecuaciones implícitas del mismo subespacio vectorial, podemos proceder así: escribimos la traspuesta de la matriz de coeficientes del sistema
dado y calculamos sus columnas básicas (cf. § 364, p. 308), lo cual requiere
escalonar la matriz y apuntar las columnas en las que figuran los pivotes; si
en la citada matriz de coeficientes del sistema dado nos quedamos solo con
aquellas filas que se corresponden con estas columnas básicas, el sistema
de ecuaciones lineales homogéneo cuya matriz de coeficientes es esta nueva
matriz verifica lo que queremos.
III.3. INDEPENDENCIA LINEAL
Si nos fijamos, conseguir lo que queremos —es de-
traspuesta también, y si en esta nos quedamos sola-
cir, a partir del sistema de ecuaciones implícitas da-
mente con las columnas básicas, la matriz que obtene-
do, escribir otro sistema de ecuaciones implícitas para
mos tiene n − d columnas y su rango sigue siendo igual
el mismo subespacio vectorial, pero solo con n − d
ecuaciones— es tanto como decartar filas en la matriz
a n − d (véase la demostración del resultado del citado
§ 364). Si de nuevo trasponemos, obtenemos una ma-
de coeficientes del sistema original hasta que queden
triz de rango igual a n − d, y con n − d filas. Esta es la
solo n − d de ellas, pero llevando a cabo tal tarea de
matriz que buscamos: el sistema de ecuaciones lineales
forma que el rango se conserve.
homogéneo que la tiene como matriz de coeficientes es
La matriz de coeficientes original tiene rango igual
a n − d, como consecuencia del teorema 3 (§ 378); su
Un ejemplo
391
un sistema de ecuaciones implícitas que cumple lo que
queremos.
En el § 385, vimos un ejemplo de sistema de ecuaciones implícitas
del subespacio vectorial {(0, 0)}:
⎧
⎪
2x1 + x2 = 0
⎪
⎪
⎨
=0
3x1
⎪
⎪
⎪
⎩ x − x = 0.
1
2
(18)
Pero según el resultado del § 388, en vez de tres deberían bastarnos dos
ecuaciones implícitas: diferencia entre el número de componentes de los
vectores y la dimensión del subespacio vectorial {(0, 0)}: 2 − 0 = 2. ¿Qué
ecuación podría sobrar del sistema de ecuaciones implícitas (18)?
Apliquemos el resultado del § 390. Para ello, escribimos la traspuesta
La matriz de coeficientes del
sistema (18) es
⎛
⎞
2
1
⎜
⎟
0⎠.
⎝3
1 −1
de la matriz de coeficientes del sistema (18) y la escalonamos:
2
1
3
0
1
−1
1
F2 ←F2 − F1
2
→
2
0
3
−3/2
1
−3/2
.
Las columnas básicas (aquellas en las que figuran los pivotes) son la primera
y la segunda: nos quedamos entonces con las filas primera y segunda de la
matriz de coeficientes del sistema (18):
2
1
.
3
0
El sistema de ecuaciones lineales homogéneo que tiene por matriz de coeficientes esta matriz recién escrita, es decir:
⎧
⎨ 2x1 + x2 = 0
⎩ 3x1
= 0,
resulta ser entonces un sistema de ecuaciones implícitas para el subespacio
vectorial {(0, 0)}, y ello con un mínimo de ecuaciones.
III. VECTORES
Otro ejemplo
Este sistema es el (14) en el citado § 381.
392
En el § 381, consideramos el subespacio vectorial de R4 , denotado
por F , determinado por este sistema de ecuaciones implícitas:
⎧
⎪
+ 2x3 − x4 = 0
x1
⎪
⎪
⎨
x2 + 4x3 − x4 = 0
⎪
⎪
⎪
⎩ −x + x + 2x
= 0,
1
2
(14 )
3
y calculamos que su dimensión es igual a 2. De acuerdo con ello, el número
mínimo de ecuaciones implícitas para determinar F es 2 (diferencia entre
los números n = 4 —número de componentes de los vectores— y d = 2
—dimensión de F —). En el sistema de ecuaciones implícitas (14’) podría
sobrar, pues, una ecuación; ¿cuál descartar?
Aplicamos el resultado del § 390: al escalonar la matriz traspuesta de la
La matriz de coeficientes del
sistema (14’) es:
⎛
⎞
1 0 2 −1
⎜
⎟
⎝ 0 1 4 −1 ⎠ .
−1 1 2
0
Nótese bien que las columnas
básicas son la primera y la segunda.
matriz de coeficientes del sistema (14’), obtenemos:
⎛
⎛
⎛
⎞
⎞
1
0 −1
1
1
0 −1
F
←F
−2F
F
←F
−4F
3
3
1
3
3
2
⎜
⎜
⎜
⎟
⎟
⎜ 0
⎟ F4 ←F4 +F2 ⎜ 0
⎟ F4 ←F4 +F1 ⎜ 0
1
1
1
1
⎜
⎟ →
⎟ →
⎜
⎜
⎜ 2
⎜0
⎜0
4
4⎟
4
2⎟
⎝
⎝
⎝
⎠
⎠
0
0 −1 −1
−1 −1
0
0
1
0
0
⎞
−1
⎟
1⎟
⎟,
0⎟
⎠
0
con lo que nos podemos quedar solo con las ecuaciones primera y segunda
del sistema (14’):
⎧
⎨ x1
⎩
+ 2x3 − x4 = 0
x2 + 4x3 − x4 = 0.
Este es un sistema de dos ecuaciones implícitas del subespacio vectorial F
obtenido a partir del sistema (14’); no podemos tener menos ecuaciones.
Codimensión
Codimensión de un
subespacio vectorial
393
Queremos enfatizar lo siguiente: dado un subespacio vectorial, to-
dos los sistemas de ecuaciones implícitas que lo determinan tienen el mismo
rango en su matriz de coeficientes, y este rango es igual a la diferencia entre
el número de componentes de los vectores y la dimensión del subespacio
vectorial (esto se comprobó, por ejemplo, en la demostración del resultado
del § 388, como consecuencia del teorema 3, § 378). Esta diferencia de
números tiene una denominación particular.
Dado un subespacio vectorial de Rn , se denomina codimensión del subespacio vectorial a la diferencia entre la dimensión de Rn y la dimensión
del subespacio vectorial. Si designamos por F el subespacio vectorial, su
codimensión se denota así: codim F . Se tiene entonces:
codim F = dim Rn − dim F = n − dim F .
III.3. INDEPENDENCIA LINEAL
Nota bene
Si tenemos un subespacio vectorial determinado por un sistema de
ecuaciones implícitas, la codimensión del subespacio es igual al rango de la
matriz de coeficientes del sistema.
De acuerdo con el resultado del citado § 388, la codimensión de un
subespacio vectorial establece el número mínimo de ecuaciones implícitas
necesarias para definirlo.
Ejemplos
394
El subespacio vectorial F de R4 introducido en el § 381 verifica
que codim F = dim R4 − dim F = 4 − 2 = 2. Si recordamos de este parágrafo citado, el sistema de ecuaciones implícitas que allí define F tiene una
matriz de coeficientes de rango igual a 2; cualquier otro que pueda definir F
debe cumplir este requisito.
Una recta de Rn es un subespacio vectorial de Rn de codimensión igual
a n − 1. Cualquier sistema de ecuaciones implícitas que determine una recta
de Rn debe cumplir que el rango de su matriz de coeficientes es igual a n−1.
Un plano de Rn tiene codimensión igual a n − 2: es, pues, necesario un
sistema de ecuaciones implícitas de rango igual a n−2 para determinar uno.
Hiperplanos vectoriales
395
Un hiperplano vectorial es un subespacio vectorial de codimensión
igual a 1. En símbolos: dado un subespacio vectorial H de Rn , decimos
que H es un hiperplano vectorial de Rn si codim H = 1. Un hiperplano admite un sistema de ecuaciones implícitas formado por una única ecuación.
El plano de R3 que vimos en el ejemplo del § 377 —nos referimos al
subespacio vectorial L (1, −1, 2), (2, 0, 4) — es un hiperplano de R3 , pues su
codimensión es igual a 3 − 2 = 1. En este mismo parágrafo citado, vimos
que la ecuación lineal x3 − 2x1 = 0 (en solitario) es una ecuación implícita
del plano. Los hiperplanos de R3 son precisamente los planos de R3 .
También, los hiperplanos de R2 son justamente las rectas de R2 .
Definición alternativa
396
Según hemos visto en el § 395, un hiperplano admite una única
ecuación implícita. Surge esta duda: ¿cualquier subespacio vectorial determinado por una ecuación implícita en solitario es un hiperplano?
Como un hiperplano —por definición— tiene codimensión igual a 1, un
subespacio vectorial determinado por una única ecuación implícita es un
hiperplano precisamente si cumple este requisito: el sistema de ecuaciones
lineales formado por esa única ecuación tiene una matriz de coeficientes de
rango igual a 1 (§ 393). Esto es tanto como decir que la ecuación no debe ser
una ecuación nula. Como la ecuación es homogénea (su término independiente es igual a 0), ello es equivalente a su vez a que los coeficientes de la
III. VECTORES
ecuación no sean todos simultáneamente nulos. En definitiva: un hiperplano
de Rn es un subespacio vectorial de Rn que coincide con el conjunto de soluciones de una ecuación lineal de la forma a1 x1 + a2 x2 + · · · + an xn = 0,
con a1 , a2 , . . . , an no simultáneamente nulos.
Por ejemplo, el subespacio vectorial de R3 determinado por la ecuación
implícita 2x1 − 4x3 = 0 es un hiperplano de R3 . La ecuación lineal x2 = 0 es
la ecuación implícita de un hiperplano de R2 ; también lo es de un hiperplano
¿De qué subespacio vectorial
es ecuación implícita la ecuación 0x1 + 0x2 = 0?.
de R3 si la consideramos en las incógnitas x1 , x2 y x3 . Finalmente, la ecuación 0x1 + 0x2 = 0 no es la ecuación implícita de un hiperplano.
Ejercicios III.3
1
2
¿Qué diferencias hay entre 0, {0} y 0 ?
Considérense tres vectores v 1 , v 2 y v 3 de R3
c)
¿para qué valores de a y b forman los vectores
dados una base de R3 ?;
d)
según los valores de a y b, calcular la dimensión
que son linealmente independientes. ¿Es libre el sis
tema v 1 , v 2 , 2v 1 + 3v2 + v 3 ? Si v 4 es otro vec-
del subespacio vectorial de R3 generado por los tres
tor de R3 , ¿cómo tiene que ser v 4 para que el siste
ma v 1 , v 2 , v 3 , v 4 sea libre? ¿Cuál sería la respuesta a
subespacio?
esta pregunta si todos los vectores fueran de R4 ?
3 a)
Calcular, según los valores del parámetro a, la
dimensión del subespacio vectorial de R3 generado por
los vectores (1, 1, 1), (2, 2, 1) y (1, 3, a).
b)
Si el valor de a es tal que el sistema de vecto
res (1, 1, 1), (2, 2, 1), (1, 3, a) es una base de R3 , calcular las coordenadas en esta base del vector (−1, −3, 0).
4 Calcular los valores del parámetro a para los
cuales los dos sistemas de vectores (1, −1, 0), (2, 0, a)
y (1, 2, −3), (0, 1, −1) generan el mismo subespacio
de R3 . Calcular el rango de ambos sistemas y el del
sistema formado por sus cuatro vectores juntos.
5
Si a y b designan números reales, se consideran
los vectores (2, 0, 2), (3, 5, a) y (5, −1, b). Se pide:
a)
si a = 0 y b = 0, justificar que los vectores for-
man una base de R3 , y calcular las coordenadas del vec-
vectores; ¿para qué valores de a y b es un plano este
Considérese el subespacio vectorial G de R3 ge
nerado por T = (1, 1, 1), (1, 0, 1), (2, 1, 2), (0, 1, 0) , es
decir: G = L T . Se pide:
6
a)
escribir unas ecuaciones paramétricas de G;
b)
escribir unas ecuaciones implícitas de G;
c)
calcular la dimensión y la codimensión de G;
d)
escribir una base de G formada por vectores es-
cogidos entre los del sistema T ;
e)
¿es el subespacio G un plano?; ¿es un hiperplano?
7 Contestar a las mismas cuestiones del ejercicio
anterior tomando como sistema T este otro (esta vez,
de vectores de R4 ):
T = (1, 1, 1, 0), (1, 0, 1, 1), (2, 1, 2, 1), (0, 1, 0, −1) .
8 Si a designa un número real, se considera el sis
tema S = (1, 1, 1), (1, 0, 1), (2, 1, 2), (1, 1, a) , de vec-
el mismo orden en que figuran en el enunciado);
tores de R3 , y se denota por F el subespacio vectorial
de R3 que genera: F = L S . Se pide:
b)
¿para qué valores de a y b son los vectores dados
linealmente independientes?;
a)
según los valores de a, calcular la dimensión y la
codimensión de F ;
tor (0, 6, 2) en tal base (escrita esta con los vectores en
III.3. INDEPENDENCIA LINEAL
b)
según los valores de a, escribir una base de F for-
mada por vectores escogidos entre los del sistema S;
c)
escribir unas ecuaciones paramétricas de F ;
d)
posiblemente distinguiendo casos según los va-
lores de a, escribir unas ecuaciones implícitas de F ;
e)
11
Responder a lo mismo que en el ejercicio ante-
rior tomando como subespacio H el subespacio vectorial de R3 determinado por las siguientes ecuaciones
implícitas:
⎧
⎪ x1 − 2x2 + x3 = 0
⎪
⎪
⎪
⎪
⎪ 2x − 4x + 2x = 0
⎨
1
el subespacio F , ¿es un hiperplano para algún
valor de a?
9
Considérese el subespacio vectorial F de R3 de-
terminado por el siguiente sistema de ecuaciones paramétricas:
⎧
⎪
x1
⎪
⎪
⎪
⎪
⎪
⎨ x2
⎪
⎪
x3
⎪
⎪
⎪
⎪
⎩x
4
=
λ1 − 2λ2 + λ3
= −λ1 + λ2 + 2λ3
=
λ1
=
12
Considérense los sistemas de ecuaciones lineales
siguientes:
⎧
⎨ x + y + 2z = 1
(∗)
⎩x − y − z = 1
sistema de ecuaciones lineales homogéneo asociado al
sistema (∗)).
escribir unos generadores y una base de F ;
b)
calcular la dimensión y la codimensión de F ;
c)
llevando a cabo una eliminación de parámetros,
escribir unas ecuaciones implícitas de F ;
a)
Escribir todas las soluciones de ambos sistemas.
b)
Buscar una solución (a, b, c) del sistema (∗) con
esta propiedad: cualquier otra solución del sistema (∗)
se puede escribir como suma de (a, b, c) y alguna solución del sistema homogéneo (∗∗). ¿Hay alguna otra
solución del sistema (∗) con esta misma propiedad?
¿es el subespacio F un hiperplano?
c)
4
Se considera el subespacio vectorial H de R de-
terminado por el siguiente sistema de ecuaciones implícitas:
⎧
⎪
⎪
⎪
⎨
x1 + 2x2
Demostrar este resultado general: dado un sis-
tema de ecuaciones lineales no incompatible (es decir,
que admita solución), y fijada una de sus soluciones,
cualquier otra solución se puede escribir como suma
de la fijada y alguna del sistema homogéneo asociado.
=0
−2x1 − 4x2 + x3 + x4 = 0
⎪
⎪
⎪
⎩ −x − 2x + x + x = 0.
1
2
3
4
(19)
Para este subespacio H, se pide:
a)
y
⎧
⎨ x + y + 2z = 0
(∗∗)
⎩ x − y − z = 0,
dientes del primero (decimos que el sistema (∗∗) es el
3λ2 + λ3 .
a)
10
3
obtenido el segundo anulando los términos indepen-
− λ3
Se pide:
d)
2
⎪
⎪
x1
− 2x3 = 0
⎪
⎪
⎪
⎪
⎩ 2x − 2x − x = 0.
1
2
3
calcular la dimensión y la codimensión;
(Indicación: Resulta mucho más cómodo escribir los
sistemas —y sus soluciones— en notación matricial;
lo que hay que probar entonces es esto: dado un sistema AX = C y fijada una solución suya X1 , para cualquier otra solución X1 de este sistema existe alguna
solución X0 del sistema homogéneo asociado AX = O
tal que X1 = X1 + X0 .)
b)
encontrar un sistema de generadores y una base;
c)
escribir unas ecuaciones paramétricas;
d)
estudiar si es posible descartar alguna ecuación
ambos de Rn , del conjunto obtenido sumando a
del sistema (19) de forma que las que queden sigan for-
cada uno de los vectores de F el vector u decimos
mando un sistema de ecuaciones implícitas del mismo
subespacio H.
que es un subespacio afín de Rn ; se denota: u + F .
!
"
Es decir: u + F = u + x ! x ∈ F . (El subespacio
Nota
Dados un vector u y un subespacio vectorial F ,
III. VECTORES
afín u + F es una suerte de traslación del subespa-
necesariamente homogéneo) es un subespacio afín
cio vectorial F . ) De acuerdo con lo visto en el ejer-
definido (por traslación si queremos) a partir del
cicio anterior, podemos afirmar que el conjunto de
soluciones de un sistema de ecuaciones lineales (no
subespacio vectorial dado por el conjunto de solu
ciones de su sistema homogéneo asociado.
RECAPITULACIÓN III
RECAPITULACIÓN III
El conjunto Rn : vectores
El conjunto Rn es el
que tiene por elementos las n-uplas de números reales,
El hecho de que se verifiquen las ocho propiedades anteriores se sintetiza afirmando que el conjun-
es decir: (x1 , x2 , . . . , xn ) donde x1 , x2 , . . . , xn son nú-
to Rn , dotado de la adición y de la multiplicación por
2
meros reales. Si n = 2, los elementos de R son pares
números, es un espacio vectorial sobre R. Cuando tra-
ordenados: (x1 , x2 ); si n = 3, los elementos de R3 son
bajemos con Rn , implícitamente consideraremos su es-
4
ternas; si n = 4, los elementos de R son cuaternas.
Denotamos las n-uplas con letras en negrita, como x = (x1 , x2 , . . . , xn ). De esta n-upla, sus compo-
tructura de espacio vectorial, y llamaremos vectores a
sus elementos, y escalares a los elementos de R.
Dos vectores son iguales precisamente si sus com-
nentes primera, segunda, . . . , n-ésima son, respectiva-
ponentes correspondientes son iguales.
mente, x1 , x2 , . . . , xn .
igualdad vectorial (x1 , x2 , . . . , xn ) = (y1 , y2 , . . . , yn )
Se define la suma de dos n-uplas (x1 , x2 , . . . , xn )
y (y1 , y2 , . . . , yn ) como
(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn )
= (x1 + y1 , x2 + y2 , . . . , xn + yn )
Es decir, la
es equivalente a las n igualdades escalares x1 = y1 ,
x2 = y2 , . . . , xn = yn .
Dada una matriz A = aij de orden (n, m), su
j-ésimo vector columna es el vector de Rn cuyas componentes son los términos de la j-ésima columna de A,
es decir: (a1j , a2j , . . . , anj ); y su i-ésimo vector fila es
(suma componente a componente), y el producto de
el vector de Rm cuyas componentes son los términos
una n-upla (x1 , x2 , . . . , xn ) por un número λ como
de la i-ésima fila de A, esto es: (ai1 , ai2 , . . . , aim ).
Para una matriz de orden (n, m), hay m vectores
λ(x1 , x2 , . . . , xn ) = (λx1 , λx2 , . . . , λxn ).
Propiedades de la adición:
• asociativa: (x + y) + z = x + (y + z);
• la n-upla nula: (0, 0, . . . , 0) (con n ceros), denotada por 0, es el elemento neutro de la adición: x + 0 = 0 + x = x;
• cada n-upla es simetrizable: para cada n-upla
x = (x1 , x2 , . . . , xn ), su opuesta, definida así:
−x = −(x1 , x2 , . . . , xn ) = (−x1 , −x2 , . . . , −xn ), es
tal que x + (−x) = (−x) + x = 0;
• conmutativa: x + y = y + x.
columna y n vectores fila.
Decimos que un vector u es igual a una combinación lineal de k vectores dados v 1 , v 2 , . . . , v k si existen k escalares α1 , α2 , . . . , αk tales que:
u = α1 v 1 + α2 v 2 + · · · + αk v k .
Nos referiremos a los números α1 , α2 , . . . , αk como los
coeficientes de la combinación lineal.
Caso particular k = 1: u es combinación lineal de v 1
precisamente si u es múltiplo de v 1 .
Método práctico: El vector u es igual a alguna combinación lineal de los k vectores v 1 , v 2 , . . . , v k precisa-
La adición articula el conjunto Rn como un grupo abe-
mente si admite solución el sistema de ecuaciones li-
liano.
neales cuya matriz ampliada es la matriz que tiene por
Propiedades de la multiplicación por números:
vectores columna los vectores v 1 , v 2 , . . . , v k y u (en
• asociativa (en los números): λ(μx) = (λμ)x;
este orden); además, cada solución de este sistema da
• distributiva respecto de la adición de números:
unos coeficientes para la combinación lineal.
(λ + μ)x = λx + μx;
Propiedad: si un vector es combinación lineal de
• distributiva respecto de la adición de n-uplas:
unos vectores, y cada uno de estos lo es a su vez de
λ(x + y) = λx + λy;
• neutra para el número 1: 1x = x.
otros vectores dados, entonces el primer vector también es combinación lineal de estos últimos.
III. VECTORES
Subespacios vectoriales
Dado un conjunto F , no
tal que F = L v . En este caso, decimos también que el
vacío, de vectores, F subconjunto de Rn : F ⊆ Rn , deci-
vector v es un vector director de la recta F .
mos que F es un subespacio vectorial de Rn (o simplemente un subespacio de Rn ) si se satisfacen estas dos
un plano de Rn si existen dos vectores no nulos v 1
Decimos que un subespacio vectorial G de Rn es
y v 2 de Rn , ninguno de los dos múltiplo del otro, tales
que G = L v 1 , v 2 . En tal caso, además decimos que
condiciones:
• si x ∈ F y y ∈ F , entonces x + y ∈ F ;
• si λ ∈ R y x ∈ F , entonces λx ∈ F .
los vectores v 1 y v 2 son unos vectores directores del
Propiedades y algunos tipos de subespacios vectoriales:
plano G.
• cualquier subespacio vectorial presenta, por sí
Generadores de Rn : una condición necesaria y suficiente para que unos vectores de Rn generen Rn es que
mismo, estructura de espacio vectorial;
• el vector nulo: 0, es un vector de cualquier subes-
rango igual a n.
n
pacio vectorial de R ;
• si calculamos una combinación lineal de vectores
de un subespacio vectorial dado, el resultado es
un vector que sigue perteneciendo al subespacio
vectorial;
• los conjuntos Rn y {0} son subespacios vectoriales de Rn ;
• dados unos vectores, el conjunto formado por todos los vectores que son combinación lineal de
ellos es un subespacio vectorial;
• dado un sistema de ecuaciones lineales homogéneo de n incógnitas, el conjunto de sus solun
ciones es un subespacio vectorial de R .
Se denomina subespacio vectorial (o simplemente
subespacio) generado por unos vectores v 1 , v 2 , . . . , v k
de Rn al subespacio vectorial de Rn formado por todas
las combinaciones lineales de estos vectores. Se deno
ta: L v 1 , v 2 , . . . , v k .
Si F es un subespacio vectorial de Rn y unos vecto
res v 1 , v 2 , . . . , v k de Rn verifican: L v 1 , v 2 , . . . , v k = F ,
la matriz que los tiene como vectores columna tenga
Consecuencia: para generar el espacio vectorial Rn ,
hacen falta al menos n vectores.
Independencia lineal
Dados unos vectores, de-
cimos que son linealmente dependientes si alguno de
ellos se puede escribir como combinación lineal de los
demás.
Definición equivalente: los k vectores v 1 , v 2 , . . . , v k
son linealmente dependientes precisamente si existen k escalares α1 , α2 , . . . , αk , no todos nulos, tales
que α1 v 1 + α2 v 2 + · · · + αk v k = 0.
Propiedades:
• si entre unos vectores está el vector nulo, entonces tales vectores son linealmente dependientes;
• un solo vector es linealmente dependiente precisamente si es nulo;
• dos vectores tales que uno es múltiplo del otro
son linealmente dependientes;
• dados unos vectores linealmente dependientes,
el que entre ellos sea igual a una combinación
lineal de los demás es superfluo en el sentido si-
decimos que los vectores v 1 , v 2 , . . . , v k son unos generadores del subespacio vectorial F (o que generan el
guiente: si lo “eliminamos”, los que quedan ge-
subespacio vectorial F ).
todos juntos.
Propiedades
• si v es un vector (nulo o no) y λ es un número no
nulo, entonces L v = L λv ;
• si v 1 y v 2 son dos vectores no nulos tales que uno
es múltiplo del otro: L v 1 , v 2 = L v 1 = L v 2 .
Decimos que un subespacio vectorial F de Rn es
una recta de Rn si existe algún vector no nulo v de Rn
neran el mismo subespacio vectorial que generan
Dados unos vectores, decimos que son linealmente
independientes si ninguno de ellos se puede escribir
como combinación lineal de los demás.
Definición equivalente: los vectores v 1 , v 2 , . . . , v k
son linealmente independientes precisamente si de la
igualdad α1 v 1 + α2 v 2 + · · · + αk v k = 0 se deduce necesariamente que α1 = α2 = . . . = αk = 0.
RECAPITULACIÓN III
Propiedades:
• si entre unos vectores dados está el vector nulo,
entonces tales vectores no son linealmente independientes;
• un solo vector es linealmente independiente precisamente si es no nulo;
lineal de los vectores del sistema, entonces el sistema nuevo también es un sistema libre;
• si en un sistema de vectores intercambiamos dos
vectores, o multiplicamos un vector por un número no nulo, o sumamos a un vector un múltiplo de otro, obtenemos otro sistema del mismo
• dos vectores tales que ninguno es múltiplo del
tipo que el de partida: si el primero es ligado,
otro son linealmente independientes;
• dados unos vectores linealmente independientes,
el segundo también; si el primero es libre, el se-
cada uno de ellos es imprescindible en el sentido
Diremos de un sistema de vectores v 1 , v 2 , . . . , v k
siguiente: si lo “eliminamos”, los restantes no generan el mismo subespacio que generan todos
juntos;
• dados unos vectores v 1 , v 2 , . . . , v k linealmente
independientes, cualquier vector del subespa
cio L v 1 , v 2 , . . . , v k se puede escribir de una
única manera como combinación lineal de los
vectores v 1 , v 2 , . . . , v k .
Método práctico: Dados unos vectores, se forma
la matriz que los tiene como vectores columna. Si la
matriz tiene rango menor que el número de vectores,
entonces los vectores son linealmente dependientes; si
tiene rango igual al número de vectores, entonces los
vectores son linealmente independientes.
Un sistema de vectores es una lista, o colección,
finita ordenada de vectores de un mismo espacio vectorial. Unos vectores v 1 , v 2 , . . . , v k de Rn forman (en
este orden) un sistema de vectores de Rn , que se es
cribe así: v 1 , v 2 , . . . , v k .
A veces denotaremos los sistemas de vectores con
letras mayúsculas en negrita: S, B, etc.
gundo también.
que es un sistema de generadores de un subespacio
vectorial F de Rn si los vectores v 1 , v 2 , . . . , v k son unos
generadores de F , es decir, si L v 1 , v 2 , . . . , v k = F .
Propiedad: si en un sistema de generadores de un
subespacio vectorial intercambiamos dos vectores, o
multiplicamos un vector por un número no nulo, o sumamos a un vector un múltiplo de otro, obtenemos un
sistema de vectores que sigue siendo un sistema de generadores del mismo subespacio vectorial.
Un sistema de vectores B = v 1 , v 2 , . . . , v k de un
subespacio vectorial F es una base del subespacio vectorial F si se verifica: B es un sistema de generadores
de F (es decir: L v 1 , v 2 , . . . , v k = F ), y B es libre (o lo
que es lo mismo: los vectores v 1 , v 2 , . . . , v k son linealmente independientes).
Propiedades:
• una condición necesaria y suficiente para que un
sistema de vectores de Rn sea una base de Rn
es que esté formado por n vectores tales que el
rango de la matriz que los tiene como vectores
columna sea igual a n;
Decimos que un sistema de vectores es un sistema
• el número de vectores que figura en una base de
ligado si los vectores que lo forman son linealmente de-
un subespacio vectorial es el máximo múmero de
pendientes, y decimos que es un sistema libre si tales
vectores linealmente independientes que hay en
vectores son linealmente independientes.
Propiedades:
el subespacio vectorial;
• dado un subespacio vectorial, todas las bases que
• un sistema de vectores en el que figure el vector
tenga presentan el mismo número de vectores;
nulo es ligado;
• un sistema formado por un solo vector: v , es
• el subespacio vectorial {0} no admite base;
• cualquier subespacio vectorial de Rn distinto del
ligado si v = 0, y es libre si v ≠ 0;
• si a un sistema de vectores que es libre le adjuntamos un vector que no es igual a una combinación
subespacio vectorial {0} admite alguna base.
Dada una base B = v 1 , v 2 , . . . , v k de un subespacio vectorial F de Rn , si v es un vector de F , enton-
III. VECTORES
ces existen unos únicos números α1 , α2 , . . . , αk tales
• la dimensión de cualquier subespacio vectorial
que v = α1 v 1 + α2 v 2 + · · · + αk v k . Decimos que estos
de Rn es menor o igual que la de Rn , y se da la
números α1 , α2 , . . . , αk (en este orden) son las coordenadas del vector v en la base B.
igualdad solamente para el mismo Rn .
La base canónica de Rn , que se denota por BC , es el
sistema de vectores formado por los vectores columna
de la matriz identidad In :
BC = (1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0, . . . , 1) .
Se trata de una base de Rn . Las coordenadas de un
El rango de unos vectores v 1 , v 2 , . . . , v k , o de un
sistema de vectores v 1 , v 2 , . . . , v k , es el número máximo de vectores linealmente independientes entre ellos.
Se denota por rango v 1 , v 2 , . . . , v k .
Propiedades:
• el rango de unos vectores es igual a la dimensión
del subespacio vectorial que los vectores gene
ran: rango v 1 , v 2 , . . . , v k = dim L v 1 , v 2 , . . . , v k ;
vector en la base canónica son precisamente sus componentes.
• el rango de un sistema de vectores no varía si eje-
Si F es un subespacio vectorial de Rn distinto del
ciones: intercambiar dos vectores, multiplicar un
subespacio vectorial {0}, entonces admite base: se denomina dimensión del subespacio vectorial F a la cantidad de vectores de cualquiera de sus bases, y se designa por dim F .
Decimos que el subespacio vectorial {0} es de dimensión nula, o de dimensión igual a 0, y se escribe: dim{0} = 0.
Propiedades (consideramos un subespacio vectorial F de Rn ):
• las rectas son los subespacios vectoriales de dimensión igual 1, y los planos son los subespacios
vectoriales de dimensión igual a 2;
• la dimensión de un subespacio vectorial coincide
con el número máximo de vectores linealmente
independientes del subespacio (si dim F = p 1,
hay algún sistema libre de vectores de F formado
por p vectores, pero un sistema de vectores de F
que tenga más de p vectores es ligado);
• un sistema libre con tantos vectores como marque la dimensión es una base (si dim F = p 1
y tenemos p vectores v 1 , v 2 , . . . , v p de F que
son linealmente independientes, entonces el sis
tema v 1 , v 2 , . . . , v p es una base de F );
• también, un sistema de generadores con tantos
vectores como marque la dimensión resulta ser
una base (si dim F = p 1 y v 1 , v 2 , . . . , v p
son p vectores que generan F , entonces el sis
tema v 1 , v 2 , . . . , v p es una base de F );
• dim Rn = n;
cutamos en el sistema alguna de estas manipulavector por un número no nulo, y sumar a un vector un múltiplo de otro.
Método práctico: El rango de unos vectores es igual
al rango de la matriz que los tiene como vectores columna, y también es igual al rango de la matriz que los
tiene como vectores fila.
Recopilación de los métodos prácticos: dados unos
vectores de Rn , calculamos su rango (como el rango de
la matriz que los tiene como vectores columna, o el de
la matriz que los tiene como vectores fila). Se cumple:
• si el rango resulta menor que la cantidad de vectores, entonces los vectores son linealmente dependientes;
• si el rango es igual que la cantidad de vectores,
entonces los vectores son linealmente independientes;
• si el rango es menor que el número de componentes de los vectores (es decir, menor que n),
entonces los vectores no son generadores de Rn ;
• si el rango es igual al número de componentes
de los vectores (es decir, igual a n), entonces los
vectores son generadores de Rn ;
• si el rango es igual, a la vez, a la cantidad de vectores y al número de componentes de estos, entonces los vectores forman una base de Rn .
Dada una matriz, llamamos columna básica a cualquier columna tal que la columna correspondiente de
alguna de sus formas escalonadas presenta un pivote.
RECAPITULACIÓN III
Dados unos vectores, escribimos la matriz cuyos
torial es equivalente a afirmar que las matrices
vectores columna son los vectores dados: entre estos
de coeficientes de ambos sistemas cumplen esta
vectores, aquellos que se corresponden con las columnas básicas de la matriz descrita forman una base del
propiedad: tras añadir columnas nulas a la que
menos columnas tenga de forma que ambas que-
subespacio vectorial generado por todos los vectores
den del mismo orden, una de las matrices se
juntos.
puede obtener de la otra mediante la aplicación
Este cálculo no se puede llevar a cabo en la matriz
cuyos vectores fila son los vectores dados: solo con la
que los tiene como vectores columna.
Ecuaciones de un subespacio vectorial
Conside
ramos un sistema de generadores v 1 , v 2 , . . . , v k de un
subespacio vectorial F de Rn . Escribimos el sistema
de ecuaciones lineales, en las incógnitas λ1 , λ2 , . . . , λk ,
cuya matriz de coeficientes tiene por vectores columna
los vectores v 1 , v 2 , . . . , v k y cuya matriz de términos
independientes tiene por vector columna un vector genérico (x1 , x2 , . . . , xn ). Decimos que este sistema es
un sistema de ecuaciones paramétricas del subespacio vectorial F (también decimos que sus ecuaciones
son unas ecuaciones paramétricas del subespacio vectorial F ). Si v i = (vi1 , vi2 , . . . , vi n ) (para cada 1 i k),
el sistema de ecuaciones paramétricas toma la forma:
⎧
⎪
x1 = v11 λ1 + v21 λ2 + · · · + vk1 λk ,
⎪
⎪
⎪
⎪
⎪
⎨ x2 = v12 λ1 + v22 λ2 + · · · + vk2 λk ,
⎪
⎪ .......................................
⎪
⎪
⎪
⎪
⎩
xn = v1n λ1 + v2n λ2 + · · · + vkn λk .
Las incógnitas de un sistema de ecuaciones paramétricas también reciben el nombre de parámetros.
de transformaciones elementales por columnas
sucesivas;
• cuando se escribe un sistema de ecuaciones paramétricas de un subespacio vectorial, se minimiza
la cantidad de parámetros si el sistema de generadores a partir del cual se escribe el sistema de
ecuaciones es una base del subespacio vectorial
(además, en este caso, tal cantidad de parámetros
coincide con la dimensión del subespacio).
Si un subespacio vectorial F de Rn es tal que coincide con el conjunto de soluciones de un sistema de
ecuaciones lineales homogéneo (de n incógnitas), decimos que el sistema homogéneo es un sistema de ecuaciones implícitas del subespacio vectorial F (o simplemente que las ecuaciones del sistema homogéneo son
unas ecuaciones implícitas del subespacio vectorial F ).
Teorema fundamental del Álgebra Lineal: El conjunto de soluciones de un sistema de ecuaciones lineales homogéneo con n incógnitas, con matriz de coeficientes A, es un subespacio vectorial de Rn de dimensión igual a n − rango A.
Propiedades:
• afirmar que dos sistemas de ecuaciones implícitas representan un mismo subespacio vectorial
Dado un sistema de ecuaciones paramétricas de
es equivalente a afirmar que las matrices de coe-
un subespacio vectorial de Rn que esté escrito a par-
ficientes de ambos sistemas cumplen esta propiedad: tras añadir filas nulas a la que menos filas
tir de k generadores del subespacio, los vectores del
subespacio vectorial son aquellos cuyas componen-
tenga de forma que ambas resulten del mismo or-
tes x1 , x2 , . . . , xn se obtienen dando valores a los pa-
den, una de las matrices se puede obtener de la
rámetros λ1 , λ2 , . . . , λk en las ecuaciones del sistema.
otra mediante la aplicación de transformaciones
Propiedades:
• la dimensión de un subespacio vectorial es igual
elementales por filas sucesivas;
• para representar un subespacio vectorial de Rn
al rango de la matriz de coeficientes de cualquier
con dimensión igual a d, donde d < n, el número
sistema de ecuaciones paramétricas que lo repre-
mínimo de ecuaciones implícitas es n − d.
sente;
• afirmar que dos sistemas de ecuaciones paramétricas representan un mismo subespacio vec-
Dado un sistema de ecuaciones implícitas de un
subespacio vectorial de Rn con dimensión igual a d
(tal que d < n) en el que figuren más de n − d ecua-
III. VECTORES
ciones, es posible descartar ecuaciones implícitas, de
acompañando a las filas nulas de la matriz de coefi-
entre las dadas, de forma que queden al final n − d
cientes). Este procedimiento se denomina eliminación
ecuaciones que sigan siendo ecuaciones implícitas del
mismo subespacio vectorial. Para ello, podemos pro-
de parámetros.
De la misma forma es posible escribir unas ecuacio-
ceder así: escribimos la traspuesta de la matriz de coe-
nes implícitas a partir de unos generadores.
ficientes del sistema dado y calculamos sus columnas
básicas; si en la citada matriz de coeficientes del sistema nos quedamos solo con aquellas filas que se corresponden con estas columnas básicas, el sistema de
ecuaciones lineales homogéneo cuya matriz de coeficientes es esta nueva matriz verifica lo que queremos.
Se denomina codimensión de un subespacio vectorial F de Rn , y se denota: codim F , a la diferencia entre
la dimensión de Rn y la de F : codim F = dim Rn − dim F
(que es igual a n − dim F ).
Propiedades:
• la codimensión de un subespacio vectorial es
Paso de ecuaciones implícitas a paramétricas: Se re-
igual al rango de la matriz de coeficientes de cual-
suelve el sistema de ecuaciones implícitas: al escribir
quier sistema de ecuaciones implícitas que lo de-
todas sus soluciones según el método visto en el Capí-
termine;
tulo I, ya quedan escritas unas ecuaciones paramétri-
• la codimensión de un subespacio vectorial esta-
cas (además, a partir de estas últimas —en los vectores
blece el número mínimo de ecuaciones implícitas
columna de su matriz de coeficientes—, se leen unos
necesarias para definirlo.
vectores generadores).
Paso de ecuaciones paramétricas a implícitas: Se
Decimos que un subespacio vectorial H de Rn es
un hiperplano vectorial de Rn si codim H = 1.
discute el sistema de ecuaciones paramétricas según los
Equivalentemente: un hiperplano vectorial de Rn es
valores de x1 , x2 , . . . , xn : las ecuaciones implícitas son
un subespacio vectorial de Rn que coincide con el con-
las condiciones que deben cumplir x1 , x2 , . . . , xn para
junto de soluciones de una ecuación lineal de la for-
que el sistema sea compatible, bien determinado, bien
indeterminado (tras escalonar la matriz ampliada del
ma a1 x1 + a2 x2 + · · · + an xn = 0, con a1 , a2 , . . . , an
no simultáneamente nulos.
sistema de ecuaciones paramétricas, las ecuaciones im-
Los hiperplanos de R3 son precisamente los planos
plícitas se obtienen al igualar a 0 las expresiones linea-
de R3 , y los hiperplanos de R2 son justamente las rec-
les en x1 , x2 , . . . , xn que quedan, en la última columna,
tas de R2 .
BIBLIOGRAFÍA
Ballvé, María E., et al. Matemáticas (Acceso a la universidad), vols. 1 y 2. Sanz
y Torres, 2012.
Barbolla, Rosa y Paloma Sanz. Álgebra Lineal y teoría de matrices. Prentice
Hall, 1997.
Bujalance, Emilio, et al. Matemáticas Especiales. Sanz y Torres, 2000, segunda
edición.
de Burgos, Juan. Curso de Álgebra y Geometría. Alhambra Universidad, 1987.
Cuesta Dutari, Norberto. La Sinfonía del Infinito. Ediciones Universidad de
Salamanca, Salamanca, 1981.
Delgado, Miguel, et al. Matemáticas (Álgebra, Cálculo, Geometría, Probabilidad). Teoría, problemas resueltos y propuestos. McGraw-Hill, 1999.
Fernando, José F., et al. Álgebra Lineal, vols. 1 y 2. Sanz y Torres, 2010.
Hernández, Víctor, et al. Introducción a las Matemáticas —Acceso a la Universidad. Ediciones Académicas, 2014, quinta edición.
Michel, Philippe. Cours de Mathématiques pour Economistes. Économica, París,
1989, segunda edición.
Prieto, Emilio y Alberto A. Álvarez. Álgebra Lineal para Administración y Dirección de Empresas. Sanz y Torres, 2010.
Prieto, Emilio y Alberto A. Álvarez. Problemas resueltos de Álgebra Lineal
para Administración y Dirección de Empresas. Sanz y Torres, 2010.
Primo Martínez, Ángel. Matemáticas —Curso de Orientación Universitaria. SM,
1986.
Simon, Carl P. y Lawrence Blume. Mathematics for Economists. Norton, 1994.
Juan del Rosal, 14
28040 Madrid
Tel. Dirección Editorial: 913 987 521
Descargar