MATRICES Las matrices aparecen por primera vez hacia el año 1850, introducidas por J.J. Sylvester El desarrollo inicial de la teoría se debe al matemático W.R. Hamilton en 1853 En 1858, A. Cayley introduce la notación matricial como una forma abreviada de escribir un sistema de m ecuaciones lineales con n incógnitas. Las matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones lineales, de las ecuaciones diferenciales y de las derivadas parciales. Además de su utilidad para el estudio de sistemas de ecuaciones lineales, las matrices aparecen de forma natural en geometría, estadística, economía, informática, física, etc... La utilización de matrices (arrays) constituye actualmente una parte esencial dn los lenguajes de programación, ya que la mayoría de los datos se introducen en los ordenadores como tablas organizadas en filas y columnas : hojas de cálculo, bases de datos,... CONCEPTO DE MATRIZ Una matriz es un conjunto de elementos de cualquier naturaleza aunque, en general, suelen ser números ordenados en filas y columnas. Se llama matriz de orden "m × n" a un conjunto rectangular de elementos aij dispuestos en m filas y en n columnas. El orden de una matriz también se denomina dimensión o tamaño, siendo m y n números naturales. Las matrices se denotan con letras mayúsculas: A, B, C, ... y los elementos de las mismas con letras minúsculas y subíndices que indican el lugar ocupado: a, b, c, ... Un elemento genérico que ocupe la fila i y la columna j se escribe aij . Si el elemento genérico aparece entre paréntesis también representa a toda la matriz : A = (aij) Cuando nos referimos indistíntamente a filas o columnas hablamos de lineas. El número total de elementos de una matriz Am×n es m·n En matemáticas, tanto las Listas como las Tablas reciben el nombre genérico de matrices. Una lista numérica es un conjunto de números dispuestos uno a continuación del otro. MATRICES IGUALES Dos matrices A = (aij)m×n y B = (bij)p×q son iguales, sí y solo si, tienen en los mismo lugares elementos iguales, es decir : ALGUNOS TIPOS DE MATRICES Hay algunas matrices que aparecen frecuentemente y que según su forma, sus elementos, ... reciben nombres diferentes : Tipo de matriz FILA Definición Aquella matriz que tiene una sola fila, siendo su orden 1×n COLUMNA RECTANGULAR Aquella matriz que tiene una sola columna, siendo su orden m×1 Aquella matriz que tiene distinto número de filas que de columnas, siendo su orden m×n , TRASPUESTA Dada una matriz A, se llama traspuesta de A a la matriz que se obtiene cambiando ordenadamente las filas por las columnas. Se representa por At ó AT OPUESTA La matriz opuesta de una dada es la que resulta de sustituir cada elemento por su opuesto. La opuesta de A es -A. NULA Si todos sus elementos son cero. También se denomina matriz cero y se denota por 0m×n Ejemplo CUADRADA Aquella matriz que tiene igual número de filas que de columnas, m = n, diciendose que la matriz es de orden n. Diagonal principal : son los elementos a11 , a22 , ..., ann Diagonal secundaria : son los elementos aij con i+j = n+1 Traza de una matriz cuadrada : es la suma de los elementos de la diagonal principal tr A. SIMÉTRICA Es una matriz cuadrada que es igual a su traspuesta. A = At , aij = aji ANTISIMÉTRICA Es una matriz cuadrada que es igual a la opuesta de su traspuesta. A = -At , aij = -aji Necesariamente aii = 0 DIAGONAL Es una matriz cuadrada que tiene todos sus elementos nulos excepto los de la diagonal principal ESCALAR Es una matriz cuadrada que tiene todos sus elementos nulos excepto los de la diagonal principal que son iguales IDENTIDAD Es una matriz cuadrada que tiene todos sus elementos nulos excepto los de la diagonal principal que son iguales a 1. Tambien se denomina matriz Diagonal principal : Diagonal secundaria : unidad. TRIANGULAR Es una matriz cuadrada que tiene todos los elementos por encima (por debajo) de la diagonal principal nulos. Una matriz ortogonal es necesariamente cuadrada e invertible : A-1 = AT ORTOGONAL La inversa de una matriz ortogonal es una matriz ortogonal. El producto de dos matrices ortogonales es una matriz ortogonal. El determinante de una matriz ortogonal vale +1 ó 1. NORMAL Una matriz es normal si conmuta con su traspuesta. Las matrices simétricas, antisimétricas u ortogonales son necesariamente normales. INVERSA Decimos que una matriz cuadrada A tiene inversa, A-1, si se verifica que : A·A-1 = A-1·A = I Para establecer las reglas que rigen el cálculo con matrices se desarrolla un álgebra semejante al álgebra ordinaria, pero en lugar de operar con números lo hacemos con matrices. OPERACIONES CON MATRICES SUMA DE MATRICES La suma de dos matrices A = (aij)m×n y B = (bij)p×q de la misma dimensión (equidimensionales) : m = p y n = q es otra matriz C = A+B = (cij)m×n = (aij+bij) Es una ley de composición interna con las siguientes PROPIEDADES : · Asociativa : A+(B+C) = (A+B)+C · Conmutativa : A+B = B+A · Elem. neutro : ( matriz cero 0m×n ) , 0+A = A+0 = A · Elem. simétrico : ( matriz opuesta -A ) , A + (-A) = (-A) + A = 0 Al conjunto de las matrices de dimensión m×n cuyos elementos son números reales lo vamos a representar por Mm×n y como hemos visto, por cumplir las propiedades anteriores, ( M, + ) es un grupo abeliano. ¡¡ La suma y diferencia de dos matrices NO está definida si sus dimensiones son distintas. !! PRODUCTO DE UN NÚMERO REAL POR UNA MATRIZ Para multiplicar un escalar por una matriz se multiplica el escalar por todos los elementos de la matriz, obteniéndose otra matriz del mismo orden. Es una ley de composición externa con las siguientes PROPIEDADES : PRODUCTO DE MATRICES Dadas dos matrices A = (aij)m×n y B = (bij)p×q donde n = p, es decir, el número de columnas de la primera matriz A es igual al número de filas de la matriz B , se define el producto A·B de la siguiente forma : El elemento aque ocupa el lugar (i, j) en la matriz producto se obtiene sumando los productos de cada elemento de la fila i de la matriz A por el correspondiente de la columna j de la matriz B. MATRIZ INVERSA Se llama matriz inversa de una matriz cuadrada An y la representamos por A-1 , a la matriz que verifica la siguiente propiedad : A-1·A = A·A-1 = I Decimos que una matriz cuadrada es "regular" si su determinante es distinto de cero, y es "singular" si su determinante es igual a cero. PROPIEDADES : Sólo existe matriz inversa de una matriz cuadrada si ésta es regular. La matriz inversa de una matriz cuadrada, si existe, es única. Entre matrices NO existe la operación de división, la matriz inversa realiza funciones análogas. MÉTODOS PARA HALLAR LA MATRIZ INVERSA : o o o Aplicando la definición Por el método de Gauss Por determinantes RANGO DE UNA MATRIZ Llamamos menor de orden p de una matriz al determinante que resulta de eliminar ciertas filas y columnas hasta quedar una matriz cuadrada de orden p. Es decir, al determinante de cualquier submatriz cuadrada de A (submatriz obtenida suprimiendo alguna fila o columna de la matriz A). En una matriz cualquiera Am×n puede haber varios menores de un cierto orden p dado. Definición 1º (o característica) de una matriz es el orden del mayor de los menores distintos de cero. Por tanto, el rango no puede ser mayor al número de filas o de columnas. RANGO Definición 2º de una matriz es el número de líneas de esa matriz (filas o columnas) que son linealmente independientes. RANGO Una línea es linealmente dependiente de otra u otras cuando se puede establecer una combinación lineal entre ellas. P. Ej., si f1 = 2·f3 - 3·f4, entonces decimos que f1 es linealmente dependiente de f3 y f4. Una línea es linealmente independiente de otra u otras cuando no se puede establecer una combinación lineal entre ellas. El rango o característica de una matriz A se simboliza del siguiente modo : rang(A) o r(A) OPERACIONES ELEMENTALES QUE PUEDEN REALIZARSE CON UNA MATRIZ PARA CALCULAR SU RANGO SIN QUE ÉSTE VARÍE 1. Intercambiar dos líneas entre sí. 2. Suprimir una línea que tenga todos sus elementos nulos. 3. Suprimir una línea que sea proporcional a otra. 4. Suprimir una línea que sea combinación lineal de otra/s 5. Multiplicar o dividir una línea por un número distinto de cero. 6. Sustituir una línea i de este modo : Li = a·Li + b·Lj 7. Sustituir una línea i de este modo : Li = Li + a·Lj Las propiedades anteriores NO pueden ser aplicadas en el cálculo de determinantes, pues alterarían el valor de los mismos, excepto en el caso 7. Sin embargo, todas ellas pueden utilizarse para averiguar el rango de una matriz sin que se modifique el valor de éste. Como mínimo, el rango de una matriz siempre será 1, salvo para la matriz nula, cuyo rango es cero. Para poder calcular el rango de una matriz ésta no tiene por que ser necesariamente cuadrada. Una matriz cuadrada de orden "n", como máximo su rango es n. Una matriz cuadrada de orden "n" es inversible (regular) si el rango es n. Es decir, cuando las filas (columnas) son linealmente independientes. Didiremos que dos matrices A y B son equivalentes ( A~B) si tienen el mismo rango. CÁLCULO DEL RANGO DE UNA MATRIZ 1º Método : basado en el cálculo de menores. Comenzando por el orden k=2 , se realiza el proceso siguiente (para una etapa k cualquiera) Se busca un menor de orden k, entonces el rango será k Se añade a dicho menor una fila i , y cada una de las columnas que en él no figuran, obteniéndose así menores de orden k+1. Si todos estos menores son nulos, significa que la fila i es combinación lineal de las k filas del menor anterior, por lo que podemos eliminar esa fila. Seguimos probando con las restantes filas, si todos los menores así formados son nulos, entonces la matriz tiene sólo k filas linealmente independientes, que son las que aparecen en el menor, y por tanto su rango es k. Si alguno de los menores k+1 es distinto de cero, el rango es k+1 y repetimos el proceso para otro orden k superior. EJEMPLO : Si al elegir un menor de orden 2 nos da 0, elegimos otro, y así sucesivamente hasta elegir todos, si todos son 0, el rango es 1. De la misma forma, cuando elegimos menores de orden 3. 2º Método : conocido como "método de Gauss" Se utiliza con frecuencia en la resolución de sistemas de ecuaciones lineales. Vamos a describir el método por filas (de igual forma sería por columnas). Básicamente consiste en hacer nulos los elementos que hay debajo de los aii con i= 1, 2, 3, ..., m-1 ; y el rango final será el número de filas distintas de cero. El método consta de m-1 etapas, siendo m el número de filas. En una etapa i cualquiera se deja fija la fila i , y tomando como referencia el elemento aii , por medio de operaciones elementales (nombradas anteriormente) se hacen cero todos los elementos de su columna que estén por debajo de él. Si el elemento aii es igual a cero, es preciso intercambiar previamente esa fila por alguna otra fila de debajo, y si no es posible (porque también sea cero) con alguna columna de la derecha, hasta conseguir que aii sea distinto de cero (es conveniente, para evitar cálculos tediosos que sea 1, si no lo fuera, utilizando operaciones sencillas intentaremos cambiarlo a 1). Finalmente, el rango es el número de filas distintas de cero que aparecen en la matriz. EJEMPLO : EJEMPLO : ESTUDIO DE SISTEMAS DE ECUACIONES LINEALES (s.e.l.) Para el estudio de sistemas de ecuaciones lineales empleamos dos herramientas matemáticas que nos van a facilitar los cálculos : las matrices y los determinantes. Las matrices y los determinantes nos permiten expresar de una manera clara, concisa y elegante la condición de compatibilidad de los sistemas de ecuaciones lineales (s.e.l.) Teorema de Rouché-Fröbenius -. Cuando estudiamos un s.e.l. debemos preguntarnos : ¿ Tiene soluciones el sistema ?, es decir, ¿ es compatible ? Si tiene soluciones ¿ cuántas y cúales son ? Visto esto, estudiar un sistema es : DISCUTIR = Averiguar si un s.e.l. tiene solución, y si tiene, ver si es única o no. RESOLVER = Hallar la solución si es única, o las soluciones si son infinitas. ESTUDIAR = DISCUTIR + RESOLVER Preliminares : La ecuación 2x - 3 = 0 se llama ecuación lineal de una variable. Obviamente sólo tiene una solución. La ecuación -3x + 2y = 7 se llama ecuación lineal de dos variables. Sus soluciones son pares ordenados de números. Tiene infinitas soluciones que se obtienen despejando una variable y dando valores cualesquiera a la otra. La ecuación x - 2y + 5z = 1 se llama ecuación lineal de tres variables. Sus soluciones son ternas ordenadas de números. Tiene infinitas soluciones que se obtienen despejando una variable y dando valores cualesquiera a las otras dos. En general, una ecuación lineal de "n" variables es del tipo : Las soluciones son las secuencias de números s1, s2, s3, ..., sn que hacen verdadera la igualdad [1] Si los coeficientes valen 0 y el término independiente no, la ecuación se llama incompatible. No tiene solución y también se denomina ecuación imposible, proposición falsa o igualdad absurda. Si los coeficientes y el término independiente son nulos, se dice que la ecuación es una identidad. Sistemas de Ecuaciones Lineales : Muchos problemas de la vida real nos obligan a resolver simultáneamente varias ecuaciones lineales para hallar las soluciones comunes a todas ellas. También resultan muy útiles en geometría (las ecuaciones lineales se interpretan como rectas y planos, y resolver un sistema equivale a estudiar la posición relativa de estas figuras geométricas en el plano o en el espacio). Un sistema de ecuaciones lineales es un conjunto de ecuaciones lineales que podemos escribir de forma tradicional así : un sistema así expresado tiene "m" ecuaciones y "n" incógnitas, donde aij son números reales, llamados coeficientes del sistema, los valores bm son números reales, llamados términos independientes del sistema, las incógnitas xj son las variables del sistema, y la solución del sistema es un conjunto ordenado de números reales (s1, s2, ..., sn) tales que al sustituir las incógnitas x1, x2, ... , xn por los valores s1, s2, ..., sn se verifican a la vez las "m" ecuaciones del sistema. Este mismo sistema de ecuaciones lineales en notación matricial tiene esta forma : Dode : Llamamos matriz del sistema a la matriz de dimensión m×n formada por los coeficientes del sistema, y la designamos por A. Designamos por X a la matriz columna formada por las incógnitas. Denotamos por B a la matriz columna formada por los términos independientes. y llamamos matriz ampliada de dimensión m×(n+1) a la matriz que se obtiene al añadir a la matriz del sistema (= matriz de coeficientes) la columna de los términos independientes, y la denotamos por A*, es decir Clasificación : Atendiendo a sus soluciones : Atendiendo a sus términos independientes : Discusión de un s.e.l. : Generalmente, para la discusión de un s.e.l., utilizamos el Teorema de RouchéFröbenius. « Un s.e.l. es compatible si, y sólo si, el rango de la matriz de coeficientes es igual al rango de la matriz ampliada con la columna de los términos independientes. Si estos rangos son distintos el sistema es incompatible. » Es decir, la condición necesaria y suficiente para que un sistema de m ecuaciones y n incógnitas tenga solución es que r(A) = r(A*), Si el número de incógnitas n es igual al rango h , la solución es única. Si el número de incógnitas n es mayor que el rango h , el sistema tiene infinitas soluciones. Si el sistema es compatible, el rango del sistema indica el número de ecuaciones linealmente independientes. Para los sistemas indeterminados la solución puede hallarse despejando k incógnitas principales en función de (n-h) incógnitas denominadas parámetros y que pueden tomar cualquier valor ( grados de libertad ). Al hallar el rango en matrices que provengan de s.e.l. es preciso tener en cuenta que si se intercambian columnas en la matriz de coeficientes ha de hacerse de igual forma el cambio correspondiente de incógnitas, teniendo especial cuidado con la columna de los términos independientes que conviene no moverla. En general, es aconsejable realizar todas las operaciones por filas. Caso particular : Sist. Homogéneos Como un sistema homogeneo es aquel que tiene todos sus términos independientes nulos, podemos observar que r(A) = r(A*) siempre, luego siempre son compatibles, ya que tienen al menos la solución (0, 0, 0, ... , 0) que se denomina solución trivial. Puesto que, en la práctica, esta solución carece de interés, suele decirse que un sistema homogéneo posee solución sólo si esta es distinta de la trivial. Si un sistema homogéneo presenta una solución distinta de la trivial : (s1, s2, ... , sn) entonces se cumple que son también solución todas las proporcionales a ella : ( k·s1, k·s2, ... , k·sn) , para todo número real k. Ejemplo: Métodos de Resolución de s.e.l. : Resolver un sistema de ecuaciones es hallar todas sus soluciones. Obviamente, un sistema se puede resolver cuando es compatible, es decir, lo primero que debemos hacer es discutir el sistema (teorema de Rouché-Fröbenius) para averiguar su compatibilidad. Para resolver un s.e.l. hay que hacer transformaciones en las ecuaciones hasta que todas las incógnitas queden despejadas. Estas transformaciones convierten nuestro sistema inicial en otro/s sistema/s (con aspecto distinto y más fáciles de resolver) que tienen las mismas soluciones ( = sistemas equivalentes ). Generalmente las transformaciones más habituales son : ( criterios de equivalencia ) - Intercambiar dos ecuaciones entre sí. - Suprimir una ecuación que tenga todos sus elementos nulos. - Suprimir una ecuación que sea proporcional a otra. - Suprimir una ecuación que sea combinación lineal de otra/s - Multiplicar o dividir una ecuación por un número distinto de cero. - Sustituir una ecuación i de este modo : Ei = Ei + a·Ej Métodos directos : Método de Gauss (por reducción) Método de Cramer (por determinantes) Por inversión de la matriz Método de Gauss-Jordan (por eliminación) Por sustitución Métodos iterativos : Método de Jacobi Método de Gauss-Seidel Vamos a resolver el mismo sistema por varios de éstos métodos para apreciar mejor sus diferencias Método de Gauss (por reducción) Dado un sistema de "m" ecuaciones con "n" incógnitas se trata de obtener un sistema equivalente cuya 1ª ecuación tenga n incógnitas, la segunda n-1, la tercera n-2, y así sucesivamente hasta llegar a la última ecuación, que tendrá una sola incógnita. Hecho esto, resolvemos la última ecuación, a continuación la penúltima, y así hasta llegar a la primera. Es decir, el método de Gauss consiste en triangular la matriz de coeficientes. Ejemplo: Resolver el siguiente sistema compatible determinado Ejemplo: Resolver el siguiente sistema compatible indeterminado Método de Cramer (por determinantes) Es aplicable si el sistema tiene igual número de ecuaciones que de incógnitas n=m y el determinante de la matriz de coeficientes es distinto de cero. Es decir, un sistema de Cramer es, por definición, compatible determinado y, por tanto, tiene siempre una solución única. El valor de cada incógnita xi se obtiene de un cociente cuyo denominador es el determinate de la matriz de coeficientes, y cuyo numerador es el determinante que se obtiene al cambiar la columna i del determinante anterior por la columna de los términos independientes. Ejemplo: Resolver el siguiente sistema compatible determinado Por inversión de la matriz Es aplicable si el sistema tiene igual número de ecuaciones que de incógnitas n=m y el determinante de la matriz de coeficientes es distinto de cero. Es decir, resuelve sistemas compatibles determinados (no-homogéneos). Ejemplo: Resolver el siguiente sistema compatible determinado Método de Gauss-Jordan Es una variante del método de Gauss, y resulta ser más simple al final del proceso, ya que no es preciso despejar las variables pues la solución se obtiene directamente. Se basa en diagonalizar la matriz de coeficientes. NOTA : Si eres usuario registrado del programa Derive, puedes probar la función ROW_REDUCE(v), donde v es la matriz ampliada. Esta función de Derive resuelve un s.e.l. por el método de Gauss-Jordan. Ejemplo: Queremos calcular la inversa de 1. Se escribe la matriz A junto a esta la matriz identidad, 2. Triangularizamos la matriz A de arriba a abajo y realizamos las mismas operaciones en la matriz de la derecha. Como podemos observar el rango de la matriz es máximo (en este caso 3), por tanto la matriz A es regular (tiene inversa), podemos calcular su inversa. 3. Triangularizamos la matriz de abajo a arriba, realizando las mismas operaciones en la matriz de la derecha. 4. Por último se divide cada fila por el elemento diagonal correspondiente.