Subido por Daniela Andrade

Resumen eliminacion de gauss - Chapra 5ta edicion

Anuncio
Eliminación de gauss
La eliminación de Gauss, implica una combinación de ecuaciones para eliminar las
incógnitas. Aunque éste es uno de los métodos más antiguos para resolver ecuaciones
lineales simultáneas, continúa siendo uno de los algoritmos de mayor importancia, y es la
base para resolver ecuaciones lineales en muchos paquetes de software populares.
9.1 solución de sistemas pequeños de ecuaciones
9.1.1 Método gráfico
Para dos ecuaciones se puede obtener una solución al graficarlas en coordenadas
cartesianas con un eje que corresponda a x1 y el otro a x2. Debido a que, en estos sistemas
lineales, cada ecuación se relaciona con una línea recta, lo cual se ilustra fácilmente
mediante las ecuaciones generales
a11x1 + a12x2 = b1
a21x1 + a22x2 = b2
En ambas ecuaciones se puede despejar:
De esta manera, las ecuaciones ahora están en la forma de líneas rectas; es decir, x2 =
(pendiente) x1 + intersección. Tales líneas se grafican en coordenadas cartesianas con x2
como la ordenada y x1 como la abscisa. Los valores de x1 y x2 en la intersección de las
líneas representa la solución.
Para tres ecuaciones simultáneas, cada ecuación se representa como un plano en un
sistema de coordenadas tridimensional. El punto en donde se intersecan los tres planos
representa la solución. Para más de tres incógnitas, los métodos gráficos no funcionan y,
por consiguiente, tienen poco valor práctico para resolver ecuaciones simultáneas. No
obstante, resultan útiles para visualizar propiedades de las soluciones.
9.1.2 Determinantes y la regla de Cramer
La regla de Cramer es otra técnica de solución adecuada para un sistema pequeño de
ecuaciones. Antes de hacer una descripción de tal método, se mencionará en forma breve
el concepto de determinante que se utiliza en la regla de Cramer. Además, el de- terminante
tiene relevancia en la evaluación del mal condicionamiento de una matriz.
Determinantes. El determinante se puede ilustrar para un sistema de tres ecuaciones
simultáneas:
[A]{X} = {B}
Donde [A] es la matriz de coeficientes:
El determinante D de este sistema se forma, a partir de los coeficientes del sistema, de la
siguiente manera:
Aunque el determinante D y la matriz de coeficientes [A] se componen de los mismos
elementos, son conceptos matemáticos completamente diferentes. Por esto, para
distinguirlos visualmente se emplean corchetes para encerrar la matriz y líneas rectas
verticales para el determinante. En contraste con una matriz, el determinante es un simple
número.
se calcula como
D = a11a22 – a12a2l
En el caso del determinante de tercer orden el determinante, que es un simple valor
numérico, se calcula así:
donde a los determinantes de 2 por 2 se les llama menores.
Regla de Cramer. Esta regla establece que cada incógnita de un sistema de ecuaciones
lineales algebraicas puede expresarse como una fracción de dos determinantes con
denominador D y con el numerador obtenido a partir de D, al reemplazar la columna de
coeficientes
de la incógnita en cuestión por las constantes
b1, b2, …, bn.
Por ejemplo, x1 se calcula como:
Para más de tres ecuaciones, la regla de Cramer no resulta práctica, ya que, conforme
aumenta el número de ecuaciones, los determinantes consumen tiempo al evaluarlos
manualmente (o por computadora). Por consiguiente, se usan otras alternativas más
eficientes.
9.1.3 Eliminación de incógnitas
La eliminación de incógnitas mediante la combinación de ecuaciones es un método
algebraico que se ilustra con un sistema de dos ecuaciones simultáneas:
a11x1 + a12x2 = b1
a21x1 + a22x2 = b2
La estrategia básica consiste en multiplicar las ecuaciones por constantes, de tal forma que
se elimine una de las incógnitas cuando se combinen las dos ecuaciones. El resultado es
una sola ecuación en la que se puede despejar la incógnita restante. Este valor se sustituye
en cualquiera de las ecuaciones originales para calcular la otra variable.
Por ejemplo:
a11a21x1 + a12a21x2 = b1a21
a21a11x1 + a22a11x2 = b2a11
a22a11x2 – a12a21x2 = b2a11 – b1a21
La eliminación de incógnitas se puede extender a sistemas con más de tres ecuaciones. Sin
embargo, los múltiples cálculos que se requieren para sistemas más grandes hacen que el
método sea extremadamente tedioso para realizarse a mano.
9.2 Eliminación de Gauss simple
Eliminación hacia adelante de incógnitas. La primera fase consiste en reducir el conjunto
de ecuaciones a un sistema triangular superior. El paso inicial será eliminar la primera
incógnita, x1, desde la segunda hasta la n-ésima ecuación. Para ello, se multiplica la
ecuación por a21/a11 para obtener:
donde el superíndice prima indica que los elementos han cambiado sus valores originales.
Sustitución hacia atrás.
Este resultado se puede sustituir hacia atrás en la (n – 1) ésima ecuación y despegar xn – 1.
El procedimiento, que se repite para evaluar las x restantes, se representa mediante la
fórmula:
9.2.1 Conteo de las operaciones
El trabajo total en la eliminación de Gauss simple se representa como:
En este análisis destacan dos conclusiones generales útiles:
1. Conforme el sistema se vuelve más grande, el tiempo de cálculo aumenta enormemente. La cantidad de FLOP aumenta casi tres órdenes de magnitud por cada orden
de aumento de la dimensión.
2. La mayor parte del trabajo ocurre en el paso de eliminación. Así, para hacer el
método más eficiente, debería enfocarse a este paso.
9.3 Dificultades en los métodos de eliminación
9.3.1 División entre cero
Durante las fases de eliminación y sustitución hacia atrás es posible que ocurra una división
entre cero. Por ejemplo, si se utiliza el método de eliminación de Gauss simple para resolver
2x2 + 3x3 = 8
4xl + 6x2 + 7x3 = –3
2x1 + x2 + 6x3 = 5
en la normalización del primer renglón habrá una división entre a11 = 0. También se pueden
presentar problemas cuando un coeficiente está muy cercano a cero. La técnica de pivoteo
se ha desarrollado para evitar en forma parcial estos problemas.
9.3.2 Errores de redondeo
El problema de los errores de redondeo llega a volverse particularmente importante cuando
se trata de resolver un gran número de ecuaciones. Esto se debe al hecho de que cada
resultado depende del anterior. Por consiguiente, un error en los primeros pasos tiende a
propagarse, es decir, a causar errores en los siguientes pasos.
9.3.3 Sistemas mal condicionados
Lo adecuado de una solución depende de la condición del sistema. Los sistemas bien
condicionados son aquellos en los que un pequeño cambio en uno o más coeficientes
provoca un cambio similarmente pequeño en la solución. Los sistemas mal condicionados
son aquellos en donde pequeños cambios en los coeficientes generan grandes cambios en
la solución. Debido a que los errores de redondeo llegan a provocar pequeños cambios en
los coeficientes, estos cambios artificiales pueden generar grandes errores en la solución
de sistemas mal condicionados.
9.3.4 Sistemas singulares
Un sistema de ecuaciones puede estar mal condicionado cuando dos o más de las
ecuaciones son casi idénticas. Obviamente aún es peor cuando las dos son idénticas. En
tales casos, se pierde un grado de libertad y se daría un caso imposible de n – 1 ecuaciones
con n incógnitas. Tales casos podrían no ser obvios, en particular cuando se enfrenta con
grandes sistemas de ecuaciones. En consecuencia, sería útil tener una forma de detectar
la singularidad de manera automática.
9.4 Técnicas para mejorar las soluciones
9.4.1 Uso de más cifras significativas
El remedio más simple para el mal condicionamiento consiste en emplear más cifras
significativas en los cálculos.
9.4.2 Pivoteo
Antes de normalizar cada renglón, resulta conveniente determinar el coeficiente más grande
disponible en la columna debajo del elemento pivote. Los renglones se pueden intercambiar
de manera que el elemento más grande sea el elemento pivote; esto se conoce como
pivoteo parcial. Al procedimiento, donde tanto en las columnas como en los renglones se
busca el elemento más grande y luego se intercambian, se le conoce como pivoteo
completo.
9.4.3 Escalamiento
El escalamiento tiene utilidad en la minimización de los errores de redondeo, en aquellos
casos en los que algunas de las ecuaciones de un sistema tienen coeficientes mucho más
grandes que otros. Mientras cada una de las ecuaciones sea consistente, el sistema será
técnicamente correcto y susceptible de ser resuelto. Sin embargo, el uso de unidades tan
diversas puede llevar a que los coeficientes difieran ampliamente en magnitud. Esto, a su
vez, puede tener un impacto sobre el error de redondeo, ya que afecta el pivoteo.
9.4.4 Algoritmo para la eliminación gaussiana
•Las ecuaciones no están escaladas, pero los valores escalados de los elementos se usan
para determinar si se debe usar el pivoteo.
•El término diagonal se vigila durante la fase del pivoteo para detectar ocurrencias de
valores cercanos a cero y con esto indicar si el sistema es singular. Si devuelve un valor de
er = –1, se ha detectado una matriz singular y el cálculo debe terminar. El usuario da a un
parámetro tol un número pequeño para detectar ocurrencias cercanas a cero.
9.5 Sistemas complejos
En algunos problemas es posible obtener un sistema de ecuaciones complejas
[C]{Z} = {W}
donde
[C] = [A] + i[B]
{Z} = {X} + i{Y}
{W} = {U} + i{V}
donde i=- 1 .
El camino más directo para resolver un sistema como éste consiste en emplear uno de los
algoritmos sustituyendo todas las operaciones reales por complejas. Claro que esto sólo es
posible con aquellos lenguajes, como el Fortran, que permiten el uso de variables
complejas.
9.6 Sistemas de ecuaciones no lineales
Éste se puede extender al caso general para resol- ver n ecuaciones no lineales
simultáneas.
f1(x1, x2, …, xn) = 0
f2(x1, x2, …, xn) = 0
·
·
·
·
·
fn(x1, x2, …, xn) = 0
La solución de este sistema consiste en un conjunto de valores x que hacen todas las
ecuaciones igual a cero.
n
F(x) =∑ [ fi (x i , x2 ,…, xn )]2
i=1
donde fi(x1, x2, …, xn) es el i-ésimo miembro del sistema original de la ecuación. Los valores
de x que minimizan esta función representan también la solución del sistema no lineal. esta
reformulación pertenece a una clase de problemas llamados regresión no lineal. Como tal,
se puede abordar con varias técnicas de optimización.
9.7 Gauss-Jordan
El método de Gauss-Jordan es una variación de la eliminación de Gauss. La principal
diferencia consiste en que cuando una incógnita se elimina en el método de Gauss-Jordan,
ésta es eliminada de todas las otras ecuaciones, no sólo de las subsecuentes. Además,
todos los renglones se normalizan al dividirlos entre su elemento pivote. De esta forma, el
paso de eliminación genera una matriz identidad en vez de una triangular. En consecuencia,
no es necesario usar la sustitución hacia atrás para obtener la solución.
Descargar