Subido por Luis AP

introduccionalosmetodosnumericos-110818222025-phpapp02

Anuncio
INTRODUCCIÓN A LOS METODOS NÚMERICOS
ACTIVIDAD INDEPENDIENTE No. 1
PRESENTADO POR:
BRIANITH A. NAVARRO MARCHENA
ESTUDIANTE ING. INDUSTRIAL
TALLER DE DESARROLLO
PRESENTADO A:
ING. EDGARDO VUELVAS
METODOS NUMERICOS
AREA: MATEMATICAS
CORPORACIÓN UNIVERSITARIA DE LA COSTA
BARRANQUILLA – COLOMBIA
MARZO DE 2011
CONTENIDO
INTRODUCCIÓN
OBJETIVO
1. ¿QUÉ SON LOS METODOS NUMERICOS (M.N)?
2. EXPLICACIÓN DE LA IMPORTANCIA DE LOS M.N EN INGENIERIA
3. ¿CÓMO SE DEFINE PRESICIÓN?
4. ¿CÓMO SE DEFINE EXACTITUD?
 EJEMPLO DE EXATITUD Y PRESICIÓN
5. ¿QUÉ SON Y CÓMO SE DEFINEN LAS CIFRAS O DIGITOS SIGNIFICATIVOS?
6. ¿QUÉ ES EL ERROR?
7. ¿CUÁLES SON LOS TIPOS DE ERRORES QUE SE PRESENTAN?
8. ¿CUÁLES SON LAS VALORACIONES DEL ERROR?
CONCLUSIONES
BIBLIOGRAFIA
Introducción a los Métodos Numéricos [Brianith A. Navarro Marchena] C.U.C. Año 2010
Página 2
INTRODUCCIÓN
A medida que avanzamos a un nivel profesional encontramos las matemáticas más
complejas desde una perspectiva real, es decir, los problemas que se plantean en la vida
cotidiana, sobre todo en ingeniería, que abarcan como plano inicial el contenido
matemático y aritmético para la solución de los problemas planteados.
Como ingenieros no solo encontramos una solución a los problemas sino también una
eficiente, aplicable teórica y prácticamente que indiscutiblemente se verá afectada por
medios ajenos a la práctica, valores que tenemos en cuenta para concluir con éxito una
situación, optimizándola gracias a métodos numéricos obteniendo una solución exacta y
precisa del problema.
En el trabajo a continuación, se plantea de manera sencilla los conceptos básicos para
tener en cuenta y arrancar exitosamente el curso de métodos numéricos, avanzando a
situaciones complejas para valernos por medios computacionales y desarrollando
pequeños software para grandes soluciones.
OBJETIVOS
Investigar cual es la concepción básica de los métodos numéricos; el significado de la
teoría del error su tipología y su valoración. Además, dominar y manejar los conceptos de
precisión, exactitud y cifras significativas.
Introducción a los Métodos Numéricos [Brianith A. Navarro Marchena] C.U.C. Año 2010
Página 3
1. ¿QUÉ SON LOS MÉTODOS NUMÉRICOS?
Los procedimientos lógicos que se realizan a partir de problemas planteados
matemáticamente y de manera aritmética, esos son los métodos numéricos.
Herramientas poderosas que se usan en la formulación de problemas complejos que
requieren de un conocimiento básico en ciencias matemáticas e ingeniería adaptando un
sinnúmero de cálculos aritméticos que ordenados de manera lógica resuelven problemas
de alta complejidad manejando sistemas de ecuaciones grandes, no linealidades y
geometrías complicadas. Sin embargo, gracias al apoyo computacional podemos emplear
aplicaciones y desarrollar software que contenga métodos numéricos. El uso inteligente
de estos programas depende del conocimiento de la teoría básica de estos métodos;
además hay muchos problemas que no pueden plantearse al emplear programas hechos,
conociendo bien los métodos numéricos se puede diseñar programas propios y así no
comprar software costoso. Al mismo tiempo se aprende a conocer y controlar los errores
de aproximación que son inseparables de los cálculos numéricos a gran escala.
2. EXPLICACIÓN DE LA IMPORTANCIA DE LOS MÉTODOS NUMÉRICOS
EN INGENIERIA.
La ingeniería es el conjunto de conocimientos científicos aplicados a la invención,
perfección y utilización de la técnica industrial para la optimización de problemas que
afectan directamente a los seres humanos. Está completamente ligada con las ciencias
matemáticas y físicas que a partir de ellas realiza conclusiones y la toma de decisiones
completamente eficientes según las situaciones que se presenten. El campo de la
ingeniería, sea cual sea, se plantea a grande escala, ya que de ella depende el impacto
causado a la sociedad, por lo tanto la precisión y exactitud en los resultados debe ser a
partir de procesos lógicos y reales que no distorsionen la continuidad o finalidad de un
proyecto exitoso ¿Pero qué tiene que ver los métodos numéricos ahí? Tanto que ya lo
mencionamos. Gracias a estos podemos mantener un edificio en pie, una planta eléctrica
produciendo energía constantemente, transportarnos en motos, carros, aviones,
programas que faciliten la comunicación, la interacción, la contabilidad, los procesos
médicos, productos químicos y la optimización de todos, cada uno y muchos más de ellos
ya que los métodos numéricos abarcan los principios que nos permiten perfeccionar u
optimizar aquellos procesos que desarrollan el producto final, con menos porcentaje de
error, casi perfectos. Un ingeniero conoce el valor intrínseco de una cifra decimal.
Introducción a los Métodos Numéricos [Brianith A. Navarro Marchena] C.U.C. Año 2010
Página 4
3. ¿CÓMO SE DEFINE PRESICIÓN?
En métodos numéricos se refiere al número de cifras significativas que representa una
cantidad. La precisión se define a partir de la dispersión del conjunto de valores obtenidos
de mediciones repetidas de una magnitud. Cuanto menor es la dispersión mayor la
precisión. Es decir, por ejemplo una máquina precisa es aquella que si repetimos una
medida varias veces nos arroja un resultado parecido.
4. ¿CÓMO SE DEFINE EXACTITUD?
Se refiere a la aproximación de un número o de una medida al valor numérico que se
supone representa. La exactitud la definimos a partir de qué tan cerca del valor real se
encuentra el valor medido. Cuando expresamos la exactitud de un resultado se expresa
mediante el error absoluto que es la diferencia entre el valor experimental y el valor
verdadero. Es decir, por ejemplo, Una máquina exacta es aquella que si repetimos una
medida varias veces nos arroja resultados próximos al valor real.
 EJEMPLO DE EXATITUD Y PRESICIÓN
Por ejemplo, π (pi) es un número irracional constituido por un número infinito de dígitos;
3.141592653589793… es una aproximación tan buena de π, que tal podría considerarse
que es su valor exacto. Al considerar las siguientes aproximaciones de π:
es impreciso e inexacto.
es exacto pero impreciso.
es preciso pero inexacto.
es exacto y preciso.
Los métodos numéricos deben ofrecer soluciones suficientemente exactas y precisas. El
término error se usa tanto para representar la inexactitud como para medir la imprecisión
en las predicciones.
5. ¿QUÉ SON Y CÓMO SE DEFINEN LAS CIFRAS O DIGITOS
SIGNIFICATIVOS?
El concepto de cifras significativas es uno de los criterios en análisis de incertidumbre, al
superponerse en las consideraciones de tipo matemático y de tipo físico. En general,
estamos interesados en encontrar un concepto de significación física (por tanto
Introducción a los Métodos Numéricos [Brianith A. Navarro Marchena] C.U.C. Año 2010
Página 5
experimental, no exclusivamente numérica) de una determinada cifra integrante de una
expresión numérica. Es evidente que ello dependerá la medida concreta y vendrá
determinada por su incertidumbre experimental concreta. Podemos definir el concepto de
cifra significativa como aquella que aporta información no ambigua ni superflua acerca de
una determinada medida experimental.
Las cifras significativas aparecen como resultado de los cálculos y no tienen significado
alguno. Las significativas de un número vienen determinadas por su error. Son cifras
aquellas que ocupan una posición igual o superior al orden o posición error.
Esta definición nos conduce a las siguientes reglas de cómputo de cifras significativas,
general aunque no universalmente admitidas:
1. Todas las cifras diferentes de cero que expresan cantidades iguales o superiores a la
incertidumbre experimental son significativas.
A la hora de contar el número de cifras exactas o significativas no se tiene en cuenta los
ceros que están a la izquierda de la primera cifra no nula.
2. Todos los ceros entre dígitos significativos son significativos.
3. Los ceros a la izquierda del primer digito que no es cero sirven solamente para fijar
la posición del punto decimal y no son significativos.
Introducción a los Métodos Numéricos [Brianith A. Navarro Marchena] C.U.C. Año 2010
Página 6
4. En un número con dígitos a la derecha del punto decimal, los ceros a la derecha
del último número diferente de cero son significativos.
5. En un numero que no tiene punto decimal y que termina con uno o más ceros
(como 3600), los ceros con los cuales termina el numero pueden ser o no
significativos. El número es ambiguo en términos de cifras significativas. Antes de
poder especificar el número de cifras significativas, se requiere información
adicional acerca de cómo se obtuvo el número. Se evitan confusiones expresando
los números en notación científica. Cuando están expresados en esta forma, todo
el dígito se interpreta como significativo.
6. ¿QUÉ ES EL ERROR?
El concepto de error es consustancial con el cálculo numérico. En todos los problemas es
fundamental hacer un seguimiento de los errores cometidos a fin de poder estimar el
grado de aproximación de la solución que se obtiene.
Los errores asociados a todo cálculo numérico tienen su origen en dos grandes factores:
 Aquellos que son inherentes a la formulación del problema.
 Los que son consecuencia del método empleado para encontrar la solución del
problema.
Introducción a los Métodos Numéricos [Brianith A. Navarro Marchena] C.U.C. Año 2010
Página 7
Dentro del grupo de los primeros, se incluyen aquellos en los que la definición matemática
del problema es sólo una aproximación a la situación física real. Estos errores son
normalmente despreciables; por ejemplo, el que se comete al obviar los efectos
relativistas en la solución de un problema de mecánica clásica. En aquellos casos en que
estos errores no son realmente despreciables, nuestra solución será poco precisa
independientemente de la precisión empleada para encontrar las soluciones numéricas.
Otra fuente de este tipo de errores tiene su origen en la imprecisión de los datos físicos:
constantes físicas y datos empíricos. En el caso de errores en la medida de los datos
empíricos y teniendo en cuenta su carácter generalmente aleatorio, su tratamiento
analítico es especialmente complejo pero imprescindible para contrastar el resultado
obtenido computacional-mente.
En lo que se refiere al segundo tipo de error (error computacional), tres son sus fuentes
principales:
1. Equivocaciones en la realización de las operaciones (errores de bulto). Esta fuente de
error es bien conocida por cualquiera que haya realizado cálculos manualmente o
empleando una calculadora. El empleo de computadores ha reducido enormemente
la probabilidad de que este tipo de errores se produzcan. Sin embargo, no es
despreciable la probabilidad de que el programador cometa uno de estos errores
(calculando correctamente el resultado erróneo). Más aún, la presencia de bugs no
detectados en el compilador o en el software del sistema no es inusual. Cuando no
resulta posible verificar que la solución calculada es razonablemente correcta, la
probabilidad de que se haya cometido un error de bulto no puede ser ignorada. Sin
embargo, no es esta la fuente de error que más nos va a preocupar.
2. El error causado por resolver el problema no como se ha formulado, sino mediante
algún tipo de aproximación. Generalmente está causado por la sustitución de
un infinito (sumatorio o integración) o un infinitesimal (diferenciación) por una
aproximación finita. Algunos ejemplos son:

El cálculo de una función elemental (por ejemplo, Seno x) empleando
sólo n términos de los infinitos que constituyen la expansión en serie de Taylor.

Aproximación de la integral de una función por una suma finita de los valores de la
función, como la empleada en la regla del trapezoide.

Resolución de una ecuación diferencial reemplazando las derivadas por una
aproximación (diferencias finitas).
Introducción a los Métodos Numéricos [Brianith A. Navarro Marchena] C.U.C. Año 2010
Página 8

Solución de la ecuación f(x) = 0 por el método de Newton-Raphson: proceso
iterativo que, en general, converge sólo cuando el número de iteraciones tiende a
infinito.
Denominaremos a este error, en todas sus formas, como error por truncamiento, ya que
resulta de truncar un proceso infinito para obtener un proceso finito. Obviamente,
estamos interesados en estimar, o al menos acotar, este error en cualquier procedimiento
numérico.
3. Por último, la otra fuente de error de importancia es aquella que tiene su origen en el
hecho de que los cálculos aritméticos no pueden realizarse con precisión ilimitada.
Muchos números requieren infinitos decimales para ser representados
correctamente, sin embargo, para operar con ellos es necesario redondearlos. Incluso
en el caso en que un número pueda representarse exactamente, algunas operaciones
aritméticas pueden dar lugar a la aparición de errores (las divisiones pueden producir
números que deben ser redondeados y las multiplicaciones dar lugar a más dígitos de
los que se pueden almacenar). El error que se introduce al redondear un número se
denomina error de redondeo.
7. ¿CUÁLES SON LOS TIPOS DE ERRORES QUE SE PRESENTAN?
Los errores de medición se clasifican en distintas clases (accidentales, aleatorias,
sistemáticas).
Error absoluto. Es la diferencia entre el valor de la medida y el valor tomado como exacta.
Puede ser positivo o negativo, según si la medida es superior al valor real o inferior (la
resta sale positiva o negativa). Tiene unidades, las mismas que las de la medida. Error
absoluto es la imprecisión que acompaña a la medida. Nos da idea de la sensibilidad del
aparato o de lo cuidadosas que han sido las medidas por lo poco dispersas que resultaron.
El error absoluto indica el grado de aproximación y da un indicio de la calidad de la
medida. El conocimiento de la calidad se complementa con el error relativo.
Error relativo. Es el cociente (la división) entre el error absoluto y el valor exacto. Si se
multiplica por 100 se obtiene el tanto por ciento (%) de error. Al igual que el error
absoluto puede ser positivo o negativo (según lo sea el error absoluto) porque puede ser
por exceso o por defecto. No tiene unidades. Error relativo es el que nos indica la calidad
de la medida. Es el cociente entre el error absoluto y el valor que damos como
representativo (la media aritmética). Se puede dar en % de error relativo.
Introducción a los Métodos Numéricos [Brianith A. Navarro Marchena] C.U.C. Año 2010
Página 9
8. ¿CUÁLES SON LAS VALORACIONES DEL ERROR?

ERROR POR REDONDEO
Es aquel tipo de error en donde el número significativo de dígitos después del punto
decimal se ajusta a un número específico provocando con ello un ajuste en el último dígito
que se toma en cuenta. Los errores de redondeo resultan de representar
aproximadamente números que son exactos. Proceso mediante el cual se eliminan
decimales poco significativos a un número decimal.
Las reglas del redondeo se aplican al decimal situado en la siguiente posición al número de
decimales que se quiere transformar, es decir, si tenemos un número de 3 decimales y
queremos redondear a 2, se aplicará las reglas de redondeo:
Dígito menor que 5: Si el siguiente decimal es menor que 5, el anterior no se modifica.
Ejemplo: 12,612. Redondeando a 2 decimales deberemos tener en cuenta el tercer
decimal: 12,612= 12,61.
Dígito mayor que 5: Si el siguiente decimal es mayor o igual que 5, el anterior se
incrementa en una unidad.
Ejemplo: 12,618. Redondeando a 2 decimales deberemos tener en cuenta el tercer
decimal: 12,618= 12,62.
Ejemplo: 12,615. Redondeando a 2 decimales deberemos tener en cuenta el tercer
decimal: 12,615= 12,62.
En ambos casos tenemos que:
Definición. Definimos el error absoluto como:
 ERROR POR TRUNCAMIENTO
Para llevar a cabo operaciones de algunas funciones matemáticas los compiladores
ejecutan estas funciones utilizando series infinitas de términos, pero es difícil llevar a cabo
estos cálculos hasta el infinito, por lo tanto la serie tendrá que ser truncada.
Introducción a los Métodos Numéricos [Brianith A. Navarro Marchena] C.U.C. Año 2010 Página 10
Truncamiento es el término usado para reducir el número de dígitos a la derecha del
punto decimal, descartando los menos significativos.
Por ejemplo dados los números reales:
Para truncar estos números a dígitos decimales, sólo consideramos los 4 dígitos a la
derecha de la coma decimal. El resultado es:
Nótese que en algunos casos, el truncamiento dará el mismo resultado que el redondeo,
pero el truncamiento no redondea hacia arriba ni hacia abajo los dígitos, meramente los
corta en el dígito especificado. El error de truncamiento puede ser hasta el doble del error
máximo que se puede tener usando redondeo.
Los errores de truncamiento, resultan de representar aproximadamente un procedimiento
matemático exacto. Tienen relación con el método de aproximación que se usará ya que
generalmente frente a una serie infinita de términos, se tenderá a cortar el número de
términos, introduciendo en ese momento un error, por no utilizar la serie completa (que
se supone es exacta).
En una iteración, se entiende como el error por no seguir iterando y seguir aproximándose
a la solución. En un intervalo que se subdivide para realizar una serie de cálculos sobre él,
se asocia al número de paso, resultado de dividir el intervalo “n” veces.

ERROR NUMÉRICO TOTAL
El error numérico total se entiende como la suma de los errores de redondeo y
truncamiento introducidos en el cálculo.
Pero aquí surge un problema. Mientras más cálculos se tengan que realizar para obtener
un resultado, el error de redondeo se irá incrementando. Pero por otro lado, el error de
truncamiento se puede minimizar al incluir más términos en la ecuación, disminuir el paso
a proseguir la iteración (o sea mayor número de cálculos y seguramente mayor error de
redondeo):
Introducción a los Métodos Numéricos [Brianith A. Navarro Marchena] C.U.C. Año 2010 Página 11
El error numérico total es la suma de los errores de redondeo y de truncamiento (los
errores de truncamiento decrecen conforme el número de cálculos aumenta, por lo que
se encara el siguiente problema: la estrategia de disminuir un componente del error total
lleva al incremento del otro).
Introducción a los Métodos Numéricos [Brianith A. Navarro Marchena] C.U.C. Año 2010 Página 12
CONCLUSIONES
 Gracias a los métodos numéricos podemos ser precisos y exactos en nuestros
cálculos.
 En ingeniería, ciencia, industria y estadística, exactitud se define a partir del valor
real y precisión a partir de un conjunto numerario aproximado entre sí.
 Tenemos en cuenta el error en un número y las cifras significativas que lo
contienen.
 A partir de este conocimiento podemos desarrollar e implementar software
personalizados y además de ello, modificar el cálculo de error con el que
trabajemos.
 Las cifras significativas se vuelven relevantes a partir del dato que necesitemos, los
errores, a su vez, son tan importantes de manera que afecta el resultado de
nuestro análisis, así que tenemos en cuenta la valorización de ellos para un
resultado con cifras significativas deseadas.
 El ingeniero implementa los métodos numéricos para perfección y optimización de
sus proyectos.
Los métodos numéricos se convierten en parte esenciales para nuestros cálculos ya que
de ellos depende el éxito de nuestro resultado y análisis aplicado a la formulación de
problemas.
BIBLIOGRAFÍA
 CHAPRA, Steven C. CANALE, Raymond P. “MÉTODOS NUMÉRICOS PARA INGENIEROS”
[5ta Edición] Páginas 53 – 62.
[1] http://www.buenastareas.com/ensayos/Conceptos-Basicos-De-MetodosNumericos/48602.html
[2] http://www.mitecnologico.com/Main/TeoriaDeErrores
[3] http://www.mitecnologico.com/Main/ImportanciaMetodosNumericos
[4]http://www.mitecnologico.com/Main/ConceptosBasicosMetodosNumericosCifraSignifi
cativaPrecisionExactitudIncertidumbreYSesgo
[5] http://www.mitecnologico.com/Main/TiposDeErrores
http://www.mitecnologico.com/Main/DefinicionDeErrorErrorAbsolutoYRelativo
[6]http://fisica.udea.edu.co/~labgicm/lab_fisica_1/teoria%20de%20errores/Cifras%20sign
ificativas.pdf
[7] http://www.uv.es/~diaz/mn/node2.html
[8] http://www.mitecnologico.com/Main/TiposDeErrores
[9] http://es.wikipedia.org/wiki/Precisi%C3%B3n_y_exactitud
Introducción a los Métodos Numéricos [Brianith A. Navarro Marchena] C.U.C. Año 2010 Página 13
Descargar