Subido por juaneslaonda66

actividad 1 MN

Anuncio
INSTITUTO TECNOLOGICO DE CANCUN
METODOS NUMERICOS
UNIDAD 1
ING: GUSTAVO ADOLFO FAJARDO PULIDO
IZQUIERDO FISCAL JUAN ALBERTO
ISC 4-B
Introducción
En el campo de la ingeniería y ciencias, existen infinidad de fenómenos que requieren representarse
mediante modelos matemáticos. Desafortunadamente, la gran mayoría de estos modelos no tiene una
solución exacta o no es fácil el hallarla. Es estos casos es en donde los métodos numéricos
proporcionan una solución aproximada al problema original. Un método numérico es aquel que
obtiene números que se aproximan a los que se obtendrían aplicando la solución analítica de un
problema
Para poder definir algunos conceptos básicos como algoritmos, aproximaciones y los tipos más
comunes de errores es necesario saber la dedición de métodos o análisis numéricos, así como su
principal usos y áreas de aplicación.
Métodos numéricos se define como un procedimiento mediante el cual se obtiene, casi siempre de
manera aproximada, la solución de ciertos problemas realizando cálculos puramente aritméticos y
lógicos como operaciones aritméticas elementales, cálculo de funciones, consulta de una tabla de
valores, cálculo preposicional, etc. El procedimiento consiste de una lista finita de instrucciones
precisas que especifican una secuencia de operaciones algebraicas y lógicas conocida como algoritmo,
que producen o bien una aproximación de la solución del problema o bien un mensaje. La eficiencia
en el cálculo de dicha aproximación depende, en parte, de la facilidad de implementación del
algoritmo y de las características especiales y limitaciones de los instrumentos de cálculo. En general,
al emplear estos instrumentos de cálculo se introducen errores llamados de redondeo.
HISTORIA DE LOS MÉTODOS NUMÉRICOS
DESDE
SUS
COMIENZOS...
En el 2000 a.c. se encentran métodos para aproximar algunas medidas en triángulos y círculos.
En 1650 A.C. el Papiro de Rhynd, explica un método para encontrar raíces de ecuaciones sencilla sin
el uso de algebra.
En 250 A.C. Euclides desarrolla un método de Exhausción, para aproximar áreas, con este obtiene un
valor muy aproximado de Pi.
En 900 D.C. Explosión de las matemáticas árabes All-Warizmi Al-Karayi Ibrahim.
• Creación de métodos algebraicos y revisión de los métodos numéricos disponibles a la época.
• Inicio de los métodos algorítmicos para resolver problemas.
En 1617 John Napier introduce los logaritmos y diseña una máquina para calcularlos conocida como
los huesos Napier.
En 1623 Keppler utiliza una máquina para realizar cálculos de forma práctica que usó en estudios
astronómicos; ésta podía realizar muchas operaciones y hasta guardar los pasos intermedios, para ser
utilizados en otros cálculos.
Leibniz se interesa por métodos desarrollados por Arquímedes y desarrolla metodologías similares
con las cuales se da inicio al cálculo diferencial e integral. Diseña entre otras cosas una máquina
conocida como la máquina calculadora, que permite resolver ecuaciones en diferencias y métodos de
series de potencias para aproximar valores de funciones.
Newton desarrolla una gran cantidad de métodos para realizar numéricamente procedimientos
matemáticos. El más famoso es la interpolación polinomial, pero mucho de los métodos usados
actualmente son generalizados por las ideas de él.
En 1768 motivado por el trabajo de Newton y Leibnitz, Euler desarrolla un método para encontrar
soluciones aproximadas a problemas de ecuaciones diferenciales con los que se da inicio a los métodos
de integración numérica.
En 1822 Charles Babbage, diseño una máquina de diferencias que en teoría permitía realizar
operaciones matemáticas y hasta resolver ecuaciones complejas y evaluar polinomios por medio de
sumas sucesivas. Babbage no pudo terminar de construir su máquina, pero posteriormente se
reconstruyó la misma y fue totalmente funcional. La máquina es programable y puede correr algunos
programas básicos para solucionar problemas matemáticos básicos.
En 1946 se termina de construir el Integrador y computador ENIAC.
En 1984 Math Work desarrolla el lenguaje de Programación MATLAB orientado al trabajo con
matrices.
Desde tiempos ancestrales el papel del ingeniero ha sido básicamente el mismo, tratar de conocer e
interpretar los mecanismos de la naturaleza para así poder modificarla al servicio del hombre. Para
ello ha utilizado sus conocimientos, intuición, experiencia y los medios naturales a los que en cada
momento ha tenido disponibles. Con el gran poder de cómputo, el ingeniero dispone de grandes
ventajas para llevar su misión y abordar cada día retos más ambiciosos en la solución de nuevos
problemas, cuyos aspectos políticos, económicos, científicos o tecnológicos pueden tener un mayor
impacto en la mejora de la calidad de vida. Encontramos así aplicaciones de los métodos numéricos
en sectores tecnológicos tan clásicos como la ingeniería estructural o la aerodinámica de aviones,
hasta aplicaciones más sofisticadas como ingeniería de alimentos, ingeniería médica, diseño de
fármacos, biología, etc.
IMPORTANCIA DE LOS MÉTODOS NUMÉRICOS EN LA INGENIERÍA
Los métodos numéricos son técnicas mediante los cuales es posible formular problemas matemáticos
a de tal forma k puedan resolverse usando operaciones aritméticas.
Los métodos numéricos son muy importantes en los estudios a nivel ingeniería. Para el ingeniero
moderno, en el desarrollo de su profesión implica inevitablemente el uso de las computadoras. Muy
pocas disciplinas o actividades cotidianas de alguna manera no tienen contactos con estas máquinas
tan poderosas y rápidas.
Ciertamente las computadoras han sido por sus años un aliado de la ingeniería al desempeñar miles
de tareas, tanto analíticas como prácticas, en el desarrollo de proyecto y la solución de problema en
formas más eficiente en el transcurso de su carrera profesional es posible k el estudiante tenga la
necesidad de utilizar un software disponible comercialmente k contenga métodos numéricos. El uso
inteligente de estos programas de pende del conocimiento de la teoría básica en lo k se basa estos
métodos.
Problemas matemáticos y sus soluciones donde se apliquen los métodos numéricos.
ERRORES DE CALCULO.
Notación científica (punto flotante)
¿Qué es la exactitud?
Con la exactitud mides la proximidad de un resultado con respecto al valor real que intentas lograr.
En otras palabras, significa cuánto te acercas a lo que pretendes. Puede tratarse de
un objetivo estratégico o de un éxito personal, la alta exactitud se produce cuando cumples
perfectamente con el valor objetivo. Eres poco exacto si estás lejos de cumplir con lo pretendido. La
exactitud se puede determinar después de un evento en particular; pero en caso de que busques
determinar si se puede mantener como un éxito a largo plazo, será indispensable que se repita.
Veamos un ejemplo. Has definido un KPI para disminuir la tasa de rebote de tu sitio en un 12 %
durante el próximo año fiscal. Si la medición de exactitud muestra que cumpliste con el valor
aceptado, exactamente un 12 % para fin del año fiscal, habrás logrado un 100 % de exactitud en la
determinación y el cumplimiento del KPI esperado.
¿Qué es la precisión?
Con la precisión se mide cuánto se acercan los resultados entre sí. Si bien es cierto que la exactitud se
puede usar en una instancia específica, la precisión se puede medir a lo largo del tiempo. El motivo
es que para medir la precisión se requiere de repetitividad, a fin de determinar el grado de proximidad
entre cada conjunto de mediciones. La alta precisión se produce cuando los resultados son similares
entre sí, mientras que la precisión es baja cuando los resultados están dispersos. La medición de la
precisión es particularmente útil en dos casos:
1. Cuando intentas evitar cometer el mismo error
2. Cuando logras buenos resultados y quieres determinar un proceso para la reproducibilidad
Siguiendo el ejemplo anterior, digamos que las tasas de rebote de tus páginas se redujeron en el mismo
porcentaje. Entonces, cada página del sitio web desciende a la misma tasa de rebote y en la misma
cantidad, independientemente de que sea un 6 o un 20 %. En este caso la precisión es alta, aunque no,
exacta.
¿Qué es el error?
La incertidumbre o error numérico es una medida del ajuste o cálculo de una magnitud con respecto
al valor real o teórico que dicha magnitud tiene. Un aspecto importante de los errores de aproximación
es su estabilidad numérica. Dicha estabilidad se refiere a cómo dentro de un algoritmo de análisis
numérico el error de aproximación es propagado dentro del propio algoritmo.
Aproximación numérica y teoría de errores
Debemos conformarnos siempre, en la práctica de la ingeniería y de las ciencias, con una solución
aproximada a un problema por las siguientes razones:
Los modelos matemáticos son aproximados; esto es; simplificaciones al problema real. No se toman
en cuenta todos los factores que afectan a un fenómeno.
Los modelos matemáticos requieren de parámetros, los cuales la mayoría de las veces provienen de
mediciones experimentales y estas, solo tienen una precisión limitada, que depende del instrumento
de medición. También pueden provenir de cálculos y estos tienen una precisión limitada que depende
tanto del método como del instrumento de cálculo que se utilicen.
Los modelos matemáticos resultantes son imposibles de resolver por métodos analíticos y se debe de
aproximar la solución numéricamente.
Por lo anterior, humildemente tenemos que aceptar que siempre se tendrán presentes errores, estos
pueden clasificarse en: errores inherentes, errores de truncamiento, errores de redondeo…
Errores inherentes
Los errores inherentes son aquellos que tienen los datos de entrada de un problema, y son debidos
principalmente a que se obtienen experimentalmente, debiéndose tanto al instrumento de medición,
como a las condiciones de realización del experimento. Por ejemplo, sí el experimento es a
temperatura constante y no se logra esto más que en forma aproximada. También pueden deberse a
que se obtengan de cálculos previos. Por ejemplo el valor calculado es el de un número irracional
como
o
.
. Errores de redondeo
Los errores de redondeo, se originan al realizar los cálculos que todo método numérico o analítico
requieren y son debidos a la imposibilidad de tomar todas las cifras que resultan de operaciones
aritméticas como los productos y los cocientes, teniendo que retener en cada operación el número de
cifras que permita el instrumento de cálculo que se esté utilizando. Por ejemplo al calcular el valor
de , tenemos que quedarnos solo con la mayor cantidad de cifras 3, que maneje nuestro instrumento
de cálculo.
Existen dos tipos de errores de redondeo:

Error de redondeo inferior: se desprecian los dígitos que no se pueden conservar dentro de la memoria
correspondiente.

Error de redondeo superior: este caso tiene dos alternativas según el signo del número en particular:
- par números positivos, el último dígito que se puede conservar en la localización de memoria
incrementa en una unidad si el primer dígito despreciado es mayor o igual a 5.
- para números negativos, el último dígito que se puede conservar en la localización de la memoria se
reduce en una unidad si el primer dígito despreciado es mayor o igual a 5.
Errores de truncamiento
Los errores de truncamiento se originan por el hecho de aproximar la solución analítica de un
problema, por medio de un método numérico. Por ejemplo, al evaluar la función exponencial por
medio de la serie de Taylor, se tiene que calcular el valor de la siguiente serie infinita:
Ante la imposibilidad de tomar todos los términos de la serie, se requiere truncar después de cierto
número de términos. Esto nos introduce ciertamente un error, que es el error de truncamiento. Este es
independiente de la manera de realizar los cálculos. Solo depende del método numérico empleado.
Resumen
Los métodos numéricos nos sirven para resolver problemas que no puedan manejarse con los métodos
analíticos tradicionales, o no sea sencillo aplicarlos. Estos métodos proporcionan una sucesión de
valores que se aproxima a la solución del problema.
Al resolver un problema siempre tendremos presente errores: El error de redondeo, el error inherente
y el error de truncamiento.
El error de redondeo es prácticamente inevitable y puede invalidar por completo la solución de un
problema. Puede minimizarse su efecto, ya sea reduciendo de alguna manera el número de cálculos a
realizar, o reformulando la solución de un problema de tal forma que se evite las operaciones
aritméticas que ocasionan más error.
La suposición común de que trabajamos con números reales al realizar cálculos, no es cierta. Puede
acarrearnos serias discrepancias entre valores teóricos y valores calculados.
La precisión y la exactitud no son sinónimos. Una nos indica que tan confiable es un valor, y la otra
que tan cerca estamos de él.
CONCEPTOS BASIOS DE LOS METODOS NUMERICOS
Se divide en
Conceptos de exactitud precisión y error.
Errores inherentes, de redondeo y
por truncamiento.
Errores absolutos y relativos.
Errores
Conceptos de:
Absoluto
Exactitud
Se refiere a
que
tan
cercano está
el
valor
calculado
o
medido
del
valor
verdadero.
Precisión
Se refiere a
que
tan
cercano esta
un
valor
individual,
medido
o
calculado
respecto a los
otros.
Relativo
Error
Es la diferencia
entre el valor de la
medida y el valor
tomado
como
exacto puede ser
positivo
o
negativo.
Error = valor
real – valor
estimado.
Conceptos de:
Inherentes
Redondeo
El diámetro de la
sección de una
varilla de acero
presentara un error
según
se
haya
medido con una
cinta métrica, A este
tipo de error se le
denomina
error
inherente
Se debe a que
computadoras
solo guardan
numero finito
cifras
significativas
durante
cálculo.
Truncamiento
las
un
de
un
Las computadoras
realizan
esta
función
de
maneras
diferentes.
Son aquellos que
resultan al usar una
aproximación en
lugar de un
procedimiento
matemáticamente
exacto.
Es el cociente (la
división) entre el
error absoluto y
el error exacto
Descargar