INSTITUTO TECNOLOGICO DE CANCUN METODOS NUMERICOS UNIDAD 1 ING: GUSTAVO ADOLFO FAJARDO PULIDO IZQUIERDO FISCAL JUAN ALBERTO ISC 4-B Introducción En el campo de la ingeniería y ciencias, existen infinidad de fenómenos que requieren representarse mediante modelos matemáticos. Desafortunadamente, la gran mayoría de estos modelos no tiene una solución exacta o no es fácil el hallarla. Es estos casos es en donde los métodos numéricos proporcionan una solución aproximada al problema original. Un método numérico es aquel que obtiene números que se aproximan a los que se obtendrían aplicando la solución analítica de un problema Para poder definir algunos conceptos básicos como algoritmos, aproximaciones y los tipos más comunes de errores es necesario saber la dedición de métodos o análisis numéricos, así como su principal usos y áreas de aplicación. Métodos numéricos se define como un procedimiento mediante el cual se obtiene, casi siempre de manera aproximada, la solución de ciertos problemas realizando cálculos puramente aritméticos y lógicos como operaciones aritméticas elementales, cálculo de funciones, consulta de una tabla de valores, cálculo preposicional, etc. El procedimiento consiste de una lista finita de instrucciones precisas que especifican una secuencia de operaciones algebraicas y lógicas conocida como algoritmo, que producen o bien una aproximación de la solución del problema o bien un mensaje. La eficiencia en el cálculo de dicha aproximación depende, en parte, de la facilidad de implementación del algoritmo y de las características especiales y limitaciones de los instrumentos de cálculo. En general, al emplear estos instrumentos de cálculo se introducen errores llamados de redondeo. HISTORIA DE LOS MÉTODOS NUMÉRICOS DESDE SUS COMIENZOS... En el 2000 a.c. se encentran métodos para aproximar algunas medidas en triángulos y círculos. En 1650 A.C. el Papiro de Rhynd, explica un método para encontrar raíces de ecuaciones sencilla sin el uso de algebra. En 250 A.C. Euclides desarrolla un método de Exhausción, para aproximar áreas, con este obtiene un valor muy aproximado de Pi. En 900 D.C. Explosión de las matemáticas árabes All-Warizmi Al-Karayi Ibrahim. • Creación de métodos algebraicos y revisión de los métodos numéricos disponibles a la época. • Inicio de los métodos algorítmicos para resolver problemas. En 1617 John Napier introduce los logaritmos y diseña una máquina para calcularlos conocida como los huesos Napier. En 1623 Keppler utiliza una máquina para realizar cálculos de forma práctica que usó en estudios astronómicos; ésta podía realizar muchas operaciones y hasta guardar los pasos intermedios, para ser utilizados en otros cálculos. Leibniz se interesa por métodos desarrollados por Arquímedes y desarrolla metodologías similares con las cuales se da inicio al cálculo diferencial e integral. Diseña entre otras cosas una máquina conocida como la máquina calculadora, que permite resolver ecuaciones en diferencias y métodos de series de potencias para aproximar valores de funciones. Newton desarrolla una gran cantidad de métodos para realizar numéricamente procedimientos matemáticos. El más famoso es la interpolación polinomial, pero mucho de los métodos usados actualmente son generalizados por las ideas de él. En 1768 motivado por el trabajo de Newton y Leibnitz, Euler desarrolla un método para encontrar soluciones aproximadas a problemas de ecuaciones diferenciales con los que se da inicio a los métodos de integración numérica. En 1822 Charles Babbage, diseño una máquina de diferencias que en teoría permitía realizar operaciones matemáticas y hasta resolver ecuaciones complejas y evaluar polinomios por medio de sumas sucesivas. Babbage no pudo terminar de construir su máquina, pero posteriormente se reconstruyó la misma y fue totalmente funcional. La máquina es programable y puede correr algunos programas básicos para solucionar problemas matemáticos básicos. En 1946 se termina de construir el Integrador y computador ENIAC. En 1984 Math Work desarrolla el lenguaje de Programación MATLAB orientado al trabajo con matrices. Desde tiempos ancestrales el papel del ingeniero ha sido básicamente el mismo, tratar de conocer e interpretar los mecanismos de la naturaleza para así poder modificarla al servicio del hombre. Para ello ha utilizado sus conocimientos, intuición, experiencia y los medios naturales a los que en cada momento ha tenido disponibles. Con el gran poder de cómputo, el ingeniero dispone de grandes ventajas para llevar su misión y abordar cada día retos más ambiciosos en la solución de nuevos problemas, cuyos aspectos políticos, económicos, científicos o tecnológicos pueden tener un mayor impacto en la mejora de la calidad de vida. Encontramos así aplicaciones de los métodos numéricos en sectores tecnológicos tan clásicos como la ingeniería estructural o la aerodinámica de aviones, hasta aplicaciones más sofisticadas como ingeniería de alimentos, ingeniería médica, diseño de fármacos, biología, etc. IMPORTANCIA DE LOS MÉTODOS NUMÉRICOS EN LA INGENIERÍA Los métodos numéricos son técnicas mediante los cuales es posible formular problemas matemáticos a de tal forma k puedan resolverse usando operaciones aritméticas. Los métodos numéricos son muy importantes en los estudios a nivel ingeniería. Para el ingeniero moderno, en el desarrollo de su profesión implica inevitablemente el uso de las computadoras. Muy pocas disciplinas o actividades cotidianas de alguna manera no tienen contactos con estas máquinas tan poderosas y rápidas. Ciertamente las computadoras han sido por sus años un aliado de la ingeniería al desempeñar miles de tareas, tanto analíticas como prácticas, en el desarrollo de proyecto y la solución de problema en formas más eficiente en el transcurso de su carrera profesional es posible k el estudiante tenga la necesidad de utilizar un software disponible comercialmente k contenga métodos numéricos. El uso inteligente de estos programas de pende del conocimiento de la teoría básica en lo k se basa estos métodos. Problemas matemáticos y sus soluciones donde se apliquen los métodos numéricos. ERRORES DE CALCULO. Notación científica (punto flotante) ¿Qué es la exactitud? Con la exactitud mides la proximidad de un resultado con respecto al valor real que intentas lograr. En otras palabras, significa cuánto te acercas a lo que pretendes. Puede tratarse de un objetivo estratégico o de un éxito personal, la alta exactitud se produce cuando cumples perfectamente con el valor objetivo. Eres poco exacto si estás lejos de cumplir con lo pretendido. La exactitud se puede determinar después de un evento en particular; pero en caso de que busques determinar si se puede mantener como un éxito a largo plazo, será indispensable que se repita. Veamos un ejemplo. Has definido un KPI para disminuir la tasa de rebote de tu sitio en un 12 % durante el próximo año fiscal. Si la medición de exactitud muestra que cumpliste con el valor aceptado, exactamente un 12 % para fin del año fiscal, habrás logrado un 100 % de exactitud en la determinación y el cumplimiento del KPI esperado. ¿Qué es la precisión? Con la precisión se mide cuánto se acercan los resultados entre sí. Si bien es cierto que la exactitud se puede usar en una instancia específica, la precisión se puede medir a lo largo del tiempo. El motivo es que para medir la precisión se requiere de repetitividad, a fin de determinar el grado de proximidad entre cada conjunto de mediciones. La alta precisión se produce cuando los resultados son similares entre sí, mientras que la precisión es baja cuando los resultados están dispersos. La medición de la precisión es particularmente útil en dos casos: 1. Cuando intentas evitar cometer el mismo error 2. Cuando logras buenos resultados y quieres determinar un proceso para la reproducibilidad Siguiendo el ejemplo anterior, digamos que las tasas de rebote de tus páginas se redujeron en el mismo porcentaje. Entonces, cada página del sitio web desciende a la misma tasa de rebote y en la misma cantidad, independientemente de que sea un 6 o un 20 %. En este caso la precisión es alta, aunque no, exacta. ¿Qué es el error? La incertidumbre o error numérico es una medida del ajuste o cálculo de una magnitud con respecto al valor real o teórico que dicha magnitud tiene. Un aspecto importante de los errores de aproximación es su estabilidad numérica. Dicha estabilidad se refiere a cómo dentro de un algoritmo de análisis numérico el error de aproximación es propagado dentro del propio algoritmo. Aproximación numérica y teoría de errores Debemos conformarnos siempre, en la práctica de la ingeniería y de las ciencias, con una solución aproximada a un problema por las siguientes razones: Los modelos matemáticos son aproximados; esto es; simplificaciones al problema real. No se toman en cuenta todos los factores que afectan a un fenómeno. Los modelos matemáticos requieren de parámetros, los cuales la mayoría de las veces provienen de mediciones experimentales y estas, solo tienen una precisión limitada, que depende del instrumento de medición. También pueden provenir de cálculos y estos tienen una precisión limitada que depende tanto del método como del instrumento de cálculo que se utilicen. Los modelos matemáticos resultantes son imposibles de resolver por métodos analíticos y se debe de aproximar la solución numéricamente. Por lo anterior, humildemente tenemos que aceptar que siempre se tendrán presentes errores, estos pueden clasificarse en: errores inherentes, errores de truncamiento, errores de redondeo… Errores inherentes Los errores inherentes son aquellos que tienen los datos de entrada de un problema, y son debidos principalmente a que se obtienen experimentalmente, debiéndose tanto al instrumento de medición, como a las condiciones de realización del experimento. Por ejemplo, sí el experimento es a temperatura constante y no se logra esto más que en forma aproximada. También pueden deberse a que se obtengan de cálculos previos. Por ejemplo el valor calculado es el de un número irracional como o . . Errores de redondeo Los errores de redondeo, se originan al realizar los cálculos que todo método numérico o analítico requieren y son debidos a la imposibilidad de tomar todas las cifras que resultan de operaciones aritméticas como los productos y los cocientes, teniendo que retener en cada operación el número de cifras que permita el instrumento de cálculo que se esté utilizando. Por ejemplo al calcular el valor de , tenemos que quedarnos solo con la mayor cantidad de cifras 3, que maneje nuestro instrumento de cálculo. Existen dos tipos de errores de redondeo: Error de redondeo inferior: se desprecian los dígitos que no se pueden conservar dentro de la memoria correspondiente. Error de redondeo superior: este caso tiene dos alternativas según el signo del número en particular: - par números positivos, el último dígito que se puede conservar en la localización de memoria incrementa en una unidad si el primer dígito despreciado es mayor o igual a 5. - para números negativos, el último dígito que se puede conservar en la localización de la memoria se reduce en una unidad si el primer dígito despreciado es mayor o igual a 5. Errores de truncamiento Los errores de truncamiento se originan por el hecho de aproximar la solución analítica de un problema, por medio de un método numérico. Por ejemplo, al evaluar la función exponencial por medio de la serie de Taylor, se tiene que calcular el valor de la siguiente serie infinita: Ante la imposibilidad de tomar todos los términos de la serie, se requiere truncar después de cierto número de términos. Esto nos introduce ciertamente un error, que es el error de truncamiento. Este es independiente de la manera de realizar los cálculos. Solo depende del método numérico empleado. Resumen Los métodos numéricos nos sirven para resolver problemas que no puedan manejarse con los métodos analíticos tradicionales, o no sea sencillo aplicarlos. Estos métodos proporcionan una sucesión de valores que se aproxima a la solución del problema. Al resolver un problema siempre tendremos presente errores: El error de redondeo, el error inherente y el error de truncamiento. El error de redondeo es prácticamente inevitable y puede invalidar por completo la solución de un problema. Puede minimizarse su efecto, ya sea reduciendo de alguna manera el número de cálculos a realizar, o reformulando la solución de un problema de tal forma que se evite las operaciones aritméticas que ocasionan más error. La suposición común de que trabajamos con números reales al realizar cálculos, no es cierta. Puede acarrearnos serias discrepancias entre valores teóricos y valores calculados. La precisión y la exactitud no son sinónimos. Una nos indica que tan confiable es un valor, y la otra que tan cerca estamos de él. CONCEPTOS BASIOS DE LOS METODOS NUMERICOS Se divide en Conceptos de exactitud precisión y error. Errores inherentes, de redondeo y por truncamiento. Errores absolutos y relativos. Errores Conceptos de: Absoluto Exactitud Se refiere a que tan cercano está el valor calculado o medido del valor verdadero. Precisión Se refiere a que tan cercano esta un valor individual, medido o calculado respecto a los otros. Relativo Error Es la diferencia entre el valor de la medida y el valor tomado como exacto puede ser positivo o negativo. Error = valor real – valor estimado. Conceptos de: Inherentes Redondeo El diámetro de la sección de una varilla de acero presentara un error según se haya medido con una cinta métrica, A este tipo de error se le denomina error inherente Se debe a que computadoras solo guardan numero finito cifras significativas durante cálculo. Truncamiento las un de un Las computadoras realizan esta función de maneras diferentes. Son aquellos que resultan al usar una aproximación en lugar de un procedimiento matemáticamente exacto. Es el cociente (la división) entre el error absoluto y el error exacto