Análisis Numérico de Integrales y Ecuaciones Diferenciales Temas de Análisis Numérico y Programación Volúmenes: I : Cardona, A., y Neuman, C.E.: Temas de Programación I, 1996, (segunda edición en preparación, 1997) II : Neuman, C.E. (editor): Matemática asistida por computadora, 1996 III : Neuman, C.E.: Análisis Numérico de Integrales y Ecuaciones Diferenciales, 1997 IV : Neuman, C.E.: Algoritmos Geométricos y Gráficos en 3D. Laboratorios de Matemática, segunda edición, 1999. V : Neuman, C.E., Vilchez, A.G.: Algoritmos Geométricos y Gráficos en 3D. Laboratorios de Matemática, tercera edición (en preparación), 2001. ii Temas de Análisis Numérico y Programación Volumen VI Análisis Numérico de Integrales y Ecuaciones Diferenciales ¶ Segunda edición Carlos E. Neuman Departamento de Matemática (FIQ) Universidad Nacional del Litoral Santa Fe 2001 ∞ ¶ Trabajo realizado con fondos provenientes de la Universidad Nacional del Litoral (UNL), a través de la programación Curso de Acción para la Investigación y el Desarrollo (CAI+D), Secretarı́a de Ciencia y Técnica de la UNL Análisis Numérico de Integrales y Ecuaciones Diferenciales Carlos E. Neuman Departamento de Matemática, FIQ, UNL, Santiago del Estero 2829, 3000 Santa Fe, Argentina E-mail address: [email protected] URL: http://www.intec.unl.edu.ar/CN/CNBook3.pdf Key words and phrases. Integración numérica, Resolución numérica de ecuaciones diferenciales, Métodos de un paso, Integración adaptativa Trabajo realizado con fondos provenientes de la Universidad Nacional del Litoral (UNL), a través de la programación Curso de Acción para la Investigación y el Desarrollo (CAI+D), Secretarı́a de Ciencia y Técnica de la UNL. Resumen. En este texto se tratan temas de integración numérica de funciones y de ecuaciones diferenciales, teoremas de existencia y unicidad de soluciones, convergencia, estabilidad y consistencia de soluciones aproximadas de ecuaciones diferenciales y algunos complementos teóricos. Se presentan numerosos ejemplos y ejercicios y dos laboratorios de integración adaptativa. Índice General Prefacio xiii Prefacio a la segunda edición xvii Índice de Tablas 1 Índice de Figuras 3 Capı́tulo 1. Integración 1.1. Introducción 1.2. La integral de Riemann–Stieltjes 1.3. La fórmula de suma de Euler 1.4. Métodos básicos de integración numérica 1.5. Métodos de extrapolación 1.6. Cuadratura de Gauß 1.7. Métodos de Montecarlo 1.8. Métodos adaptativos 1.9. Ejercicios 1 1 3 4 7 11 12 13 16 17 Capı́tulo 2. Ecuaciones diferenciales 2.1. Introducción 2.2. Métodos en diferencias de un paso 2.3. Ejercicios 21 21 23 33 Apéndice A. Bibliografı́a y referencias A.1. Textos básicos A.2. Bibliografı́a complementaria 35 35 35 Apéndice B. Coeficientes indeterminados con el Mathematica B.1. El método de Simpson B.2. El método de Newton B.3. El método de cuadratura de Gauß de tres puntos B.4. Los coeficientes de la cuadratura de Gauß de cinco puntos 37 37 38 40 41 Apéndice C. Cuadernos del Mathematica y archivos script de Matlab C.1. La función mihumps C.2. Extrapolación repetida de Richardson C.3. Métodos de Montecarlo C.4. Integración de Simpson adaptativa C.5. El método clásico de Runge-Kutta 47 47 48 50 53 55 Apéndice D. 59 La integral de Riemann–Stieltjes vii viii ÍNDICE GENERAL D.1. D.2. D.3. D.4. D.5. Funciones de variación acotada La integral Fórmula de la suma de Euler Pero, ¿Hay funciones integrables? Ejercicios 59 61 65 65 66 Apéndice E. Polinomios y números de Bernoulli E.1. Polinomios de Bernoulli con el Mathematica E.2. Números de Bernoulli E.3. Integración por partes 67 67 73 74 Apéndice F. Laboratorio de Matemática: Integración Adaptativa F.1. Objetivos F.2. Antes del laboratorio F.3. Laboratorio F.4. Aplicaciones y desarrollos avanzados F.5. Referencias 75 75 75 76 77 77 Apéndice G. Laboratorio de Matemática: Solución adaptativa de ODEs G.1. Objetivos G.2. Antes del laboratorio G.3. Laboratorio G.4. Aplicaciones y desarrollos avanzados G.5. Referencias 79 79 79 79 79 80 Apéndice H. Existencia y unicidad de soluciones de ODEs H.1. Referencias 81 85 ÍNDICE GENERAL Para S., N., y F. ix ÍNDICE GENERAL xi Our ancestors were eager to understand the worlds but had not quite stumbled upon the method. They imagined a small, quaint, tidy universe in which the dominant forces were gods like Anu, Ea, and Shamash. In that universe humans played an important if not central role. We were intimately bound up with the rest of nature. The treatment of toothache with second-rate beer was tied to the deepest cosmological mysteries. Today we have discovered a powerful and elegant way to understand the universe, a method called science; it has revealed to us a universe so ancient and so vast that human affairs seem at first sight to be of little consequence. Sagan, C.: Cosmos, Ballantine, New York, 1992. Prefacio Este texto surgió de la necesidad de presentar una visión unificada de los métodos elementales de integración numérica de funciones y de algunos de los que son útiles para las ecuaciones diferenciales ordinarias. ♣ Los párrafos que se colocan entre tréboles pueden ser omitidos en las primeras lecturas puesto que no son esenciales para la continuidad del texto. ♣ Seguimos en términos generales las ideas planteadas en Linz∗ (1988). Para este autor el término matemática computacional esta asociado con el espectro amplio de actividades relacionadas con la solución aproximada de problemas cientı́ficos expresados en términos de modelos matemáticos, que, en su forma tı́pica, están constituidos por ecuaciones diferenciales e integrales de las que, en general, no se conoce solución en forma cerrada. Para resolverlos las ecuaciones son convertidas, mediante discretización, en un conjunto finito de ecuaciones más simples que puedan ser resueltas por métodos algebraicos. Se puede distinguir la metodologı́a numérica, que estudia métodos para discretizar los operadores diferenciales e integrales y cómo resolver los sistemas finitos resultantes, del análisis numérico que involucra el estudio riguroso de los algoritmos creados por la metodologı́a. La meta primaria del análisis es describir la relación entre la solución exacta de la ecuación original, y la aproximada obtenida a partir de la versión discreta. El análisis numérico ha resultado muy útil para complementar el proceso de creación de métodos numéricos generado por las aplicaciones ingenieriles. Por ejemplo las técnicas de relajación o de elementos finitos fueron creadas por ingenieros basados en la intuición fı́sica. El análisis numérico posterior ha resultado crucial para la consolidación de estos métodos, la extensión de su aplicabilidad, y el estudio de sus propiedades de convergencia o estabilidad. En muchos casos a partir de objetivos del Análisis Numérico se han obtenido nuevos resultados en Análisis Funcional, en cuyos términos suelen plantearse los problemas. Según resume Linz (1988): En artı́culos publicados en revistas como el SIAM Journal on Numerical Analysis o Numerische Mathematik se encuentran habitualmente términos como espacios de Hilbert, clausura compacta, y convergencia débil. Estos conceptos le resultan muy útiles al teórico y han facilitado el establecimiento de una teorı́a abarcativa y coherente de la solución aproximada de las ecuaciones de operadores. ♣ Ilustraremos esto con el ejemplo de la ecuación del operador lineal Lx = y ∗ Las referencias se enumeran en el apéndice A, página 35 xiii (0.1) xiv PREFACIO donde L : X → Y es un operador lineal entre los espacios normados X e Y . El miembro derecho, y, es un dato y la ecuación debe ser resuelta para la incógnita x. Suponemos que L tiene una inversa acotada en Y . Un ejemplo muy simple de esto es la ecuación d x(t) = y(t) = f (t, x(t)) (0.2) dt con la condición inicial x(t0 ) = x0 (0.3) En el proceso de discretización la ecuación (0.1) es reemplazada por una sucesión paramétrica de problemas Ln xn = yn (0.4) donde Ln es un operador en ciertos espacios n–dimensionales Xn e Yn . El sı́mbolo n se denomina parámetro de discretización y mide el grado en el que el operador discreto Ln representa al operador L. Como Ln es efectivamente una matriz de n×n, es posible, en principio, resolver (0.4) en forma algebraica y obtener la solución aproximada xn . El objetivo fundamental del análisis posterior es conocer la relación entre la solución verdadera x y su aproximación xn . En particular, desearemos demostrar la convergencia. Esto significa que, cuando se incrementa n, la solución aproximada deberá acercarse más y más a la solución verdadera, en el sentido que lim kx − xn k = 0 n→∞ (0.5) Usualmente, el primer paso del análisis es definir el error de consistencia rn (x) = Lx − Ln x (0.6) De (0.1) y (0.4) se obtiene directamente que Ln (x − xn ) = y − yn − rn (x) (0.7) y obtenemos una cota para el error de la solución aproximada kx − xn k ≤ kL−1 n k{ky − yn k + krn k} (0.8) En la mayorı́a de los casos es relativamente elemental mostrar que lim ky − yn k = 0 n→∞ (0.9) y que, bajo condiciones bien definidas lim krn k = 0 n→∞ (0.10) Se necesita una condición adicional, la condición de estabilidad lim kL−1 n k≤K <∞ n→∞ (0.11) Si reemplazamos en la ecuación (0.8), obtenemos el teorema central del análisis numérico: estabilidad y consistencia implican convergencia. Se tiene un gran número de problemas no resueltos por causa de las dificultades técnicas de las que el problema principal es verificar la condición de estabilidad (0.11). Hay otras cuestiones, por ejemplo, cuán dificil es resolver (0.4) o cuán velozmente converge xn a x, pero, normalmente estas son menos complejas que la estabilidad. PREFACIO xv Supongamos ahora que hemos determinado que nuestro método numérico es estable y convergente. ¿Qué nos dice esto? Nos expresa que, en algún sentido asintótico, el método funciona. A menudo podemos decir más. En muchos casos el error de aproximación puede ser acotado en forma más explı́cita como kx − xn k ≤ n−p kL−1 n kη(x) (0.12) donde η es un funcional de la solución desconocida x El exponente p se denomina orden de convergencia y nos da información respecto de cuán exacto es el método. Para un dado nivel de esfuerzo computacional, un método con un orden de convergencia mayor tenderá a dar mejores resultados que uno con un orden menor. La cota que nos da la expresión 0.12 tiene una utilidad limitada puesto que depende de la incógnita x. Se puede sortear esa dificultad realizando un análisis a posteriori que utiliza la solución calculada xn en lugar de la x. A partir de las ecuaciones 0.1 y 0.4 se puede obtener kx − xn k ≤ n−p kL−1 kkρn k (0.13) donde ρn es el residuo de la solución calculada ρn (xn ) = Lxn − y (0.14) Es posible obtener cotas buenas para kρn k, en cambio es más difı́cil obtener cotas realistas para kL−1 k lo que se convierte en el elemento clave del que depende el análisis a posteriori. ♣ Los problemas básicos de la metodologı́a numérica no son el establecimiento del método de discretización, sino el manejo de los detalles involucrados en la representación de dominios, de los propios métodos de discretización, de los métodos de operación con los sistemas de ecuaciones, de las matrices ralas, y de los métodos para resolver los sistemas de ecuaciones con dimensiones muy altas. En el desarrollo de métodos para resolver estos problemas suele incluirse —cuando se trata de utilizar la metodologı́a en las aplicaciones— una dosis relativamente alta de lo que puede denominarse pragmática numérica la que, por tratarse de algo naturalmente impreciso, siempre puede fallar, pero que no deberı́a ser totalmente ignorada por causa de ello. Los beneficios de la metodologı́a numérica son tan considerables que se la utiliza aún en los casos en que no puede justificarsela rigurosamente. La idea fuerza no es rechazar los puntos de vista pragmáticos sino desarrollar los más efectivos. En el primer capı́tulo se estudian algunos aspectos relevantes del cálculo de integrales. Se desarrollan los métodos clásicos, los de extrapolación y los de Montecarlo. Debido a que las extensiones a integrales múltiples son relativamente directas, solamente se trata el problema de volúmenes e hipervolúmenes utilizando el método de Montecarlo por la simple razón que, en muchos casos, es el único aplicable. En el segundo capı́tulo se introduce el problema de hallar soluciones aproximadas para problemas de valores iniciales de ecuaciones diferenciales ordinarias. Asimismo se deducen algunos métodos elementales de los del tipo de ‘un paso’. En los apéndices se presentan ejemplos realizados con Matlab y Mathematica, se desarrolla una breve introducción a la teorı́a de la integral y se realizan cálculos para obtener los polinomios de Bernoulli, que resultan necesarios para la interpretación de los coeficientes en el desarrollo asintótico del error en los métodos trapezoidal y Simpson. xvi PREFACIO En el último de los apéndices se incluye un Laboratorio de Matemática en el tema de la cuadratura adaptativa. He elegido este por la simplicidad del algoritmo recursivo. Sin embargo, cualquiera de los restantes temas del texto, por su importancia matemática, su riqueza y su atractivo, merece la elaboración de un Laboratorio propio. El objetivo de estos laboratorios es aspirar a la recreación viva de conceptos y temas que enriquecen el portafolios del pregraduado en Matemática. Los libros citados en la sección de bibliografı́a y el conjunto de referencias en ellos citados facilitan al lector interesado el estudio de cualquiera de los temas en que desee especializarse. Este texto, que se basa en su totalidad en ellos, y que comparte la selección de temas de interés que tratan, no aspira a colocarse en un plano de igualdad, sino, humildemente, enfatizar algunos aspectos y no otros. Debo agradecer a los sucesivos grupos de alumnos que han enriquecido el curso de Cálculo Numérico con filosas preguntas y soluciones ingeniosas a los problemas propuestos. Asimismo a mis colegas por la discusión de temas y el desarrollo de métodos aptos para la enseñanza. En cambio, de los errores que pudiera contener, me hago único responsable. Carlos E. Neuman Santa Fe, 29 de abril de 1997 Prefacio a la segunda edición Esta nueva edición se desarrolla con varias correcciones y agregados con el fin de adaptar el texto a los cursos de Cálculo Numérico I y II en la modalidad ‘a distancia’. Carlos E. Neuman Santa Fe, 12 de noviembre de 2001 xvii Índice de Tablas 1 Extrapolación de Richardson (Método de Romberg) 1 Integración de Romberg para la función mihumps (ver tabla 1). La integral (con el Mathematica) resulta Q = 0.2985832539549867 50 Integración de Romberg para la función mihumps (continuación, ver tablas 1 y 1). La integral (con el Mathematica) resulta Q = 0.2985832539549867 50 2 1 12 Índice de Figuras 1 2 3 4 5 Campo de direcciones de f (x, y) = −xy El rectángulo S está contenido en el R Primer método de Runge Segunda fórmula de Runge El método de Runge-Kutta 21 22 26 28 29 1 2 47 3 La función mihumps Histograma de distribución de los valores estimados de la integral del ejemplo C.3.1 Integración por Runge-Kutta clásico de x0 = −tx en [0, 7] 52 57 1 2 3 4 5 El El El El El B1 (x) B2 (x) B6 (x) B10 (x) B40 (x) 69 70 71 72 73 1 Puntos de evaluación de quad para la función f (x) en [0, 2] 76 polinomio polinomio polinomio polinomio polinomio de de de de de Bernoulli Bernoulli Bernoulli Bernoulli Bernoulli 3 CAPı́TULO 1 Integración 1.1. Introducción El objetivo del presente capı́tulo es estudiar métodos numéricos para calcular integrales definidas de la forma Z b f (x) dx (1.1) a Los métodos más simples —que se originan en la propia definición de la integral de Riemann,— se establecen como sigue. Se elige una partición regular de paso h en el intervalo [a, b] de modo de obtener N subintervalos (es decir que N h = (b − a). Se toma un valor conveniente de la función f en cada subintervalo y se calcula la suma N X h fi (1.2) i=1 donde fi es el valor elegido de la función f en el intervalo [xi−1 , xi ]. En el caso de escoger fi = f (xi−1 ) se obtiene una “regla del rectángulo” Z b f (x) dx ' h a N X f (xi−1 ) (1.3) i=1 si, en cambio, se toma fi = f (xi ) se obtiene otra regla del rectángulo Z b f (x) dx ' h a N X f (xi ) (1.4) i=1 en realidad ‘la’ regla del rectángulo es más precisa si se elige fi = f ((xi−1 + xi )/2), en este caso se obtiene la regla del rectángulo R(h) (o ‘midpoint’) b Z f (x) dx ' R(h) = h a N X i=1 f( xi−1 + xi ) 2 (1.5) con fi = (f (xi−1 ) + f (xi ))/2, en cambio, se obtiene la regla del trapecio T (h) Z b f (x) dx ' T (h) = h a N X f (xi−1 ) + f (xi ) i=1 2 (1.6) es decir T (h) = h( f (a) + 2 N −1 X i=1 1 f (xi ) + f (b) ) 2 (1.7) En algunos textos este método se denomina trapezoidal compuesto, pero la distinción es poco relevante 2 1. INTEGRACIÓN y, si el número N de subintervalos es par, se pueden agrupar los subintervalos de a dos contiguos y, en cada par utilizar f2i+1 = (f (x2i ) + 4f (x2i+1 ) + f (x2i+2 ))/6, con lo que se obtiene la “regla de Simpson” S(h) Z a La regla de Simpson es exacta para polinomios de orden cuatro b N 2 −1 2h X f (x) dx ' S(h) = (f (x2j ) + 4f (x2j+1 ) + f (x2j+2 )) 6 j=0 es decir 2h (f (a) + 4f (x1 ) + 2f (x2 ) + · · · + 4f (xN −1 ) + f (xN )) 6 En todos estos casos se tiene la expresión Z b N X f (x) dx ' A ci f (xi ) S(h) = a El operador ‘.*’ facilita la integración numérica (1.8) (1.9) (1.10) i=0 donde [Rectángulo]A = 2h y c = (0, 1, 0, 1, 0, 1, . . . , 0, 1, 0) [Trapezoidal]A = h/2 y c = (1, 2, 2, . . . , 2, 1) [Simpson] A = 2h/6 y c = (1, 4, 2, 4, . . . , 2, 4, 1) Observación 1.1.1. Las expresiones anteriores sugieren un método muy simple para programar estos métodos elementales en Matlab La integral de RiemannStieltjes generaliza la integral de Riemann De la inspección de estos métodos surgen varias ideas interesantes (1) Se tiene una ı́ntima relación entre integrales y sumas y las primeras se aproximan por las segundas. (2) Es necesario desarrollar métodos para estudiar los errores de aproximación de estas reglas de integración (es simple establecerlas pero no es tan claro cómo estimar los respectivos errores) (3) Se deberı́an explorar métodos aplicables a particiones que no sean regulares Para la primera utilizaremos una teorı́a de la integral que permite unificar las metodologı́as para tratar con integrales y sumas. Citamos textualmente a Tom Apostol en la introducción al capı́tulo 7 (pág. 169) de su texto (Apostol, 1976) . . . se estudia el proceso de integración con cierto detalle. En realidad consideramos un concepto más general que el de Riemann: a saber, la integral de Riemann-Stieltjes, que involucra dos funciones f y α. El sı́mbolo que utilizamos para designar tales integrales es Rb f (x)dα(x), o alguno similar, y la integral de Riemann se obtiene a como caso particular cuando α(x) = x. Cuando α tiene derivada conRb tinua, la definición es tal que la integral de Stieltjes a f (x)dα(x) se Rb convierte en la intgral de Riemann a f (x)α0 (x) dx. Sin embargo, la integral de Stieltjes tiene sentido en el caso en que α no es diferenciable e incluso cuando no es continua. De hecho, es al tratar con funciones discontinuas α cuando se hace patente la importancia de la integral de Stieltjes. Eligiendo adecuadamente una función discontinua α, una suma finita o infinita puede expresarse como una integral de Stieltjes, y la sumación y la integral de Riemann ordinaria son casos especiales de este proceso más general. Los problemas fı́sicos que consideran la distribución de masas que son en parte discretas 1.2. LA INTEGRAL DE RIEMANN–STIELTJES 3 y en parte continuas pueden ser abordados utilizando la integral de Stieltjes. En la teorı́a matemática de la Probabilidad esta integral es un instrumento muy útil que hace posible la consideración simultánea de variables aleatorias continuas y discretas. En muchos casos se utilizan integrales para calcular sumas que pueden ser complicadas de obtener por otros métodos, en razón de ello las interrelaciones entre unas y otras es mucho mayor de lo que puede suponerse en una primera aproximación. En las secciones 1.4 y 1.6 estudiamos herramientas para obtener diversos métodos de integración y para estimar los errores de las aproximaciones conseguidas. El esquema básico es aproximar la integral por una suma del tipo N X wi f (xi ) (1.11) i=1 sobre una partición del intervalo de integración, y elegir en forma conveniente los pesos wi y los puntos xi . Cuando aceptamos que las particiones no sean regulares surge naturalmente la idea de refinar la partición en los subintervalos donde los errores sean muy grandes y la idea opuesta de agrupar intervalos donde los errores sean excesivamente pequeños. Esto nos lleva a los denominados métodos adaptativos de integración que estudiaremos en la sección 1.8 1.2. La integral de Riemann–Stieltjes 1.2.1. Definición y propiedades. Definición 1.2.1. Sea P = {x0 , x1 , . . . , xn } una partición del intervalo [a, b] y sea, para cada k, ξk un punto del intervalo [xk−1 , xk ]. Una suma de la forma n X S(P, f, g) = f (ξk )∆gk (1.12) k=1 (donde ∆gk = g(xk ) − g(xk−1 )) se llama suma de Riemann-Stieltjes de f respecto de g. Diremos que f es integrable respecto de g en [a, b] si existe un número I que satisface la siguiente propiedad: para cada ε > 0, existe una partición Pε de [a, b] tal que, para cada partición P más fina que Pε y para cada elección de los puntos ξk del intervalo [xk−1 , xk ], k = 1, . . . , n, se tiene |S(P, f, g) − I| < ε (1.13) Observación 1.2.1. Si un tal número I existe, entonces es único y se representa por la expresión Z b f (x)dg(x) (1.14) a Ejemplo 1.2.1. Si g(x) = x entonces la integral se reduce a una integral de Riemann Ejemplo 1.2.2. Si g(x) es de clase C 1 en [a, b] entonces la integral resulta Z b f (x)g 0 (x) dx (1.15) a Nota: Este resultado se demuestra en el teorema D.2.5 en la página 63 La integral aproximada es un promedio pesado de los valores de la función 4 1. INTEGRACIÓN Ejemplo 1.2.3. Si f es continua y g(x) = bxc entonces la integral resulta X f (i) (1.16) i∈Z a<i≤b y si g(x) = dxe entonces X f (i) (1.17) i∈Z a≤i<b Nota: Este resultado se demuestra en el teorema D.2.7 en la página 65. Notar la diferencia entre los lı́mites de suma. 1.2.2. Integración por partes. Teorema 1.2.2. [Fórmula de integración por partes] Si f es integrable respecto de g en el intervalo [a, b], en el sentido de Riemann-Stieltjes, entonces g es integrable respecto de f en el intervalo [a, b], en el sentido de Riemann-Stieltjes, y se tiene Z b Z b f (x)dg(x) + g(x)df (x) = f (b)g(b) − f (a)g(a) (1.18) a a Demostración: Ver el teorema D.2.4 en la página 62 En el apéndice D en página 59 se desarrollan aspectos elementales de la teorı́a de integración de Riemann-Stieltjes siguiendo el texto de Apostol (1976) 1.3. La fórmula de suma de Euler Sea {x0 , x1 , . . . , xn }, donde x0 = a, x1 = a + h, . . . , xn = a + nh = b, una partición regular del intervalo [a, b]. La suma trapezoidal para la integral Z b f (x) dx (1.19) a se denota T (h) y resulta ser 1 1 T (h) = h f0 + f1 + f2 + f3 + . . . + fn−1 + fn 2 2 (1.20) o bien n−1 T (h) = h X 1 1 f0 + fi + fn 2 2 i=1 ! (1.21) Desearı́amos demostrar el siguiente teorema Teorema 1.3.1. Sea T (h) la suma trapezoidal 1.21. Entonces Z b h2 T (h) = f (x) dx + (f 0 (b) − f 0 (a)) 12 a 4 h − (f (3) (b) − f (3) (a)) 720 h6 + (f (5) (b) − f (5) (a)) 30240 + . . . + c2r h2r (f (2r−1) (b) − f (2r−1) (a)) + O(h2r+2 ) (1.22) (1.23) (1.24) (1.25) 1.3. LA FÓRMULA DE SUMA DE EULER 5 Donde los coeficientes {c2r } tienen la función generatriz h eh + 1 (1.26) 2 eh − 1 (para la interpretación detallada de los coeficientes ver el apéndice E en la página 67) 1 + c2 h2 + c4 h4 + c6 h6 + . . . = 1.3.1. El sı́mbolo ‘O’. La notación ‘O grande’ es útil para representar y calcular en forma exacta con magnitudes aproximadas. En general la notación O(f (n)) se usa —si f (n) es una función definida sobre los números naturales— con el fin de representar un número xn con el significado de que existe una constante positiva M tal que el número xn representado por O(f (n)) satisface la condición |xn | ≤ M |f (n)|, ∀n ≥ n0 (1.27) No damos explı́citamente —en general— las constantes M y n0 , las que suelen ser distintas en cada aparición de O Ejemplo 1.3.1. Sabemos que n X 1 1 1 1 1 i2 = n(n + )(n + 1) = n3 + n2 + n 3 2 3 2 6 i=1 (1.28) en consecuencia n X i=1 n X i=1 i2 = O(n3 ) i2 = 1 3 n + O(n2 ) 3 (1.29) (1.30) La ecuación 1.30 es más fuerte que la ecuación 1.29 (Justificar la validez de estas ecuaciones y la relación entre ambas). Las siguientes son operaciones válidas con la notación ‘O’ f (n) = O(f (n)) cO(f (n)) = O(f (n)), si c es una constante O(f (n)) + O(f (n)) = O(f (n)) O(O(f (n))) = O(f (n)) O(f (n))O(g(n)) = O(f (n)g(n)) O(f (n)g(n)) = f (n)O(g(n)) (1.31) (1.32) (1.33) (1.34) (1.35) (1.36) Nota 1.3.1. La notación ‘ O ’ suele extenderse a la variable real x. Por ejemplo se escribe 1 1 ex = 1 + x + x2 + x3 + O(x4 ) (1.37) 2! 3! Una cierta dosis de observación permite resolver la siguiente paradoja. Ejercicio 1.3.2. ¿Qué está mál en el siguiente razonamiento? “Como n = O(n), 2n = O(n), . . . , se tiene X X kn = O(n) = 0(n2 )” (1.38) 1≤k≤n Notar que es fácil demostrar que 1≤k≤n P 1≤k≤n kn = O(n3 ). 6 1. INTEGRACIÓN Ejercicio 1.3.3. Demostrar que si se permite a x tomar valores arbitrariamente grandes, entonces, para toda potencia m, ex 6= O(xm ) Este tipo de desarrollos en potencias de un operador suele utilizarse en los cursos elementales de Cálculo para la fórmula del polinomio de Taylor en dos variables independientes 1.3.2. lgebra de operadores. Si D representa el operador d/dx se tiene h3 h2 f (x + h) = f (x) + hf 0 (x) + f 00 (x) + f 000 (x) + . . . 2! 3! (hD)2 (hD)3 = 1 + hD + + + . . . f (x) 2! 3! = ehD f (x) (1.39) (1.40) (1.41) donde el operador ehD debe entenderse definido por la serie, para la que es fácil verificar que es normalmente convergente. En consecuencia f (x + 2h) = ehD f (x + h) = e2hD f (x) (1.42) y ası́ sucesivamente. Utilizamos esta representación de la traslación en la siguiente fórmula 1 1 T (h) = h f0 + f1 + f2 + . . . + fn−1 + fn (1.43) 2 2 1 1 =h + ehD + e2hD + . . . + e(n−1)hD + enhD f (x0 ) (1.44) 2 2 n−1 1 X jhD 1 nhD = h − + e + e f (x0 ) (1.45) 2 j=0 2 luego, por la fórmula de la suma geométrica, 1 enhD − 1 1 nhD T (h) = h − + hD + e f (x0 ) 2 e −1 2 1 1 = h hD + enhD − 1 f (x0 ) e −1 2 h ehD + 1 nhD = e − 1 f (x0 ) 2 ehD − 1 pero ∞ t et + 1 X = c2j t2j 2 et − 1 j=0 para la que, con el Mathematica, se obtiene directamente: Series[(h/2)(Exp[h]+1)/(Exp[h]-1),{h,0,21}] 2 4 6 8 10 h h h h h 1 + -- - --- + ----- - ------- + -------- 12 720 30240 1209600 47900160 12 14 16 691 h h 3617 h ------------- + ----------- - ----------------- + 1307674368000 74724249600 10670622842880000 18 43867 h 20 174611 h 22 (1.46) (1.47) (1.48) (1.49) 1.4. MÉTODOS BÁSICOS DE INTEGRACIÓN NUMÉRICA 7 ------------------- - --------------------- + O[h] 5109094217170944000 802857662698291200000 Resulta entonces T (h) = 1 + ∞ X c2j (hD)2j j=1 enhD − 1 f (x0 ) D ∞ X enhD − 1 f (x0 ) + c2j h2j D2j−1 enhD − 1 f (x0 ) D j=1 Z b ∞ X = f (x) dx + c2j h2j f (2j−1) (b) − f (2j−1) (a) = a (1.50) (1.51) (1.52) j=1 lo que justifica el enunciado del teorema 1.3.1 1.3.3. La fórmula de Euler. En el apéndice E (página 67) demostramos una fórmula de suma de Euler que enunciamos a continuación con modificaciones. Teorema 1.3.2. Supongamos que f es una función suave, de clase C ∞ en el intervalo [a, b]. Sea n ≥ 1, h = (b − a)/n, xj = a + jh, para j = 0, 1, . . . , n. Sea, además, {x} = x − bxc. Entonces se tiene Z b f (a) f (a) + f (x1 ) + . . . + f (xn−1 ) + f (x) dx = h 2 2 a Z b x−a f 0 (x) dx (1.53) +h B1 h a La demostración está presentada en el apéndice. Se tiene la siguiente fórmula de integración por partes (ver 74), Z b 1 Bm ({(x − a)/h})f (m) (x) dx = m! a 1 (Bm+1 (1)f (m) (b) − Bm+1 (0)f (m) (a) (m + 1)! Z b 1 − Bm+1 ({(x − a)/h})f (m+1) (x) dx (m + 1)! a (1.54) Utilizandola directamente se puede generalizar la fórmula 1.53 para obtener por inducción el teorema 1.3.1 de la página 4 1.4. Métodos básicos de integración numérica En las secciones 4.3 y 4.4 del texto de Burden y Faires (1996) se deducen y desarrollan los métodos básicos simples y compuestos para la determinación numérica de la integral Z b f (x) dx (1.55) a La deducción de los mismos se basa en la aproximación de la función f en el intervalo (o, en el caso de los métodos compuestos, en subintervalos de) [a, b]. La lectura de las secciones citadas es instructiva puesto que suministra una metodologı́a alternativa para la obtención de las expresiones de los distintos métodos respecto 8 1. INTEGRACIÓN de la que desarrollaremos a continuación, que se denomina “método de coeficientes indeterminados” 1.4.1. El método de coeficientes indeterminados. Para deducir los métodos básicos de integración numérica mediante este método reemplazamos la integral por una suma finita Z b N X f (x) dx ' wi f (xi ) (1.56) a El método de coeficientes indeterminados es una alternativa frente a los métodos basados en la aproximación mediante polinomios i=1 donde los N puntos a ≤ xi ≤ b se eligen en forma conveniente (lo que dependerá de la aplicación particular) y los coeficientes wi (que son pesos en un sentido general) se consideran indeterminados al principio y resultan ser las variables que debemos determinar. Para ello se reemplaza en la expresión una familia conveniente de polinomios de grado creciente y se utilizan las ecuaciones resultantes para determinar los wi y, eventualmente, estimar los errores de aproximación del método. En una sección posterior (ver 1.6 en la página 12) se generalizará este método para el caso en que se utilizan las ecuaciones para determinar tanto los wi como los xi . No se pierde generalidad si se considera que el intervalo de integración es [a, b] = [−1, 1], o bien [a, b] = [−h, h] por ello realizaremos las cuentas en alguno de estos intervalos particulares puesto que ası́ las expresiones suelen simplificarse. 1.4.2. El método trapezoidal. Si utilizamos el producto Mathematica para obtener los coeficientes las entradas y salidas podrı́an ser (* Trapezoidal *) a0=a;a1=b; (* Defino los puntos *) p0[x_]:=1; (* Defino los polinomios *) p1[x_]:=(2x-a-b)/(b-a); p2[x_]:=((2x-a-b)/(b-a))^2; s0=A p0[a0] + B p0[a1]//Simplify (* Integraci\’on num\’erica *) s1=A p1[a0] + B p1[a1]//Simplify; A + B i0=Integrate[p0[x],{x,a,b}]//Simplify (* Integro los polinomios *) i1=Integrate[p1[x],{x,a,b}]//Simplify; -a + b Solve[{s0==i0,s1==i1},{A,B}]//Simplify (* Resuelvo el sistema *) -a + b -a + b {{A -> ------, B -> ------}} 2 2 Se tiene, además, que el error ε1 para un paso h = b − a se puede escribir (utilizando la fórmula de interpolación lineal o utilizando el error para el polinomio p2 (x) del cuaderno de Mathematica precedente) como ε1 (f ) = − (b − a)3 00 f (η), 12 η ∈ [a, b] (1.57) 1.4. MÉTODOS BÁSICOS DE INTEGRACIÓN NUMÉRICA 9 (Justificar), análogamente el εn correspondiente al paso h = (b − a)/n resulta εn (f ) = n X − j=1 h3 00 f (ηj ) 12 n =− h3 n 1 X 00 f (ηj ) 12 n j=1 (1.58) y, por la suavidad de f (∈ C ∞ [a, b]) se tiene que n ∃η ∈ [a, b] : f 00 (η) = 1 X 00 f (ηj ) n j=1 (1.59) en definitiva (b − a)h2 00 f (η) η ∈ [a, b] 12 Si utilizamos la fórmula del teorema 1.3.1 podemos escribir εn (f ) = − εn (f ) = − B 2 h2 0 (f (b) − f 0 (a)) + O(h4 ) 2! (1.60) (1.61) h2 00 f (ξ)(b − a) + O(h4 ), ξ ∈ [a, b] (1.62) 12 lo que nos da un resultado del mismo orden. A partir de la expresión 1.58 se puede seguir otra lı́nea deductiva: tomamos lı́mite, n X h εn (f ) = lim − f 00 (ηj ) (1.63) lim n→∞ h2 n→∞ 12 j=1 n X 1 =− lim f 00 (ηj )h (1.64) 12 n→∞ j=1 − pero, en esta expresión, xj−1 ≤ ηj ≤ xj , j = 1, . . . , n con lo que la fórmula 1.64 es una suma de Riemann, en consecuencia ! Z b εn (f ) 1 1 00 lim = lim − f (x) dx = − (f 0 (b) − f 0 (a)) (1.65) n→∞ h2 n→∞ 12 a 12 es decir que h2 0 (f (b) − f 0 (a)) (1.66) 12 εf n (f ) es una aproximación al error asintótico lo que podemos establecer en la siguiente definición: εn (f ) ' εf n (f ) ≡ − Definición 1.4.1. Sean εn (f ) y εf n (f ), el error exacto y una estimación del error respectivamente. Decimos que εf n (f ) es una estimación asintótica del error εn (f ) si εf n (f ) lim =1 (1.67) n→∞ εn (f ) 10 1. INTEGRACIÓN C Utilizando εf n (f ) es posible dar un método trapezoidal corregido Th (f ) ThC (f ) = Th (f ) + εf n (f ) (1.68) es decir ThC (f ) =h f0 fn + f1 + f2 + . . . + fn−1 + 2 2 − h2 0 (f (b) − f 0 (a)) 12 (1.69) Ejercicio 1.4.1. Estudiar el comportamiento numérico del método trapezoidal corregido ThC (f ) 1.4.3. El método de Simpson. Utilizamos el producto Mathematica para determinar los coeficientes del método de Simpson (ver Apéndice B, página 37) Obtenemos b−a b−a a+b S = f (a) + 4f ( ) + f (b) (1.70) 2 6 2 y un error de truncamiento (b − a)5 (4) a + b f ( ) 2880 2 (1.71) lo que equivale a b−a 5 2 a+b f (4) ( ) (1.72) 90 2 En forma análoga al caso de método trapezoidal y utilizando las expresiones precedentes se tiene que 5 4 b−a f (4) (η) 2 , η ∈ [a, b] (1.73) ε2 (f ) = − 15 24 5 b−a 1 (4) =− f (η), η ∈ [a, b] (1.74) 2 90 y n 2 h5 n2 2 X f (4) (ηj ) εn (f ) = − 90 n j=1 εt = =− h4 (b − a) (4) f (η), 180 η ∈ [a, b] (1.75) y la fórmula asintótica h4 (3) (f (b) − f (3) (a)) (1.76) 180 (Esta última también se obtiene a partir del desarrollo asintótico de Euler) εf n (f ) = − 1.4.4. Métodos de Newton. En la sección precedente hemos obtenido la fórmula del método de Simpson. La misma metodologı́a se puede utilizar para cualquier elección de los puntos de la partición del intervalo de integración. Por ejemplo, si desearamos calcular los que corresponden a una partición regular de once puntos, nuevamente utilizamos el producto Mathematica para obtener los coeficientes (ver apéndice B en página 37). Estos métodos llevan el nombre de métodos de Newton, y en algunos textos también el de fórmulas de Newton-Cotes. 1.5. MÉTODOS DE EXTRAPOLACIÓN 11 1.5. Métodos de extrapolación En esta sección utilizaremos la expresión que calculamos para el error en el método trapezoidal para ejemplificar el uso de los métodos de extrapolación repetida de Richardson. Supongamos que b0 = I(0) es la integral que deseamos calcular y que, para el paso h se tiene I(h) = b0 + b1 h2 + b2 h4 + b3 h6 + . . . (1.77) (fórmula que sabemos válida para el mencionado método trapezoidal). El error de truncamiento es n−1 X I(h) − b0 = bi h2i + O(h2n ) (1.78) i=1 de modo que, con 1.77 y h h2 h4 h6 + b2 + b3 + ... I( ) = b0 + b1 2 4 16 64 (1.79) se obtiene efectuando ‘4 por (1.79) − (1.77)’ 3 15 h 4I( ) − I(h) = 3b0 − b2 h4 − b3 h6 + . . . 2 4 16 y, dividiendo por el coeficiente de b0 I (0) ( h2 ) − I (0) (h) 1 5 h I (1) (h) = I (0) ( ) + = b 0 − b 2 h 4 − b3 h 6 + . . . 2 3 4 16 (1.80) (1.81) (ver la sección C.2 en el apéndice, donde se deducen estas expresiones con el Mathematica). El error de truncamiento es 1 5 I (1) (h) − b0 = − b2 h4 − b3 h6 + . . . 4 16 (1.82) Si repetimos este cálculo (ver C.2) se obtiene I (0) (h) = I(h) (1.83) I (0) ( h2 ) − I (0) (h) 22 − 1 h I (1) (h) = I (0) ( ) + 2 I (1) ( h2 ) − I (1) (h) h I (2) (h) = I (1) ( ) + 2 24 − 1 .. . h I (j+1) (h) = I (j) ( ) + 2 I (j) ( h2 ) − I (j) (h) 22j+2 − 1 (1.84) (1.85) (1.86) (1.87) y, en general, I (j) (h) = b0 + O(h2j+2 ) (1.88) El esquema resultante es que cada elemento de la segunda columna se obtiene con los dos inmediatos a su izquierda, cada vez que se calcula una aproximación con paso más fino se puede calcular una antidiagonal de la tabla, y, por último, el criterio de detención es que dos valores en la misma columna difieran en menos que un valor de tolerancia preestablecido. 12 1. INTEGRACIÓN Tabla 1. Extrapolación de Richardson (Método de Romberg) I (0) (h) I (1) (h) I (2) (h) I (3) (h) I (0) ( h2 ) I (1) ( h2 ) I (2) ( h2 ) I (3) ( h2 ) I (0) ( h4 ) I (1) ( h4 ) I (2) ( h4 ) I (0) ( h8 ) I (1) ( h8 ) h I (0) ( 16 ) ... I (4) (h) . . . ... ... ... .. . 1.6. Cuadratura de Gauß La expresión aproximada N X wi f (xi ) (1.89) i=1 Rb para la integral a f (x) dx es mucho más útil si no se escogen de antemano los puntos xi . El problema de hallar los puntos y los pesos de modo que la expresión sea exacta para polinomios del mayor grado posible es resoluble y conduce a los métodos de integración de Gauß. En el apéndice B (página 37) incluimos un cuaderno del Mathematica que calcula los coeficientes para un método de Gauß de tres puntos (se realiza en el intervalo [−1, 1], pero un simple cambio de variables permite extenderlo a cualquier intervalo [a, b]) Es conveniente, si embargo, atacar el problema de cuadratura en un contexto un poco más general. Sea v una función de peso positiva en el intervalo [−1, 1], si x0 , x1 , . . . , xm se eligen como los ceros del polinomio pm+1 de grado m+1 en la familia de polinomios ortogonales asociada a v(x), entonces la fórmula Z 1 f (x)v(x) dx ' w0 f0 + w1 f1 + . . . + wm fm (1.90) −1 La inclusión de la función peso v facilita considerar distintas familias de polinomios ortogonales es exacta para todos los polinomios de orden 2m + 2 siempre que los coeficientes satisfagan Z 1 wi = δi (x)v(x) dx (1.91) −1 donde δi (x) es el polinomio de grado m (orden m + 1) tal que 0 j 6= i δi (xj ) = j = 0, 1, 2, . . . , m 1 j=i (1.92) Para verificar esta afirmación tomemos un polinomio f de orden 2m + 2, existen entonces polinomios q y r de orden m + 1 tales que f = qpm+1 + r (1.93) 1.7. MÉTODOS DE MONTECARLO 13 Por lo tanto, debido a la ortogonalidad de la familia {pi } Z 1 Z 1 Z 1 Z f (x)v(x) dx = q(x)pm+1 (x)v(x) dx + r(x)v(x) dx = −1 −1 −1 1 r(x)v(x) dx −1 (1.94) Asimismo, dado que xi es un cero de pm+1 , i = 0, 1, . . . , m, se tiene m X i=0 wi fi = m X wi q(xi )pm+1 (xi ) + i=0 m X wi r(xi ) = i=0 m X wi r(xi ) (1.95) i=0 pero, también se tiene Z 1 r(x)v(x) dx = −1 m X wi r(xi ) (1.96) i=0 porque los coeficientes wi fueron elegidos de modo que la fórmula sea exacta para todos los polinomios de grado m o menor (orden m + 1) Observación 1.6.1. Aplicando la fórmula 1.90 al caso f (x) = (δi (x))2 se tiene (fj = 0 para j 6= i) Z 1 (δi (x))2 v(x) dx = wi (1.97) −1 por lo que los coeficientes wi en las fórmulas de cuadratura de Gauß son positivos. Observación 1.6.2. Para obtener los coeficientes se toman los xi como los ceros de los polinomios del orden deseado y se utiliza un calculador simbólico como el Mathematica para obtener los coeficientes y para estimar el error de truncamiento local. En diversos manuales de fórmulas matemáticas figuran los puntos y coeficientes de Gauß para distintas familias de polinomios y distintos órdenes. El análisis del error puede desarrollarse en forma análoga a los casos considerados previamente, por ello dejamos los detalles para el lector interesado. 1.7. Métodos de Montecarlo En esta sección consideramos un método conceptualmente distinto, respecto de los anteriormente presentados, para obtener aproximaciones a las integrales Z b f (x) dx (1.98) a Suponemos que se posee una definición de la función f , por ejemplo en un m-file de Matlab function y = mifun(x) % MIFUN define mi funci\’on [mx,nx]=size(x) if (mx == 1) & (nx == 1) y = 2 * x; else disp(’error’); end % if o, también, si la función está dada por N puntos en un tabla mif de N × 2 donde mix=mif(:,1) y miy=mif(:,2), se la calcula, por ejemplo, mediante y=spline(mix,miy,x) ó bien y=interp1(mix,miy,x) según se desee. 14 1. INTEGRACIÓN Para la función f se determinan M f = sup f (x) (1.99) a≤x≤b y mf = inf f (x) a≤x≤b La función rand permite obtener puntos al azar en un dominio (1.100) (en realidad basta que se tomen cotas superior e inferior respectivamente). El método se aplica entonces a la función fe(x) = f (x) − mf que resulta no negativa y con su gráfico contenido en el rectángulo R = [a, b] × [0, M f − mf ], y consiste en lo siguiente. Se hallan P puntos al azar en el rectángulo R y se determina el número Pf de los que se encuentran en el área que deseamos aproximar. A continuación se calcula la estimación del área mediante la expresión Pf + mf (1.101) (b − a) (M f − mf ) P En la sección C.3 incluimos ejemplos de integrales de Montecarlo. Este método no suele ser utilizado para el caso de áreas puesto que existen buenos métodos de cuadratura (como los ya estudiados), sin embargo, el caso de los volúmenes o hipervolúmenes es distinto. Supongamos que se desea conocer el volumen de la intersección de 5 cuerpos que se cortan en el espacio Euclı́deo tridimensional, y que además, se desea distinguir la parte de la intersección que pertenece a un sexto cuerpo de aquella que no está contenida en el mismo. El intento de obtener la integral por métodos clásicos o numéricos puede ser de una complejidad excesiva aún para casos de cuerpos definidos por ecuaciones muy simples. El uso del método de Montecarlo permite superar estas dificultades. 1.7.1. Determinación de un volumen. En esta sección calcularemos el volumen del sólido que resulta de la intersección, en el primer octante, de los cilindros x2 + z 2 = 1 (1.102) y 1 y 2 + (z − )2 = 1 (1.103) 2 En primer término atacamos el problema con Matlab, a continuación desarrollamos un cuaderno del Mathematica en el que obtenemos una solución similar para ‘verificar’. % MONTEK volumen por m\’etodo de Montecarlo % C.E.Neuman, 11-may-97 rand(’seed’,sum(100*clock)); % inicializa el generador de n\’umeros al azar scores=[]; NN=20; N=NN^4; h=1/NN; % en esta variable se acumulan los resultados % da el numero de cubitos por lado % da el numero total de puntos % da el paso (dimension del cubito) for indice=1:10, X=zeros(N,3); for i=1:NN, % construcci\’on de los puntos al azar 1.7. MÉTODOS DE MONTECARLO im1=i-1; % en cada cubito for j=1:NN, jm1=j-1; for k=1:NN, km1=k-1; ps = rand(NN,3); ini=im1*NN*NN*NN+jm1*NN*NN+km1*NN+1; fin=ini-1+NN; X(ini:fin,:) = [ps(:,1)+i-1 ps(:,2)+j-1 ps(:,3)+k-1]*h; end % rof end % rof disp(i); end % rof x=X(:,1); y=X(:,2); % asignaci\’on de coordenadas al azar z=X(:,3); %%% %%% la siguiente variable calcula los valores de las funciones de corte para las variables: TEST=[y.*y+4*(z-0.5).*(z-0.5) x.*x+z.*z]; %%% %%% %%% en I se seleccionan los \’{\i}ndices correspondientes a puntos contenidos en el volumen que se desea medir (intersecci\’on de los dos cuerpos definidos por las expresiones de TEST) I=find( (TEST(:,1)<=1) & (TEST(:,2)<=1) ); [mI,nI]=size(I); scores=[scores; mI/N]; % acumulaci\’on del resultado disp(indice); end % rof mime=mean(scores) mide=std(scores) scorord=sort(scores); [m,n]=size(scores); mimeord=mean(scores(0.1*m:0.9*m)) mideord=std(scores(0.1*m:0.9*m)) figure; hist(scores); % Salidas del programa precedente %mime = % 0.6352 %mide = % 3.8221e-004 %mimeord = % 0.6352 %mideord = % 4.0451e-004 %scores = % 0.6349 % 0.6347 % 0.6356 % 0.6356 % 0.6347 % 0.6356 15 16 % % % % 1. INTEGRACIÓN 0.6350 0.6356 0.6356 0.6352 Esta regularidad se ve confirmada por el siguiente cuaderno del Mathematica (* M\’etodo de Montecarlo para integrales triples C\’alculo num\’erico de la integral *) (* Determino el l\’{\i}mite de separaci\’on *) Solve[4(1-x^2)==(1+Sqrt[1-y^2])^2,y] 2 2 {{y -> -Sqrt[-4 + 4 x - 4 Sqrt[1 - x ]]}, 2 2 {y -> Sqrt[-4 + 4 x - 4 Sqrt[1 - x ]]}, 2 {y -> -Sqrt[-4 + 4 x 2 + 4 Sqrt[1 - x ]]}, 2 2 {y -> Sqrt[-4 + 4 x + 4 Sqrt[1 - x ]]}} (* Defino el l\’{\i}mite de integraci\’on *) f[x_]:=Sqrt[-4+4x x+4Sqrt[1-x x]] (* Determino el punto de separaci\’on *) Solve[f[x]==1,x] -Sqrt[3] -Sqrt[3] Sqrt[3] {{x -> --------}, {x -> --------}, {x -> -------}, 2 2 2 Sqrt[3] {x -> -------}} 2 (* Defino el punto de separaci\’on *) c=Sqrt[3]/2 Sqrt[3] ------2 (* Defino los extremos de integraci\’on *) geu[x_,y_]:=(1/2)(1+Sqrt[1-y y]) ged[x_,y_]:=(1/2)(1-Sqrt[1-y y]) fcu[x_,y_]:=Sqrt[1-x x] (* Calculo las integrales en forma num\’erica *) I1=NIntegrate[1,{x,0,c},{y,f[x],1},{z,ged[x,y],geu[x,y]}] I2=NIntegrate[1,{x,0,c},{y,0,f[x]},{z,ged[x,y],fcu[x,y]}] I3=NIntegrate[1,{x,c,1},{y,0,f[x]},{z,ged[x,y],fcu[x,y]}] I1+I2+I3 0.244751 0.358503 0.0320788 0.635332 (* valor de la integral *) 1.8. Métodos adaptativos En el último apéndice (F, página 75) se propone un laboratorio de Matemática orientado a estudiar algoritmos adaptativos para la integración numérica. En la sección C.4, en la página 53, se incluye —para ilustración— el código de una función de Matlab, adaptada de la denominada quad, que implementa un algoritmo adaptativo recursivo de bajo orden basado en el método de Simpson. La 1.9. EJERCICIOS 17 función miquad es en realidad un driver que llama a la verdadera función recursiva que se denomina miquadst la que realiza cada paso de la recursión. 1.8.1. Comparación entre NIntegrate y quad. Calculamos el área bajo la curva normal, que puede encontrarse en cualquier tabla estadı́stica, utilizando las funciones NIntegrate del Mathematica y quad de Matlab. La primera da (los resultados de medición de tiempos se expresan en segundos) (* Calculo con el Mathematica *) f[x_]:=(1/Sqrt[2Pi]) E^(-x^2/2);//Timing {0. Second, Null} NIntegrate[f[x],{x,0,1}]//Timing {0.11 Second, 0.341345} N[NIntegrate[f[x],{x,0,1}],15]//Timing {0.11 Second, 0.341344746068543} Para la segunda es necesario definir en un m-archivo la función que se desea integrar: function y=nintquad(x) % NINTQUAD Densidad normal %%% C.E.Neuman, 10 de mayo de 1997 y=(1/sqrt(2*pi))*exp(-x.^2/2); % fin de nintquad La salida y la medición del tiempo empleado con Matlab es Salidas de la integraci\’on adaptativa con Matlab t=cputime; Q=quad1(’nintquad’,0,1); cputime-t, Q ans = 0.06 Q = 0.34134540613909 t=cputime; Q=quad1(’nintquad’,0,1,1e-5); cputime-t, Q ans = 0.11 Q = 0.34134474647804 t=cputime; Q=quad1(’nintquad’,0,1,1e-7); cputime-t, Q ans = 0.6 Q = 0.34134474607765 t=cputime; Q=quad1(’nintquad’,0,1,1e-9); cputime-t, Q ans = 2.47 Q = 0.34134474606860 Observamos que, en esta medición, —la que, al margen, no es muy precisa,— parece que la primera metodologı́a es más eficiente que la segunda. 1.9. Ejercicios Ejercicio 1.9.1. Utilizar el método de Romberg para calcular la integral Z 4 f (x) dx (1.104) 0 18 1. INTEGRACIÓN donde f (x) está definida por la siguiente tabla: x f (x) 0.0 −4271 0.5 −2522 1.0 −499 1.5 1795 2.0 4358 2.5 7187 3.0 10279 3.5 13633 4.0 17247 ¿Son necesarios todos los valores? Ejercicio 1.9.2. Probar que la fórmula " r ! Z 1 1 3 f (x) dx ' 5f − + 8f (0) + 5f 9 5 −1 r !# 3 5 es exacta para polinomios de quinto grado, y aplicarlo al cálculo de Z 1 sin x dx 1 +x 0 (1.105) (1.106) Ejercicio 1.9.3. (a) Deducir una fórmula de integración de Gauß de dos puntos para integrales de la forma Z 1 f (x)(1 + x2 ) dx (1.107) −1 que sea exacta cuando f (x) es un polinomio de grado 3. (b) Aplicar la fórmula a f (x) = x4 . Usar el resultado para obtener una aproximación del resto. Ejercicio 1.9.4. Supongamos que una integral numericamente aproximada se representa mediante el sı́mbolo In donde n es el número de subdivisiones del intervalo de integración. Si se calculan los valores de In para algún método numérico, analizar en forma empı́rica la velocidad de convergencia de In a I (el valor de la integral calculada exactamente) mediante los cocientes Rn = I2n − In I4n − I2n (1.108) Dar ejemplos y explicar los resultados. Ejercicio 1.9.5. [Optativo] Considerar el conjunto S1 de funciones definidas en el intervalo [a, b] de la siguiente forma. Sea n > 0, h = (b−a)/n, tj = a+jh, para j = 0, 1, . . . , n. Sea f (x) definida por la propiedad de ser lineal en cada subintervalo [tj−1 , tj ], para j = 1, . . . , n. Mostrar que este conjunto de funciones f , para todo n ≥ 1, es denso en el conjunto C[a, b] de funciones continuas en el intervalo [a, b]. Ejercicio 1.9.6. Obtener fórmulas de integración de Gauß para Z 1 n X I= xf (x) dx ' wj f (xj ) 0 (1.109) j=1 con función peso w(x) = x Ejercicio 1.9.7. Considerar la siguiente tabla de integrales aproximadas In obtenidas mediante la regla de Simpson. Predecir el orden de convergencia de la sucesión de In a la integral I: 1.9. EJERCICIOS n 2 4 8 16 32 64 19 In 0.28451779686 0.28559254576 0.28570248748 0.28571317731 0.28571418363 0.28571427643 Es decir que, si I − In ' c/np , entonces, ¿cuánto vale p? El resultado ¿resulta ser una forma válida para el error de estos datos? Predecir un valor de c y del error en I64 . ¿Qué valor de n es necesario alcanzar para que el error en In sea menor que 10−11 ? Ejercicio 1.9.8. Denotamos InT a la regla trapezoidal para aproximar la inteRb gral a f (x) dx, y, analogamente, InM para la fórmula de ‘midpoint’. Los respectivos errores asintóticos —en el caso en que f sea suficientemente regular en [a, b],— son I − InT = − y h2 0 [f (b) − f 0 (a)] + O(h4 ) 12 (1.110) h2 0 [f (b) − f 0 (a)] + O(h4 ) (1.111) 24 Utilizar estos resultados para obtener un nuevo método numérico, Ien , con orden de convergencia mayor, combinando InT y InM . ¿Cuáles son los pesos de la nueva fórmula Ien ? I − InM = CAPı́TULO 2 Ecuaciones diferenciales 2.1. Introducción Decimos que la ecuación diferencial ordinaria y 0 = f (x, y) (2.1) en una función incógnita y, con f (x, y) función continua en un dominio D del plano, tiene una solución y(x) en un intervalo x0 ≤ x ≤ x1 , si y(x) es una fución diferenciable, (x, y(x)) está en el dominio D para cada x del intervalo [x0 , x1 ] y, además, y 0 (x) = f (x, y(x)) en [x0 , x1 ]. Desde el punto de vista geométrico podemos considerar que la ecuación y 0 = f (x, y) define un campo continuo de direcciones sobre D. Y que las funciones solución son tangentes a esas direcciones (en cada punto del dominio). El campo de direcciones permite estimar gráficamente las trayectorias y 6 3 2 1 0 B Br B B A Ar A A @r @ 1 E Er E E C Cr C C A Ar A A E Er E B E Br B B 2 3 x Figura 1. Campo de direcciones de f (x, y) = −xy Ejemplo 2.1.1. Sea la ecuación diferencial y 0 = −xy, entonces y 0 /y = −x y es posible integrar ambos miembros obteniendo log y = −x2 /2 + C 0 , expresión de la que tomando la exponencial de ambos miembros se deduce la solución general 2 y(x) = Ce−x /2 (2.2) de la ecuación diferencial. En la figura 1 esquematizamos el campo de direcciones definido por f (x, y) = −xy. (En cada punto (x, y) dibujamos un pequeño segmento en la dirección de la recta por el punto con pendiente −xy.) 21 Una solución ε-aproximada difiere casi uniformemente de la solución en menos de ε 22 2. ECUACIONES DIFERENCIALES Definición 2.1.1. Sea f (x, y) una función continua definida en el dominio D. Una función y(x), definida en el intervalo [x1 , x2 ], es una solución (aproximada) de y 0 = f (x, y) con error menor que ε si (i) (x, y(x)) ∈ D, x1 ≤ x ≤ x2 (ii) y(x) es continua en [x1 , x2 ] (iii) y(x) tiene derivada continua a trozos en [x1 , x2 ] que puede no estar definida en un número finito de puntos del intervalo [x1 , x2 ], llamémoslos ξ1 , ξ2 , . . ., ξn (iv) |y 0 (x) − f (x, y(x))| ≤ ε, x1 ≤ x ≤ x2 , x 6= ξi , i = 1, 2, . . . , n. Una vez definidas las soluciones aproximadas de una ecuación diferencial deseamos demostrar un resultado de existencia de las mismas que, además, resulta constructivo, puesto que nos da un método para obtener la aproximación Teorema 2.1.1. Sea (x0 , y0 ) un punto del dominio D (de la definición 2.1.1) y supongamos que el rectángulo R = {|x − x0 | ≤ a, |y − y0 | ≤ b} está contenido en D. Sea |f (x, y)| ≤ M , (x, y) ∈ R. Entonces, si h = min(a, b/M ), puede construirse una solución aproximada y(x) de y 0 = f (x, y) en el intervalo |x − x0 | ≤ h, tal que y(x0 ) = y0 , donde el error ε puede ser un número positivo arbitrariamente pequeño. Notar que h es independiente de ε. P # # # # # # " # " " #" s # !(x (x0 + h, y0 ) ! O# 1 , y1 ) ! (x0 , yc 0) α 6 c c c c Mh c c c c S c ? R h Q Figura 2. El rectángulo S está contenido en el R Demostración: El rectángulo S = {|x − x0 | ≤ h, |y − y0 | ≤ M h} está contenido en R por la definición de h (ver la figura 2). Supongamos dado el ε del teorema. Como f (x, y) es continua en S, resulta uniformemente continua en S; es decir que, dado ε > 0 (que lo tomamos como el del teorema) existe δ > 0 tal que si |x̃ − x| ≤ δ y |ỹ − y| ≤ δ con (x̃, ỹ) ∈ S y (x, y) ∈ S, entonces |f (x̃, ỹ) − f (x, y)| ≤ ε (2.3) Sea x1 , . . . , xn−1 un conjunto de puntos tales que: x0 < x1 < x2 < · · · < xn−1 < xn = x0 + h, y xi − xi−1 ≤ min(δ, δ/M ), i = 1, . . . , n (2.4) 2.2. MÉTODOS EN DIFERENCIAS DE UN PASO 23 Construiremos la solución aproximada en el intervalo x0 ≤ x ≤ x0 + h; un proceso similar permite definirla en el intervalo x0 − h ≤ x ≤ x0 . La solución aproximada será una poligonal construida de la siguiente manera: desde (x0 , y0 ) se dibuja un segmento hacia la derecha con pendiente f (x0 , y0 ), este corta la recta x = x1 en un punto (x1 , y1 ). Desde (x1 , y1 ) se dibuja un segmento hacia la derecha con pendiente f (x1 , y1 ), que corta la recta x = x2 en y2 ; etc. El punto (x1 , y1 ) debe pertenecer al triángulo OQP de la figura 2 porque el ángulo α se toma de modo que tan α = M , y |f (x0 , y0 )| ≤ M . Por motivos análogos (x2 , y2 ) también está en OQP ; etc. En consecuencia el proceso puede continuarse hasta xn = x0 + h, porque la única razón por la que podrı́a detenerse serı́a que f (xk , yk ) no estuviese definida, caso en el que se tendrı́a |yk − y0 | > M h lo que serı́a contrario a la construcción. Podemos definir y(x) por las fórmulas recursivas y(x) = yi−1 + (x − xi−1 )f (xi−1 , y(xi−1 )) (2.5) donde yi−1 = y(xi−1 ), xi−1 ≤ x ≤ xi , i = 1, . . . , n (2.6) Por su definición y(x) es admisible, continua, y tiene derivada continua a trozos y 0 (x) = f (xi−1 , y(xi−1 ), xi−1 < x < xi , i = 1, . . . , n (2.7) que no está definida solamente en los puntos xi , i = 1, . . . , n − 1. Además, si xi−1 < x < xi |y 0 (x) − f (x, y(x))| = |f (xi−1 , yi−1 ) − f (x, y(x))| (2.8) Pero, por 2.4 |x − xi−1 | < min(δ, δ/M ), y, por 2.5 |y − yi−1 | ≤ M |x − xi−1 | ≤ M δ =δ M (2.9) En consecuencia, por 2.3 |f (xi−1 , yi−1 ) − f (x, y(x))| ≤ ε (2.10) y |y 0 (x) − f (x, y(x))| ≤ ε, x 6= xi , i = 1, 2, . . . , n − 1 (2.11) Resulta ası́ que y(x) satisface todas las condiciones de la definición previa y la construcción requerida por el teorema ha sido completada.(ver apéndice H) Este método de construir una solución aproximada se conoce como método de Euler. Es innecesario mejorar el valor del h del teorema porque, en general, se puede demostrar que y(x) está definida en un intervalo mayor que |x − x0 | ≤ h. 2.2. Métodos en diferencias de un paso 2.2.1. Métodos de Euler y retroEuler. El método de Euler para la resolución aproximada de la ecuación diferencial y 0 = f (x, y) (2.12) y(x0 ) = y0 se puede formular ası́: Método de Euler yn+1 = yn + hf (xn , yn ), n≥0 donde h es de ahora en adelante el paso del método en estudio. (2.13) 24 Estabilidad del método de Euler 2. ECUACIONES DIFERENCIALES En cada paso se cambia de miembro de la familia de soluciones de la ecuación diferencial, de manera que la precisión del método deberá depender de la estabilidad de las ecuaciones. Si las ecuaciones son estables, los errores en los primeros pasos tendrán pequeño efecto posterior. Definimos provisoriamente la noción de estabilidad de un método numérico en función de su comportamiento para resolver la ecuación diferencial y 0 = λy con λ un número complejo. La región de estabilidad absoluta es entonces el subconjunto de puntos hλ del plano complejo con h ≥ 0 para los que una perturbación en un único valor yn produce una sucesión de cambios en los siguientes valores que no crecen de paso a paso. Ejemplo 2.2.1. Para el método de Euler se tiene yn+1 = yn + λhyn = (1 + λh)yn (2.14) de modo que este método es absolutamente estable en la región |1 + λh| ≤ 1 que es el cı́rculo unitario del plano complejo centrado en el punto (−1, 0). Ejemplo 2.2.2. El método de Euler aplicado a la ecuación del ejemplo 2.1.1 resulta ser yn+1 = yn − hxn yn = (1 − hxn )yn (2.15) El método de Euler puede obtenerse también del siguiente razonamiento. Se reemplaza la derivada y 0 en la ecuación y 0 (x) = f (x, y) (2.16) por un cociente de incrementos en (xn , yn ) para obtener yn+1 − yn = f (xn , yn ) (2.17) h resultando el método al despejar la ecuación para yn+1 . Si, en cambio, se utiliza el mismo cociente, pero en (xn+1 , yn+1 ), se obtiene yn+1 − yn = f (xn+1 , yn+1 ) h Método de retroEuler (2.18) lo que conduce al método denominado “retroEuler” (backward Euler) yn+1 = yn + hf (xn+1 , yn+1 ) (2.19) que tiene la caracterı́stica especial de ser implı́cito y requiere la solución de una ecuación en cada paso. Ejemplo 2.2.3. Para el método retroEuler se tiene yn+1 = yn + λhyn+1 (2.20) es decir que luego de despejar yn+1 yn+1 = 1 yn 1 − λh (2.21) de modo que este método es absolutamente estable en la región |1/(1 − λh)| ≤ 1 válida en el semiplano de partes reales no positivas del plano complejo. Estabilidad del método retroEuler 2.2. MÉTODOS EN DIFERENCIAS DE UN PASO 25 Ejemplo 2.2.4. El método retroEuler aplicado a la ecuación del ejemplo 2.1.1 resulta ser yn+1 = yn − hxn+1 yn+1 (2.22) es decir yn+1 = 1 yn (1 + hxn+1 ) (2.23) 2.2.2. Métodos de Runge–Kutta. Nuestro siguiente objetivo es generalizar el método de Euler utilizando los desarrollos en polinomios de Taylor pero limitando lo más posible el cálculo de derivadas de las funciones involucradas. Recordemos que en este método se puede escribir yh (x) = y(x) + hD(x) + O(h2 ) (2.24) yh/2 (x) = y(x) + (h/2)D(x) + O(h2 ) (2.25) y que para el paso mitad (¿porqué?) y que aplicando la extrapolación (de Richardson) para eliminar D(x) y(x) = 2yh/2 (x) − yh (x) + O(h2 ) (2.26) Apliquémosla a un paso de longitud h, se tiene yh (xn + h) = yn + hf (xn , yn ) (2.27) yh/2 (xn + (h/2)) = yn + (h/2)f (xn , yn ) (2.28) y para medio paso en consecuencia yh/2 (xn + h) = yn + (h/2)f (xn , yn ) +(h/2)f (xn + (h/2), yn + (h/2)f (xn , yn )) (2.29) luego, aplicando la extrapolación, y(xn+1 ) = 2yn + hf (xn , yn ) + hf (xn + (h/2), yn + (h/2)f (xn , yn )) −yn − hf (xn , yn ) + O(h2 ) (2.30) y simplificando yn+1 = yn + hf (xn + (h/2), yn + (h/2)f (xn , yn )) (2.31) En definitiva, podemos escribir yn+1 = yn + hϕ(xn , yn , h; f ) (2.32) ϕ(x, y, h; f ) = f (x + (h/2), y + (h/2)f (x, y)) (2.33) con ¿En qué consiste esta primera fórmula de Runge en forma gráfica? En la figura 3 representamos el efecto de aplicar la primera fórmula de Runge en el paso de xn a xn+1 . Notemos que para el método de Euler se puede definir en forma análoga ϕ(x, y, h; f ) = f (x, y). Ejercicio 2.2.5. ¿Es posible expresar en esta notación el método de retroEuler? Primera fórmula de Runge 26 2. ECUACIONES DIFERENCIALES y 6 0 10 rr Runge un (xn+1 ) r Euler xn xn+1 x Figura 3. Primer método de Runge Para estudiar la estabilidad aplicamos la fórmula a la ecuación y 0 = λy. Se tiene yn+1 = yn + hλ(yn + (h/2)λyn ) = yn (1 + hλ + 12 h2 λ2 ) razón por la cual debe tenerse que |1 + hλ + 12 h2 λ2 | ≤ 1. Este primer método de Runge es generalización del de Euler. Aunque existen otras posibles generalizaciones, por ejemplo utilizando series de potencias, el problema es que hay que derivar la función f . La idea de Runge fue dar fórmulas que se originan en tomar combinaciones de valores de f (x, y) en puntos adecuadamente elegidos para obtener, sin derivaciones, expresiones cuyos desarrollos coincidan en sus primeros términos con la serie de potencias desarrollada en el entorno del punto. Esas fórmulas fueron mejoradas por Heun y por Kutta. Llamaremos método de Runge-Kutta (RK) a yn+1 = yn + hϕ(xn , yn , h; f ), n≥0 (RK) (2.34) y en lo que sigue determinaremos diversas elecciones para ϕ. Es natural esperar que ϕ(x, y(x), h; f ) ' y 0 (x) = f (x, y(x)) si h es pequeño. El error de truncamiento local es en este método εn+1 (y) = y(xn+1 ) − y(xn ) − hϕ(xn , y(xn ), h; f ), n≥0 (2.35) ♣ Ilustremos la deducción de distintas ϕ en el caso de segundo orden de aproximación. La propuesta es ϕ(x, y, h; f ) = γ1 f (x, y) + γ2 f (x + αh, y + βhf (x, y)) (2.36) donde deben determinarse las constantes γ1 , γ2 , α, y β. Para ello desarrollemos el error de truncamiento local en éste método εn+1 (y) = Y (xn+1 ) − Y (xn ) − hϕ(xn , Y (xn ), h; f ), n≥0 (2.37) en potencias de h εn+1 (y) = hYn0 + h2 00 h3 000 Y + Yn + O(h4 ) − hϕ(xn , Yn , h; f ) 2 n 6 (2.38) Estabilidad de la primera fórmula de Runge 2.2. MÉTODOS EN DIFERENCIAS DE UN PASO 27 donde (la notación fx significa ∂f /∂x y analogamente para las derivadas parciales de orden superior) y0 = f y 00 = fx + fy y 0 = fx + fy f y 000 = fxx + fxy f + (fyx + fyy f )f + fy (fx + fy f ) = fxx + 2fxy f + fyy f 2 + fy fx + fy2 f (2.39) (2.40) (2.41) (2.42) y ϕ(x, y, h; f ) = γ1 f (x, y) + γ2 (f (x, y) + h(αfx + βf fy ) 1 1 +h2 ( α2 fxx + αβfxy f + β 2 fyy f 2 )) + O(h3 ) (2.43) 2 2 Sustituyendo y agrupando términos en potencias de h se obtiene 1 1 εn+1 = h(1 − γ1 − γ2 )f + h2 (( − γ2 α)fx + ( − γ2 β)f fy ) 2 2 1 1 1 1 3 1 2 +h (( − γ2 α )fxx + ( − γ2 αβ)f fxy + ( − γ2 β 2 )f 2 fyy 6 2 3 6 2 1 1 2 3 + fy fx + fy f ) + O(h ) (2.44) 6 6 todo evaluado en (xn , Yn ). Deseamos que εn+1 (y) converja a cero tan rápido como se pueda. Aceptando f arbitrarias no podremos, en general, anular el coeficiente de h3 (¿porqué?). Anulando los de h y h2 obtenemos 1 1 εn+1 (y) = O(h3 ), γ1 + γ2 = 1, γ2 α = , γ 2 β = (2.45) 2 2 cuya solución general es γ2 arbitrario γ1 = 1 − γ2 1 α=β= 2γ2 Consideremos algunos casos particulares (a) γ2 = 1, lo que implica γ1 = 0, α = β = 12 h h , y + f (x, y)) 2 2 (b) γ2 = 12 , lo que implica γ1 = 21 , α = β = 1 ⇒ ϕ(x, y, h; f ) = f (x + 1 1 f (x, y) + f (x + h, y + hf (x, y)) 2 2 Notemos que si definimos ⇒ ϕ(x, y, h; f ) = k1 = hf (x, y) k2 = hf (x + h, y + k1 ) (2.46) (2.47) (2.48) (2.49) (2.50) (2.51) (2.52) se tiene 1 (k1 + k2 ) 2 Runge notó que este método puede mejorarse definiendo hϕ = k3 = hf (x + h, y + k2 ) (2.53) (2.54) Segunda fórmula de Runge 28 2. ECUACIONES DIFERENCIALES a r Runge 2 r u (x n n+1 ) r Euler 0 xn xn+1 x d Figura 4. Segunda fórmula de Runge y tomando 1 hϕ = (k1 + k3 ) (2.55) 2 d que es la segunda fórmula de Runge (ver figura 4). (c) (primer orden) γ1 = 1, lo que implica γ2 = 0, se obtiene en consecuencia y 6 ϕ(x, y, h; f ) = f (x, y) (Euler) (2.56) ♣ Las fórmulas de mayor orden involucran un álgebra más complicada, para ello se suele proponer hϕ(x, y, h; f ) = p X γi ki (2.57) i=1 con k1 = hf (x, y) k2 = hf (x + α2 h, y + β21 k1 ) .. . i−1 X ki = hf (x + αi h, y + βij kj ) i = 1, . . . , p (2.58) (2.59) (2.60) j=1 Método clásico Runge-Kutta de Los coeficientes se pueden escoger de modo que los primeros términos en el error de truncamiento local sean nulos. En consecuencia, por un procedimiento análogo al realizado en el caso de segundo orden se obtienen diversos métodos de orden superior de los que el más utilizado es el llamado Método de Runge-Kutta 1 yn+1 = yn + (k1 + 2k2 + 2k3 + k4 ) 6 (2.61) 2.2. MÉTODOS EN DIFERENCIAS DE UN PASO 29 con k1 = hf (xn , yn ) h k1 k2 = hf (xn + , yn + ) 2 2 h k2 k3 = hf (xn + , yn + ) 2 2 k4 = hf (xn + h, yn + k3 ) y 6 0 (2.62) (2.63) (2.64) (2.65) r RK r un (xn+1 ) r Euler xn xn+1 x Figura 5. El método de Runge-Kutta Se puede demostrar que ésta es una fórmula de cuarto orden: εn+1 = O(h5 ). Observación 2.2.1. El método RK clásico es una generalización de la regla de Simpson en el caso que f no sea independiente de y Z xn+1 h h f (x)dx ' (f (xn ) + 4f (xn + + f (xn+1 )) (2.66) 6 2 xn Ejemplo 2.2.6. Apliquemos el método clásico de RK a la ecuación de prueba y 0 = λy k1 = hλyn 1 k2 = hλ(yn + hλyn ) 2 1 = hλyn + h2 λ2 yn 2 1 1 k3 = hλ(yn + (hλyn + h2 λ2 yn )) 2 2 1 2 2 1 = hλyn + h λ yn + h3 λ3 yn 2 4 1 2 2 1 k4 = hλ(yn + hλyn + h λ yn + 1 h3 λ3 yn ) 2 4 1 3 3 1 2 2 = hλyn + h λ yn + h λ yn + h4 λ4 yn ) 2 4 (2.67) (2.68) (2.69) (2.70) (2.71) (2.72) (2.73) El método clásico de Runge-Kutta generaliza el método de Simpson 30 2. ECUACIONES DIFERENCIALES de manera que 1 yn + (k1 + 2k2 + 2k3 + k4 ) = yn 6 1 1 + (6hλyn + 3h2 λ2 yn + h3 λ3 yn + h4 λ4 yn ) 6 4 lo que permite escribir en definitiva 1 1 1 yn+1 = yn (1 + hλ + h2 λ2 + h3 λ3 + h4 λ4 ) 2 6 24 (2.74) (2.75) vemos ası́ que se aproxima a ehλ hasta el cuarto orden. Ejercicio 2.2.7. [Optativo] Con la expresión 2.75 se puede dibujar la región de estabilidad absoluta. ♣ Para estudiar la convergencia del esquema general RK yn+1 = yn + hϕ(xn , yn , h; f ), n≥0 (2.76) recordemos que el error local es εn+1 (Y ) = Y (xn+1 ) − Y (xn ) − hϕ(xn , Y (xn ), h; f ), n≥0 (2.77) conviene definir τn+1 (Y ) por la expresión εn+1 (y) = hτn+1 (Y ) (2.78) y con esta τ se tiene Y (xn+1 ) = Y (xn ) + hϕ(xn , Y (xn ), h; f ) + hτn+1 (Y ), n≥0 (2.79) con lo que resulta Y (xn+1 ) − Y (xn ) − ϕ(xn , Y (xn ), h; f ) (2.80) h de modo que debe tenerse τn+1 (Y ) → 0 cuando h → 0, equivalentemente debe requerirse que ϕ(x, Y (x), h; f ) → Y 0 (x) = f (x, Y (x)) cuando h → 0. Definiendo δ(h) = max |f (x, y) − ϕ(x, y, h; f )| (2.81) τn+1 (Y ) = x0 ≤x≤b −∞<y<∞ se tiene que limh→0 δ(h) = 0 se denomina condición de consistencia para el método 2.76 y es suficiente para asegurar la convergencia si se tienen ciertas hipótesis para ϕ, a saber: ϕ continua y |ϕ(x, y, h; f ) − ϕ(x, ỹ, h; f )| ≤ L|y − ỹ|, x0 ≤ x ≤ b, −∞ < y, ỹ < ∞ (2.82) (función de Lipschitz en la variable y) Teorema 2.2.2. Supongamos que el método 2.76 dado por yn+1 = yn + hϕ(xn , yn , h; f ) (2.83) satisface la condición |ϕ(x, y, h; f ) − ϕ(x, ỹ, h; f )| ≤ L|y − ỹ| con x0 ≤ x ≤ b − ∞ < y, ỹ < ∞, L constante. Entonces la solución aproximada {yn } del problema de valores iniciales y 0 = f (x, y), y(x0 ) = y0 satisface max |Y (xn ) − yn | ≤ e(b−x0 )L |Y0 − y0 | + x0 ≤xn ≤b e(b−x0 )L − 1 τ (h) L (2.84) 2.2. MÉTODOS EN DIFERENCIAS DE UN PASO 31 donde τ (h) = maxx0 ≤xn ≤b |τn+1 (Y )|. Si se satisface la condición de consistencia δ(h) = max x0 ≤x≤b −∞<y<∞ |f (x, y) − ϕ(x, y, h; f )| −→ 0 para h→0 (2.85) entonces la solución numérica {yn } converge a Y (x) Demostración: Restamos (2.79)−(2.76) Y (xn+1 ) − yn+1 = Y (xn ) − yn + h(ϕ(xn , Y (xn ), h; f ) −ϕ(xn , yn , h; f )) + hτn+1 (Y ) (2.86) Luego |Y (xn+1 ) − yn+1 | ≤ |Y (xn ) − yn | + h|ϕ(xn , Y (xn ), h; f ) − ϕ(xn , yn , h; f )| +h|τn+1 (Y )| ≤ |Y (xn ) − yn |(1 + hL) + hτ (h), x0 ≤ xn ≤ b (2.87) Recursivamente se tiene |Y (xn+1 ) − yn+1 | ≤ (1 + hL)n |Y (x0 ) − y0 | + (1 + (1 + hL) + . . . + (1 + hL)n−1 )hτ (h) (1 + hL)n − 1 ≤ (1 + hL)n |Y (x0 ) − y0 | + τ (h) L (2.88) 2 pero (1 + hL)n ≤ enhL = e(xn −x0 )L ≤ e(b−x0 )L pues ex = 1 + x + x2 eξ con 0 ≤ ξ ≤ x y x > −1 ⇒ (1 + x)m ≤ emx . Luego |Y (xn ) − yn | ≤ e(b−x0 )L |Y (x0 ) − y0 | + e(b−x0 )L − 1 τ (h), L x0 ≤ xn ≤ b (2.89) En muchos casos se puede demostrar que τ (h) → 0 cuando h → 0 por cálculo directo obteniendose ası́ la convergencia buscada. Veamos que basta saber que limh→0 δ(h) = 0, hτn+1 (Y ) = Y (xn+1 ) − Y (xn ) − hϕ(xn , Y (xn ), h; f ) 1 = hY 0 (n) + h2 Y 00 (ξn ) − hϕ(xn , Y (xn ), h; f ), 2 con xn < ξn < xn+1 (2.90) resulta ası́ h|τn+1 (Y )| ≤ hδ(h) + h2 00 ||Y ||∞ 2 (2.91) obteniendose en definitiva 1 τ (h) ≤ δ(h) + h||Y 00 ||∞ 2 (2.92) lo que completa la demostración. Corolario 2.2.3. Si el método RK dado por yn+1 = yn +hϕ(xn , yn , h; f ) tiene un error de truncamiento εn+1 (y) = O(hm+1 ) entonces la velocidad de convergencia de {yn } a y(x) es O(hm ). 32 2. ECUACIONES DIFERENCIALES Teorema 2.2.4. Si ϕ(x, y, h; f ) es continua en (x, y, h) en x0 ≤ x ≤ b, 0 ≤ h ≤ h0 , para todo y y es Lipschitz en y, entonces la convergencia es equivalente a tener ϕ(x, Y (x), 0; f ) = f (x, Y (x)) o, equivalentemente ϕ(x, y, 0; f ) = f (x, y) Ejercicio 2.2.8. Demostrar el teorema 2.2.4 La velocidad de convergencia de yh (x) a Y (x) es O(h4 ) en el método clásico RK pues εn+1 (y) = O(h5 ). Se puede demostrar, en consecuencia, que Y (x) − yh (x) = D(x)h4 + O(h5 ) (2.93) donde D(x) satisface un problema análogo de valores iniciales. Asimismo, como Y (x) − y2h (x) = 16D(x)h4 + O(h5 ) (2.94) se deduce que 1 (yh (x) − y2h (x)) + O(h5 ) 15 donde el término yh (x) − y2h (x) permite estimar el error. En general vale el siguiente (2.95) Y (x) = yh (x) + Teorema 2.2.5. Si el error de truncamiento εn+1 (Y ) = hϕ(x, Y (x), h; f ) − (Y (x + h) − Y (x)) (2.96) se puede expresar εn+1 (Y ) = hr+1 ψ(x, Y ) + O(hr+2 ) (2.97) y ϕ tiene derivadas segundas continuas, entonces el error satisface en = hr D(xn ) + O(hr+1 ) (2.98) donde D(x) es solución de D0 (x) = ∂f (x, Y (x))D(x) + ψ(x, Y (x)) ∂y (2.99) Demostración: Por el orden del método buscamos para en una expresión de la forma del enunciado. Si reemplazamos la expresión en = hr δn en en+1 = en + h(ϕ(xn , yn , h; f ) − ϕ(xn , Y (xn ), h; f )) + εn+1 (Y ) (2.100) obtenemos δn+1 = δn + h1−r (ϕ(xn , Y (xn ) + hr δn , h; f ) − ϕ(xn , Y (xn ), h; f )) +hψ(xn , Y (xn )) + O(h2 ) (2.101) Por la suavidad supuesta para ϕ podemos escribir ϕ(xn , Y (xn ) + hr δn , h; f ) = ϕ(xn , Y (xn ), h; f ) + ϕy (xn , Y (xn ), h; f )hr δn 1 + ϕyy (xn , Y (xn ), h; f )h2r δn2 (2.102) 2 2.3. EJERCICIOS 33 en razón de la convergencia este último sumando se puede escribir en la forma k1 h2r con ||k1 || acotada. El segundo sumando se puede reescribir ası́ ϕy (xn , Y (xn ), h; f )hr δn = ϕy (xn , Y (xn ), 0; f )hr δn +ϕyh (xn , Y (xn ), ξ; f )hr+1 δn (2.103) cuyo último sumando se puede escribir en la forma k2 hr+1 con ||k2 || acotada. En definitiva δn+1 = δn + h(fy (xn , Y (xn ))δn + hψ(xn , Y (xn ) + hk2 + hr k1 ) (2.104) que es un método numérico para D0 (x) = fy (x, Y (x))D(x) + ϕ(x, Y (x)) (2.105) D(0) + e0 h−r (2.106) lo que permite completar la demostración del teorema. ♣ 2.3. Ejercicios Ejercicio 2.3.1. Dada y 0 = 1 + x2 y 2 , con y(0) = 0, calcular y(0.5) mediante el método de Euler con extrapolación de repetida de Richardson. Usar aritmética de redondeo de cinco decimales. Ejercicio 2.3.2. Aplicando el método de Euler, se obtuvieron los resultados: 1.22726 (con paso h = 0.05), 1.22595 (h = 0.1), 1.22345 (h = 0.2). Calcule un mejor valor por extrapolación. Ejercicio 2.3.3. Utilizar el método de Euler con longitud de paso h sobre el problema test y 0 = −y, y(0) = 1 (2.107) (a) Determinar una expresión explı́cita para yn (b) ¿Para qué valores de h la sucesión {yn }∞ 0 es acotada? (c) Calcular el limh→0 (y(x, h) − e−x )/h Ejercicio 2.3.4. Determinar el desarrollo de Taylor para la solución de la ecuación y 0 = y 2 , con y(0) = 1, en el entorno de x = 0. Usar esta aproximación para calcular y(0.2) e y(1.2) con cuatro decimales. Comparar con la solución exacta y explicar porqué el segundo caso (x = 1.2) no es exitoso. Ejercicio 2.3.5. La función y(x) se define mediante el problema y 0 = x2 − y 2 , y(0) = 1 (2.108) Calcular y(0.2) utilizando los siguientes métodos: (a) (b) (c) (d) Euler-Richardson: h = 0.1 y h = 0.2; Método Runge-Kutta: h = 0.1; Desarrollo en serie de Taylor hasta el cuarto término; Método del trapecio: h = 0.2. Ejercicio 2.3.6. [Optativo]Se desea realizar una tabla de la función Z ∞ −u2 e y(x) = du (u + x) 0 (2.109) 34 2. ECUACIONES DIFERENCIALES para varios valores de x. Se procede de la siguiente manera: y(x) se calcula para x = 1 usando algún método para integración numérica; se calcula y(1) = 0.6051. Mostrar que y satisface la ecuación diferencial dy 1 √ + 2xy = − + π (2.110) dx x Se resuelve la ecuación diferencial numéricamente con el valor inicial y(1) = 0.6051, y ası́ se pueden calcular más valores de la tabla. Determinar y(x) para x = 1.2 y x = 1.4 mediante el método de Runge-Kutta y estimar el error en y(1.4). APÉNDICE A Bibliografı́a y referencias A.1. Textos básicos (1) Atkinson, K.E.: An Introduction to Numerical Analysis, 2nd edition, J. Wiley & Sons., New York, 1989. (2) Burden, R.L. y Faires, J.D.: Análisis Numérico, 2da edición, Grupo Editorial Iberoamérica, México, 1993. (3) Dahlquist, G., and Bjrck, Å.: Numerical Methods, Prentice-Hall, E. Cliffs, NJ, 1974. A.2. Bibliografı́a complementaria (1) Aguilera, N.E.: Introducción a la computación en Matemática usando Mathematica, Red Olı́mpica, OMA, Buenos Aires, 1994. (2) Apostol, T.M.: Análisis Matemático, 2da edición, Reverté, Barcelona, 1976. (3) Braun, M.: Differential Equations and Their Applications. An Introduction to Applied Mathematics, 4th edition, Springer, N.York, 1993. (4) Davis, Ph.J. y Rabinowitz, Ph.: Methods of Numerical Integration, 2nd edition, Academic Press, N.York, 1984. (5) Gear, C.W.: Numerical Initial Value Problems in Ordinary Differential Equations, Prentice-Hall, E. Cliffs, 1971 (6) Golub, G.H. (Editor): Studies in Numerical Analysis, MAA Studies in Mathematics 24, Washington, 1984. (7) Graham, R.L., Knuth, D.E., and Patashnik, O.: Concrete Mathematics, Addison-Wesley, Reading, MA, 1989. (8) Hurewicz, W.: Lectures on Ordinary Differential Equations, The M.I.T. Press, Cambridge, MA, 1958. (9) Knuth, D.E.: The Art of Computer Programming Vol.1: Fundamental Algorithms Vol.2: Seminumerical algorithms Vol.3: Sorting and searching , Addison-Wesley, Reading, 1973. Versión española: V.1, Reverté, Barcelona, 1980. (10) Linz, P.: A Critique of Numerical Analysis, Bulletin American Mathematical Society, 19(2), 407–416, 1988 (11) Maeder, R.: Programming in Mathematica, 2nd edition, Addison-Wesley, 1991. (12) Marshall, G.: Solución Numérica de Ecuaciones Diferenciales, Tomos 1 y 2, Reverté, Buenos Aires, 1985 y 1986 35 36 A. BIBLIOGRAFÍA Y REFERENCIAS (13) Press, W.H., Teukolsky, S.A., Vetterlin, W.T., y Flannery, B.P.: Numerical Recipes in C. The Art of Scientific Computing, 2nd edition, Cambridge University Press, Cambridge, 1992. (14) Rice, J.R.: Numerical Methods, Software, and Analysis, 2nd edition, Academic Press, Boston, 1993. (15) Stoer, J. y Bulirsch, R.: Introduction to Numerical Analysis, Springer, N.York, 1980. (16) Strang, G.: Introduction to Applied Mathematics, Wellesley-Cambridge, Wellesley, 1986 (17) Wolfram Research: Guide to Standard Mathematica Packages, Version 2.2, Technical Report, Wolfram Research, 1993. (18) Wolfram Research: MathLink Reference Guide, Version 2.2, Technical Report, Wolfram Research, 1993. (19) Wolfram, S.: The Mathematica Book , 3rd edition, Wolfram MediaCambridge, Cambridge, UK, 1996. APÉNDICE B Coeficientes indeterminados con el Mathematica B.1. El método de Simpson (* Simpson *) a0=a;(* Defino los puntos *) a1=a/2+b/2; a2=b;(*a=-1;b=1;*) p0[x_]:=1; (* Defino los polinomios *) p1[x_]:=(2x-a-b)/(b-a); p2[x_]:=((2x-a-b)/(b-a))^2; p3[x_]:=((2x-a-b)/(b-a))^3; p4[x_]:=((2x-a-b)/(b-a))^4; (* Integraci\’on num\’erica *) s0=A p0[a0] + B p0[a1] + C p0[a2] //Simplify s1=A p1[a0] + B p1[a1] + C p1[a2] //Simplify; s2=A p2[a0] + B p2[a1] + C p2[a2] //Simplify; A + B + C (* Integro los polinomios *) i0=Integrate[p0[x],{x,a,b}]//Simplify i1=Integrate[p1[x],{x,a,b}]//Simplify; i2=Integrate[p2[x],{x,a,b}]//Simplify; -a + b (* Resuelvo el sistema *) Solve[{s0==i0,s1==i1,s2==i2},{A,B,C}]//Simplify 2 (-a + b) -a + b -a + b {{B -> ----------, A -> ------, C -> ------}} 3 6 6 (* Verifico que vale para polinomios de tercer grado *) (s3=A p3[a0] + B p3[a1] + C p3[a2])/.%15 //Simplify {0} i3=Integrate[p3[x],{x,a,b}]//Simplify 0 (* Resulta as\’{\i} que la siguiente ecuaci\’on ( s3 == i3 ) vale trivialmente *) (* Calculo del error con el polinomio de cuarto grado *) (s4=A p4[a0] + B p4[a1] + C p4[a2])/.%15 //Simplify -a + b {------} 3 i4=Integrate[p4[x],{x,a,b}]//Simplify -a + b -----5 e4=(%20 - %19)//Simplify 2 (a - b) 37 38 B. COEFICIENTES INDETERMINADOS CON EL Mathematica {---------} 15 (* Calculo del polinomio de Taylor *) Series[ f[x], {x, (a+b)/2, 4}] a + b -(a + b) 2 f’’[-----] (-------- + x) a + b a + b -(a + b) 2 2 f[-----] + f’[-----] (-------- + x) + -------------------------- + 2 2 2 2 (3) a + b -(a + b) 3 (4) a + b -(a + b) 4 [-----] (-------- + x) f [-----] (-------- + x) 2 2 2 2 --------------------------- + --------------------------- + 6 24 f -(a + b) 5 O[-------- + x] 2 (* Resulta asi que el error de truncamiento es 5 (4) a + b ( b - a ) f [-----] 2 -----------------------2880 *) B.2. El método de Newton (* Newton de once puntos *) a0=a; (* Defino los puntos *) a1=9a/10+b/10; a2=8a/10+2b/10; a3=7a/10+3b/10; a4=6a/10+4b/10; a5=5a/10+5b/10; a6=4a/10+6b/10; a7=3a/10+7b/10; a8=2a/10+8b/10; a9=a/10+9b/10; a10=b; p0[x_]:=1; (* Defino los polinomios *) p1[x_]:=(2x-a-b)/(b-a); p2[x_]:=((2x-a-b)/(b-a))^2; p3[x_]:=((2x-a-b)/(b-a))^3; p4[x_]:=((2x-a-b)/(b-a))^4; p5[x_]:=((2x-a-b)/(b-a))^5; p6[x_]:=((2x-a-b)/(b-a))^6; p7[x_]:=((2x-a-b)/(b-a))^7; p8[x_]:=((2x-a-b)/(b-a))^8; p9[x_]:=((2x-a-b)/(b-a))^9; p10[x_]:=((2x-a-b)/(b-a))^10; p11[x_]:=((2x-a-b)/(b-a))^11; p12[x_]:=((2x-a-b)/(b-a))^12; B.2. EL MÉTODO DE NEWTON (* Integraci\’on num\’erica *) s0=A0 p0[a0] + A1 p0[a1] + A2 p0[a2] + A3 p0[a3]+ A4 p0[a4] + A5 p0[a5] + A6 p0[a6] + A7 p0[a7]+ A8 p0[a8] + A9 p0[a9] + A10 p0[a10]//Simplify; s1=A0 p1[a0] + A1 p1[a1] + A2 p1[a2] + A3 p1[a3]+ A4 p1[a4] + A5 p1[a5] + A6 p1[a6] + A7 p1[a7]+ A8 p1[a8] + A9 p1[a9] + A10 p1[a10]//Simplify; s2=A0 p2[a0] + A1 p2[a1] + A2 p2[a2] + A3 p2[a3]+ A4 p2[a4] + A5 p2[a5] + A6 p2[a6] + A7 p2[a7]+ A8 p2[a8] + A9 p2[a9] + A10 p2[a10]//Simplify; s3=A0 p3[a0] + A1 p3[a1] + A2 p3[a2] + A3 p3[a3]+ A4 p3[a4] + A5 p3[a5] + A6 p3[a6] + A7 p3[a7]+ A8 p3[a8] + A9 p3[a9] + A10 p3[a10]//Simplify; s4=A0 p4[a0] + A1 p4[a1] + A2 p4[a2] + A3 p4[a3]+ A4 p4[a4] + A5 p4[a5] + A6 p4[a6] + A7 p4[a7]+ A8 p4[a8] + A9 p4[a9] + A10 p4[a10]//Simplify; s5=A0 p5[a0] + A1 p5[a1] + A2 p5[a2] + A3 p5[a3]+ A4 p5[a4] + A5 p5[a5] + A6 p5[a6] + A7 p5[a7]+ A8 p5[a8] + A9 p5[a9] + A10 p5[a10]//Simplify; s6=A0 p6[a0] + A1 p6[a1] + A2 p6[a2] + A3 p6[a3]+ A4 p6[a4] + A5 p6[a5] + A6 p6[a6] + A7 p6[a7]+ A8 p6[a8] + A9 p6[a9] + A10 p6[a10]//Simplify; s7=A0 p7[a0] + A1 p7[a1] + A2 p7[a2] + A3 p7[a3]+ A4 p7[a4] + A5 p7[a5] + A6 p7[a6] + A7 p7[a7]+ A8 p7[a8] + A9 p7[a9] + A10 p7[a10]//Simplify; s8=A0 p8[a0] + A1 p8[a1] + A2 p8[a2] + A3 p8[a3]+ A4 p8[a4] + A5 p8[a5] + A6 p8[a6] + A7 p8[a7]+ A8 p8[a8] + A9 p8[a9] + A10 p8[a10]//Simplify; s9=A0 p9[a0] + A1 p9[a1] + A2 p9[a2] + A3 p9[a3]+ A4 p9[a4] + A5 p9[a5] + A6 p9[a6] + A7 p9[a7]+ A8 p9[a8] + A9 p9[a9] + A10 p9[a10]//Simplify; s10=A0 p10[a0] + A1 p10[a1] + A2 p10[a2] + A3 p10[a3]+ A4 p10[a4] + A5 p10[a5] + A6 p10[a6] + A7 p10[a7]+ A8 p10[a8] + A9 p10[a9] + A10 p10[a10]//Simplify; (* Integro los polinomios *) i0=Integrate[p0[x],{x,a,b}]//Simplify i1=Integrate[p1[x],{x,a,b}]//Simplify; i2=Integrate[p2[x],{x,a,b}]//Simplify; i3=Integrate[p3[x],{x,a,b}]//Simplify; i4=Integrate[p4[x],{x,a,b}]//Simplify; i5=Integrate[p5[x],{x,a,b}]//Simplify; i6=Integrate[p6[x],{x,a,b}]//Simplify; i7=Integrate[p7[x],{x,a,b}]//Simplify; i8=Integrate[p8[x],{x,a,b}]//Simplify; i9=Integrate[p9[x],{x,a,b}]//Simplify; i10=Integrate[p10[x],{x,a,b}]//Simplify; -a + b (* Resuelvo el sistema *) Solve[{s0==i0,s1==i1,s2==i2 ,s3==i3,s4==i4 ,s5==i5,s6==i6 ,s7==i7,s8==i8 ,s9==i9,s10==i10} ,{A0,A1,A2,A3,A4,A5,A6,A7,A8,A9,A10}]//Simplify 17807 (-a + b) -16067 (a - b) {{A5 -> --------------, A0 -> --------------, 39 40 B. COEFICIENTES INDETERMINADOS CON EL Mathematica 24948 598752 -26575 (a - b) 16175 (a - b) A1 -> --------------, A2 -> -------------, 149688 199584 -5675 (a - b) 4825 (a - b) A3 -> -------------, A4 -> ------------, 12474 11088 4825 (a - b) -5675 (a - b) A6 -> ------------, A7 -> -------------, 11088 12474 16175 (a - b) -26575 (a - b) A8 -> -------------, A9 -> --------------, 199584 149688 -16067 (a - b) A10 -> --------------}} 598752 (* Verifico que los pesos suman uno *) 598752/24948 24 598752/149688 4 598752/199584 3 598752/12474 48 598752/11088 54 2 16067 + 2 26575 4 - 2 16175 3 + 2 5675 48 - 2 4825 54 + 17807 24 598752 B.3. El método de cuadratura de Gauß de tres puntos (* Gauss de tres puntos *) a=-1; (* Se trabaja en el [-1,1] *) b=1; p0[x_]:=1; (* Definici\’on de los polinomios *) p1[x_]:=(2x-a-b)/(b-a); p2[x_]:=((2x-a-b)/(b-a))^2; p3[x_]:=((2x-a-b)/(b-a))^3; p4[x_]:=((2x-a-b)/(b-a))^4; p5[x_]:=((2x-a-b)/(b-a))^5; p6[x_]:=((2x-a-b)/(b-a))^6; p7[x_]:=((2x-a-b)/(b-a))^7; (* Las expresiones de Gauss *) s0=A p0[X] + B p0[Y] + C p0[Z] s1=A p1[X] + B p1[Y] + C p1[Z] s2=A p2[X] + B p2[Y] + C p2[Z] s3=A p3[X] + B p3[Y] + C p3[Z] s4=A p4[X] + B p4[Y] + C p4[Z] s5=A p5[X] + B p5[Y] + C p5[Z] s6=A p6[X] + B p6[Y] + C p6[Z] A + B + C //Simplify //Simplify; //Simplify; //Simplify; //Simplify; //Simplify; //Simplify; (* Las integrales *) i0=Integrate[p0[x],{x,a,b}]//Simplify i1=Integrate[p1[x],{x,a,b}]//Simplify; i2=Integrate[p2[x],{x,a,b}]//Simplify; B.4. LOS COEFICIENTES DE LA CUADRATURA DE GAUSS DE CINCO PUNTOS i3=Integrate[p3[x],{x,a,b}]//Simplify; i4=Integrate[p4[x],{x,a,b}]//Simplify; i5=Integrate[p5[x],{x,a,b}]//Simplify; 2 (* El sistema de ecuaciones no lineal *) Solve[{s0==i0, s1==i1, s2==i2, s3==i3, s4==i4, s5==i5},{A,B,C,X,Y,Z}]//Simplify 5 5 8 3 3 {{A -> -, B -> -, C -> -, Z -> 0, Y -> -Sqrt[-], X -> Sqrt[-]}, 9 9 9 5 5 5 5 8 3 3 {A -> -, B -> -, C -> -, Z -> 0, Y -> Sqrt[-], X -> -Sqrt[-]}, 9 9 9 5 5 5 8 5 3 3 {A -> -, B -> -, C -> -, Z -> -Sqrt[-], Y -> 0, X -> Sqrt[-]}, 9 9 9 5 5 5 8 5 3 3 {A -> -, B -> -, C -> -, Z -> Sqrt[-], Y -> 0, X -> -Sqrt[-]}, 9 9 9 5 5 8 5 5 3 3 {A -> -, B -> -, C -> -, Z -> -Sqrt[-], Y -> Sqrt[-], X -> 0}, 9 9 9 5 5 8 5 5 3 3 {A -> -, B -> -, C -> -, Z -> Sqrt[-], Y -> -Sqrt[-], X -> 0}} 9 9 9 5 5 %//N (* La versi\’on num\’erica *) {{A -> 0.555556, B -> 0.555556, C -> 0.888889, Z -> 0, Y -> -0.774597, X -> 0.774597}, {A -> 0.555556, B -> 0.555556, C -> 0.888889, Z -> 0, Y -> 0.774597, X -> -0.774597}, {A -> 0.555556, B -> 0.888889, C -> 0.555556, Z -> -0.774597, Y -> 0, X -> 0.774597}, {A -> 0.555556, B -> 0.888889, C -> 0.555556, Z -> 0.774597, Y -> 0, X -> -0.774597}, {A -> 0.888889, B -> 0.555556, C -> 0.555556, Z -> -0.774597, Y -> 0.774597, X -> 0}, {A -> 0.888889, B -> 0.555556, C -> 0.555556, Z -> 0.774597, Y -> -0.774597, X -> 0}} B.4. Los coeficientes de la cuadratura de Gauß de cinco puntos (* Cuadratura de Gauss de cinco puntos *) 41 42 B. COEFICIENTES INDETERMINADOS CON EL Mathematica (* Determino las coordenadas de los puntos *) Roots[LegendreP[5,x]==0,x] N[%,30] (* Defino las variables que representan los puntos *) a0=x/.x->%%[[5]][[2]] a1=x/.x->%%%[[3]][[2]] a2=x/.x->%%%%[[1]][[2]] a3=x/.x->%%%%%[[2]][[2]] a4=x/.x->%%%%%%[[4]][[2]] 10 10 Sqrt[5 - 2 Sqrt[--]] -Sqrt[5 - 2 Sqrt[--]] 7 7 x == 0 || x == -------------------- || x == --------------------- || 3 3 10 10 Sqrt[5 + 2 Sqrt[--]] -Sqrt[5 + 2 Sqrt[--]] 7 7 x == -------------------- || x == --------------------3 3 x == 0 || x == 0.5384693101056830910363144207 || x == -0.5384693101056830910363144207 || x == 0.906179845938663992797626878299 || x == -0.906179845938663992797626878299 -0.906179845938663992797626878299 -0.5384693101056830910363144207 0 0.5384693101056830910363144207 0.906179845938663992797626878299 (* Fijo los extremos del intervalo *) a=-1; b=1; (* Defino los polinomios *) p0[x_]:=1; p1[x_]:=(2x-a-b)/(b-a); p2[x_]:=((2x-a-b)/(b-a))^2; p3[x_]:=((2x-a-b)/(b-a))^3; p4[x_]:=((2x-a-b)/(b-a))^4; p5[x_]:=((2x-a-b)/(b-a))^5; p6[x_]:=((2x-a-b)/(b-a))^6; p7[x_]:=((2x-a-b)/(b-a))^7; p8[x_]:=((2x-a-b)/(b-a))^8; p9[x_]:=((2x-a-b)/(b-a))^9; p10[x_]:=((2x-a-b)/(b-a))^10; p11[x_]:=((2x-a-b)/(b-a))^11; p12[x_]:=((2x-a-b)/(b-a))^12; (* Defino las expresiones para los pesos A0,A1,A2,A3,A4 *) s0=A0 p0[a0]+A1 p0[a1]+A2 p0[a2]+A3 p0[a3]+A4 p0[a4]//Simplify s1=A0 p1[a0]+A1 p1[a1]+A2 p1[a2]+A3 p1[a3]+A4 p1[a4]//Simplify B.4. LOS COEFICIENTES DE LA CUADRATURA DE GAUSS DE CINCO PUNTOS s2=A0 p2[a0]+A1 p2[a1]+A2 p2[a2]+A3 p2[a3]+A4 p2[a4]//Simplify; s3=A0 p3[a0]+A1 p3[a1]+A2 p3[a2]+A3 p3[a3]+A4 p3[a4]//Simplify; s4=A0 p4[a0]+A1 p4[a1]+A2 p4[a2]+A3 p4[a3]+A4 p4[a4]//Simplify; s5=A0 p5[a0]+A1 p5[a1]+A2 p5[a2]+A3 p5[a3]+A4 p5[a4]//Simplify; s6=A0 p6[a0]+A1 p6[a1]+A2 p6[a2]+A3 p6[a3]+A4 p6[a4]//Simplify; s7=A0 p7[a0]+A1 p7[a1]+A2 p7[a2]+A3 p7[a3]+A4 p7[a4]//Simplify; s8=A0 p8[a0]+A1 p8[a1]+A2 p8[a2]+A3 p8[a3]+A4 p8[a4]//Simplify; s9=A0 p9[a0]+A1 p9[a1]+A2 p9[a2]+A3 p9[a3]+A4 p9[a4]//Simplify; s10=A0 p10[a0]+A1 p10[a1]+A2 p10[a2]+ A3 p10[a3]+A4 p10[a4]//Simplify; s11=A0 p11[a0]+A1 p11[a1]+A2 p11[a2]+ A3 p11[a3]+A4 p11[a4]//Simplify; A0 + A1 + A2 + A3 + A4 -0.906179845938663992797626878299 A0 - 0.5384693101056830910363144207 A1 + 0.5384693101056830910363144207 A3 + 0.906179845938663992797626878299 A4 (* Calculo las integrales *) i0=Integrate[p0[x],{x,a,b}]//Simplify i1=Integrate[p1[x],{x,a,b}]//Simplify; i2=Integrate[p2[x],{x,a,b}]//Simplify; i3=Integrate[p3[x],{x,a,b}]//Simplify; i4=Integrate[p4[x],{x,a,b}]//Simplify; i5=Integrate[p5[x],{x,a,b}]//Simplify; i6=Integrate[p6[x],{x,a,b}]//Simplify; i7=Integrate[p7[x],{x,a,b}]//Simplify; i8=Integrate[p8[x],{x,a,b}]//Simplify; i9=Integrate[p9[x],{x,a,b}]//Simplify; i10=Integrate[p10[x],{x,a,b}]//Simplify; i11=Integrate[p11[x],{x,a,b}]//Simplify; 2 (* Resoluci\’on del sistema de ecuaciones *) Solve[{s0==i0 ,s1==i1 ,s2==i2 ,s3==i3 ,s4==i4},{A0,A1,A2,A3,A4}]//Simplify {{A2 -> 0.56888888888888888888888889 , A0 -> 0.236926885056189087514264041 , A1 -> 0.478628670499366468041291515 , A3 -> 0.478628670499366468041291515 , A4 -> 0.2369268850561890875142640407}} (* Calculo de los residuos para los siguientes polinomios *) s5 - i5 /. %56 -16 {-2.22045 10 } s6 - i6 /. %56 -16 {4.16334 10 } s7 - i7 /. %56 -16 {-1.66533 10 } s8 - i8 /. %56 -16 {3.46945 10 } s9 - i9 /. %56 43 44 B. COEFICIENTES INDETERMINADOS CON EL Mathematica -16 {-1.38778 10 } s10 - i10 /. %56 {-0.00293181} s11 - i11 /. %56 -16 {-1.249 10 } s12=A0 p12[a0]+A1 p12[a1]+A2 p12[a2]+ A3 p12[a3]+A4 p12[a4]//Simplify; i12=Integrate[p11[x],{x,a,b}]//Simplify; s12 - i12 /. %56 {0.145853} En algunos casos se trabaja con mayor precisión (* Cuadratura de Gauss de cinco puntos (operaciones exactas) *) (* Determino las coordenadas de los puntos *) Roots[LegendreP[5,x]==0,x] N[%,50] (* Defino las variables que representan los puntos *) a0=x/.x->%%%[[5]][[2]] a1=x/.x->%%%%[[3]][[2]] a2=x/.x->%%%%%[[1]][[2]] a3=x/.x->%%%%%%[[2]][[2]] a4=x/.x->%%%%%%%[[4]][[2]] 10 10 Sqrt[5 - 2 Sqrt[--]] -Sqrt[5 - 2 Sqrt[--]] 7 7 x == 0 || x == -------------------- || x == --------------------- || 3 3 10 10 Sqrt[5 + 2 Sqrt[--]] -Sqrt[5 + 2 Sqrt[--]] 7 7 x == -------------------- || x == --------------------3 3 x == 0 || x == 0.53846931010568309103631442070020880496728660690556 || x == -0.53846931010568309103631442070020880496728660690556 || x == 0.90617984593866399279762687829939296512565191076253 || x == -0.90617984593866399279762687829939296512565191076253 10 -Sqrt[5 + 2 Sqrt[--]] 7 --------------------3 10 -Sqrt[5 - 2 Sqrt[--]] 7 --------------------3 0 10 Sqrt[5 - 2 Sqrt[--]] B.4. LOS COEFICIENTES DE LA CUADRATURA DE GAUSS DE CINCO PUNTOS 7 -------------------3 10 Sqrt[5 + 2 Sqrt[--]] 7 -------------------3 . . . (* Resoluci\’on del sistema de ecuaciones *) Solve[{s0==i0 ,s1==i1 ,s2==i2 ,s3==i3 ,s4==i4},{A0,A1,A2,A3,A4}]//Simplify; N[%,50] {{A2 -> 0.56888888888888888888888888888888888888888888888889, A0 -> 0.23692688505618908751426404071991736264326000221241, A1 -> 0.47862867049936646804129151483563819291229555334314, A3 -> 0.4786286704993664680412915148356381929122955533431, A4 -> 0.23692688505618908751426404071991736264326000221241}} s5 - i5 /. %61; N[%,35] -43 {0. 10 } s6 - i6 /. %61; N[%,35] -42 {0. 10 } s7 - i7 /. %61; N[%,35] -43 {0. 10 } s8 - i8 /. %61; N[%,35] -43 {0. 10 } s9 - i9 /. %61; N[%,35] -43 {0. 10 } s10 - i10 /. %61; N[%,35] {-0.00293181245562197943150324102705055} s11 - i11 /. %61; N[%,35] -43 {0. 10 } 45 46 B. COEFICIENTES INDETERMINADOS CON EL Mathematica s12 - i12 /. %61; N[%,35] {0.14585257971501357744743988130231516} s13 - i13 /. %61; N[%,35] -44 {0. 10 } s14 - i14 /. %61; N[%,35] {-0.01386690413313408190371321302706202} APÉNDICE C Cuadernos del Mathematica y archivos script de Matlab C.1. La función mihumps (*MIHUMPS*) f[x_]:= 0.01/((x-0.3)^2+.01) + 0.01/((x-0.9)^2+.04) - 0.06 Plot[f[x],{x,0,1},PlotRange->{{0,1},{0,1}} ,GridLines->Automatic ,AspectRatio->1 ,PlotStyle->RGBColor[1.000,0.000,0.000] ,Frame->True] -Graphics- La figura representada por el Plot precedente es la 1, la que en el cuaderno queda insertada a continuación. 1 0.8 0.6 0.4 0.2 0.2 0.4 0.6 0.8 Figura 1. La función mihumps 47 1 48 C. CUADERNOS DEL Mathematica Y ARCHIVOS SCRIPT DE MATLAB Integrate[f[x],x] -0.06 x + 0.05 ArcTan[5. (-0.9 + x)] + 0.1 ArcTan[10. (-0.3 + x)] N[Integrate[f[x],{x,0,1}],30] 0.2985832539549867 f[x]//TeXForm -0.06 + {{0.01}\over {0.04 + {{\left( -0.9 + x \right) }^2}}} + {{0.01}\over {0.01 + {{\left( -0.3 + x \right) }^2}}} %3//TeXForm -0.06\,x + 0.05\,\arctan (5.\,\left( -0.9 + x \right) ) + 0.1\,\arctan (10.\,\left( -0.3 + x \right) ) Las funciones f (x) —mihumps— y su integral F (x) = f (x) = −0.06 + 0.01 2 0.04 + (−0.9 + x) + Rx 0 f (s) ds son 0.01 2 0.01 + (−0.3 + x) (C.1) y F (x) = −0.06 x + 0.05 arctan(5. (−0.9 + x)) + 0.1 arctan(10. (−0.3 + x)) (C.2) C.2. Extrapolación repetida de Richardson En el siguiente cuaderno del Mathematica calculamos los errores de truncamiento de los distintos pasos de extrapolación. Extrapolaci\’on repetida de Richardson Table[2^(2j)-1,{j,9}] {3, 15, 63, 255, 1023, 4095, 16383, 65535, 262143} I0[h_]=b0+b1 h^2+b2 h^4+b3 h^6+b4 h^8+b5 h^10+b6 h^12+ b7 h^14+b8 h^16 2 4 6 8 10 b0 + b1 h + b2 h + b3 h + b4 h + b5 h + 12 14 16 b6 h + b7 h + b8 h I1[h_]=I0[h/2]+(I0[h/2]-I0[h])/3//Simplify; Collect[%,h] 4 6 8 10 b2 h 5 b3 h 21 b4 h 85 b5 h b0 - ----- - ------- - -------- - --------- 4 16 64 256 12 14 16 341 b6 h 1365 b7 h 5461 b8 h ---------- - ----------- - ----------1024 4096 16384 I2[h_]=I1[h/2]+(I1[h/2]-I1[h])/15//Simplify; Collect[%,h] 6 8 10 12 b3 h 21 b4 h 357 b5 h 5797 b6 h b0 + ----- + -------- + ---------- + ----------- + 64 1024 16384 262144 C.2. EXTRAPOLACIÓN REPETIDA DE RICHARDSON 14 16 93093 b7 h 1490853 b8 h ------------ + -------------4194304 67108864 I3[h_]=I2[h/2]+(I2[h/2]-I2[h])/63//Simplify; Collect[%,h] 8 10 12 b4 h 85 b5 h 5797 b6 h b0 - ----- - --------- - ----------- 4096 262144 16777216 14 16 376805 b7 h 24208613 b8 h ------------- - --------------1073741824 68719476736 I4[h_]=I3[h/2]+(I3[h/2]-I3[h])/255//Simplify; Collect[%,h] 10 12 14 b5 h 341 b6 h 93093 b7 h b0 + ------- + ---------- + ------------ + 1048576 268435456 68719476736 16 24208613 b8 h --------------17592186044416 I5[h_]=I4[h/2]+(I4[h/2]-I4[h])/1023//Simplify; Collect[%,h] 12 14 16 b6 h 1365 b7 h 1490853 b8 h b0 - ---------- - ------------- - ---------------1073741824 1099511627776 1125899906842624 % MIRICHAR aplica la extrapolaci\’on repetida de Richardson % al m\’etodo trapezoidal (Integraci\’on de Romberg) % C.E.Neuman, 6-5-97 % inicializaci\’on i=1; a=0; b=1; h=(b-a)/10; % lazo while 1 x=a:h:b; % partici\’on l=length(x); pesos=[1 2*ones(1,l-2) 1]; % pesos de Trapezoidal II(i,1)=(h/2)*sum(pesos.*mihumps(x)); % m\’etodo Trapezoidal %%% %%% En este algoritmo se recalcula la funci\’on de nuevo, se %%% puede mejorar aprovechando las evaluaciones previas. %%% del(i)=2^(2*i)-1; % divisor para la extrapolaci\’on 49 50 C. CUADERNOS DEL Mathematica Y ARCHIVOS SCRIPT DE MATLAB for j=(i-1):(-1):1, % l\’{\i}nea de extrapolaciones k=i-j+1; II(j,k)=II(j+1,k-1)+(II(j+1,k-1)-II(j,k-1))/del(k-1) ; end % rof if i > 7, % terminaci\’on ( se puede sustituir por una % que compare los valores obtenidos de I ) break; end % fi h=h/2; i=i+1; end % elihw %%% fin de mirichar.m La salida de mirichar (valores de II) se consigna en las tablas 1 y 2. Tabla 1. Integración de Romberg para la función mihumps (ver tabla 1). La integral (con el Mathematica) resulta Q = 0.2985832539549867 0.29851740902665 0.29827642178861 0.29850609244975 0.29856396932507 0.29857843315432 0.29858204877708 0.29858295266190 0.29858317863180 0.29819609270927 0.29858264933679 0.29858326161685 0.29858325443074 0.29858325398467 0.29858325395684 0.29858325395510 0 0.29860841977863 0.29858330243552 0.29858325395166 0.29858325395493 0.29858325395499 0.29858325395499 0 0 0.29858290374753 0.29858325318208 0.29858325395498 0.29858325395499 0.29858325395499 0 0 0 Tabla 2. Integración de Romberg para la función mihumps (continuación, ver tablas 1 y 1). La integral (con el Mathematica) resulta Q = 0.2985832539549867 0.29858325455241 0.29858325395801 0.29858325395499 0.29858325395499 0 0 0 0 0.29858325395743 0.29858325395498 0.29858325395499 0 0 0 0 0 0.29858325395498 0.29858325395499 0 0 0 0 0 0 0.29858325395499 0 0 0 0 0 0 0 C.3. Métodos de Montecarlo En lo que sigue veremos dos ejemplos en el cuadrado unitario [0, 1]x[0, 1]. Ejemplo C.3.1. Calculamos mediante el método de Montecarlo el área bajo la función f (x) = 0.5 en el cuadrado unitario. Realizamos mil veces el cálculo del área estimada mediante diez mil puntos seleccionados al azar. C.3. MÉTODOS DE MONTECARLO 51 % AZAR3.M script de prueba para m\’etodo de Montecarlo % C.E.N., 05-may-97 rand(’seed’,sum(100*clock)); %inicializa los n\’umeros aleatorios scores=[]; for j=1:1000, % pru=rand(1,1) NN=10000;%0*pru; puntos=rand(NN,2); I=find(puntos(:,2) < 0.5); % determina los puntos bajo la curva [m,n]=size(I); scores=[scores; m/NN]; end mime=mean(scores) mide=std(scores) % calcula la media aritm\’etica % calcula la desviaci\’on t\’{\i}pica scorord=sort(scores); [m,n]=size(scores); mimeord=mean(scores(0.1*m:0.9*m)) mideord=std(scores(0.1*m:0.9*m)) figure; hist(scores); % media podada 20% % desv\’{\i}o podado 20% % histograma de los valores save azar3; % Resultados de la corrida de 1000 % azar3 %mime = % 0.4997 %mide = % 0.0050 %mimeord = % 0.4999 %mideord = % 0.0050 % axis([0.475 0.525 0 300]) % grid Vemos que el resultado —utilizando los estimadores robustos— es de 0.500 ± 0.005, intervalo de confianza que contiene el valor exacto. En la figura 2 dibujamos el histograma que representa la distribución de puntajes obtenidos por la rutina de Montecarlo. Ejemplo C.3.2. Calulamos la integral de la función ‘humps’ mediante el método de Montecarlo rand(’seed’,sum(100*clock)) scores=[]; for j=1:1000, % pru=rand(1,1) NN=10000;%0*pru; puntos=rand(NN,2); I=find( puntos(:,2) < 0.01*humps(puntos(:,1)) ); [m,n]=size(I); 52 C. CUADERNOS DEL Mathematica Y ARCHIVOS SCRIPT DE MATLAB 250 200 150 100 50 0 0.48 0.485 0.49 0.495 0.5 0.505 0.51 0.515 0.52 0.525 Figura 2. Histograma de distribución de los valores estimados de la integral del ejemplo C.3.1 scores=[scores; m/NN]; disp(j); end mime=mean(scores) mide=std(scores) scorord=sort(scores); [m,n]=size(scores); mimeord=mean(scores(0.1*m:0.9*m)) mideord=std(scores(0.1*m:0.9*m)) figure; hist(scores); save azar4; % Resultados de la corrida de 100 % azar4 %mime = % 2.9845e-001 %mide = % 1.3248e-002 %mimeord = % 2.9938e-001 %mideord = % 1.3119e-002 C.4. INTEGRACIÓN DE SIMPSON ADAPTATIVA % Resultados de quad % format short e % quad(’humps’,0,1,1e-5,1)/100 %ans = % 2.9858e-001 % % C.4. Integración de Simpson adaptativa function [Q,cnt] = miquad(funfcn,a,b,tol) %MIQUAD Numerical evaluation of an integral, low order method. % Q = MIQUAD(’F’,A,B) approximates the integral of F(X) from A to B % to within a relative error of 1e-3. ’F’ is a string % containing the name of the function. Function F must return a % vector of output values if given a vector of input values. % Q = MIQUAD(F,A,B,TOL) integrates to a relative error of TOL. % % MIQUAD uses an adaptive recursive Simpson’s rule. % % See also QUAD, QUAD8. % % % % Basada en QUAD.M C.B. Moler, 3-22-87. Copyright (c) 1984-94 by The MathWorks, Inc. C.E. Neuman, 4-29-97 % [Q,cnt] = miquad(F,a,b,tol) also returns a % function evaluation count. if nargin < 4, tol = 1.e-3; end c = (a + b)/2; % Top level initialization x = [a b c a:(b-a)/10:b]; % set up function call args = ’(x)’; y = eval([funfcn,args]); fa = y(1); fb = y(2); fc = y(3); lev = 1; % Adaptive, recursive Simpson’s quadrature if any(imag(y)) Q0 = 1e30; else Q0 = inf; end [Q,cnt] = eval([’miquadst(funfcn,a,b,tol,lev,fa,fc,fb,Q0)’]); cnt = cnt + 3; 53 54 C. CUADERNOS DEL Mathematica Y ARCHIVOS SCRIPT DE MATLAB %fin de la funci\’on miquad function [Q,cnt] = miquadst(FunFcn,a,b,tol,lev,fa,fc,fb,Q0) %MIQUADST Recursive function used by MIQUAD. % [Q,cnt] = miquadst(F,a,b,tol,lev,fa,fc,fb,Q0) tries to % approximate the integral of f(x) from a to b to within a % relative error of tol. F is a string containing the name % of f. The remaining arguments are generated by quad or % by the recursion. lev is the recursion level. % fa = f(a). fc = f((a+b)/2). fb = f(b). % Q0 is an approximate value of the integral. % See also QUAD and QUAD8. % % % % Basada en QUADSTP.M C.B. Moler, 3-22-87. Copyright (c) 1984-94 by The MathWorks, Inc. C.E. Neuman, 4-29-97. LEVMAX = 11; if lev > LEVMAX disp(’Limite de orden de recursion alcanzado en miquad.’) disp(’Probable singularidad.’) Q = Q0; cnt = 0; c = (a + b)/2; else % Evaluate function at midpoints of left % and right half intervals. h = b - a; c = (a + b)/2; x = [a+h/4, b-h/4]; f = eval([FunFcn,’(x)’]); cnt = 2; % Simpson’s rule for half intervals. Q1 = h*(fa + 4*f(1) + fc)/12; Q2 = h*(fc + 4*f(2) + fb)/12; Q = Q1 + Q2; % Recursively refine approximations. if abs(Q - Q0) > tol*abs(Q) ts2=tol/2; lm1=lev+1; [Q1,cnt1]=eval([’miquadst(FunFcn,a,c,ts2,lm1,fa,f(1),fc,Q1)’]); [Q2,cnt2]=eval([’miquadst(FunFcn,c,b,ts2,lm1,fc,f(2),fb,Q2)’]); Q = Q1 + Q2; cnt = cnt + cnt1 + cnt2; end end % fin de la funci\’on miquadst function [y]=mifun(x) % MIFUN es una funci\’on de prueba para MIQUAD % debe ser una funci\’on vectorizada % C.E. Neuman, 29-4-97 C.5. EL MÉTODO CLÁSICO DE RUNGE-KUTTA 55 y=x.^(1/2); % fin de la funci\’on mifun C.5. El método clásico de Runge-Kutta En esta sección incluimos el código Matlab que implementa el método clasico de Runge-Kutta. Se trata de los programas mirk.m, mieq.m, donde se define la función para integrar, y milo.m que es el ‘driver’ del método. function [xn,xdn]=mirk(t,x,h) % % % % MIRK Es la implementacion de un Runge-Kutta % de cuatro pasos para avanzar de t a t+h % inputs t:tiempo % x:estado % outputs xn:nuevo estado % xdn:nueva derivada del estado % La rutina mieq calcula el vector xdot % de derivadas de los estados. %%% %%% %%% MIRK C.E.Neuman, 10-11-1992 Revisado: 5-5-1997 Ultima revisi\’on: 7-5-1997 tv = t; xv = x; xdot=mieq(tv,xv); c1 = h*xdot; tn = tv + h/2; xn = xv + c1/2; xdot=mieq(tn,xn); c2 = h*xdot; xn = xv + c2/2; xdot=mieq(tn,xn); c3 = h*xdot; tn = tv + h; xn = xv + c3; xdot=mieq(tn,xn); c4 = h*xdot; xn = xv + (c1 + 2*c2 + 2*c3 + c4)/6; xdn=mieq(tn,xn); return %%% fin de mieq.m function xdot=mieq(t,x) % % % % MIEQ es la funcion que permite determinar la % derivada de los estados % %%% %%% %%% C.E.Neuman, 10-11-1992 Revisado: 5-5-1997 Ultima revisi\’on: 7-5-1997 xdot=-t*x; % xdot = mihumps(x); return %%% fin de mieq.m MIEQ 56 C. CUADERNOS DEL Mathematica Y ARCHIVOS SCRIPT DE MATLAB % % % % % % % % % % MILO MILO Este es el loop central de administracion de MIRK y su driver para la integraci\’on. En MIRK.M se program\’o un paso de Runge-Kutta cl\’asico. En MIEQ.M se debe incluir la funci\’on que se desea integrar. Con modificaciones puede utilizarse en una rutina de paso variable. %%% %%% %%% C.E.Neuman, 10-11-1992 Revisado: 5-5-1997 Ultima revisi\’on: 7-5-1997 %%% Tiempos inicial y final y cantidad de pasos de integraci\’on a = 0; %comienzo de integraci\’on b = 7; %fin de la integraci\’on numpaso = 300; %n\’umero de pasos %%% Condici\’on inicial x0 = 1; %%% Paso de integraci\’on h = (b - a)/numpaso; %%% Definici\’on de tini y tmax tini = a; tmax = a + numpaso * h; if tmax ~= b, disp(’error en el paso’); end % fi %%% Lista de salida (inicializaci\’on) xdn0 = mieq(tini,x0); xout = [tini; x0; xdn0]; %%% Lazo principal xn = x0; for tt=tini:h:(tmax-h), [xn,xdn] = mirk(tt,xn,h); xout = [ xout %llamada a R-K [tt+h; xn; xdn] ]; end % rof plot(xout(1,:),xout(2:3,:),’r’) En la figura 3 representamos la salida de las rutinas precedentes cuando se integra la ecuación x0 = −tx (C.3) C.5. EL MÉTODO CLÁSICO DE RUNGE-KUTTA 57 Integracion de dx/dt=−tx 1 0.8 0.6 2 x(t)=exp(−t /2) 0.4 x 0.2 0 −0.2 −0.4 −0.6 −0.8 0 1 2 3 4 5 6 7 t Figura 3. Integración por Runge-Kutta clásico de x0 = −tx en [0, 7] APÉNDICE D La integral de Riemann–Stieltjes Comencemos estudiando las propiedades de las funciones de variación acotada. D.1. Funciones de variación acotada Teorema D.1.1. [Apostol (1976), pág. 153] Sea f una función creciente definida en [a, b] y sean x0 , x1 , . . . , xn n + 1 puntos tales que a = x0 < x1 < x2 < . . . < xn = b (D.1) Tenemos entonces la desigualdad n−1 X [f (xk +) − f (xk −)] ≤ f (b) − f (a) (D.2) k=1 Demostración: Sea ξk ∈ (xk , xk+1 ). Se tiene entonces que f (xk +) − f (xk −) ≤ f (ξk ) − f (ξk−1 ) por la monotonı́a de la función f . Resulta ası́ n−1 X [f (xk +) − f (xk −)] ≤ k=1 n−1 X [f (ξk ) − f (ξk−1 )] (D.3) k=1 = f (ξn−1 ) − f (ξ0 ) ≤ f (b) − f (a) (D.4) lo que completa la demostración. Teorema D.1.2. [Apostol (1976), pág. 153] Si f es monótona en [a, b], entonces el conjunto de discontinuidades de f es numerable Ejercicio D.1.1. Demostrar el teorema D.1.2. Una función monótona tiene, a lo sumo, numerables saltos Definición D.1.1. Sea f definida en [a, b]. Sea P = {x0 , x1 , . . . , xn } una partición de [a, b]. Escribiremos, para k = 1, 2, . . . , n, ∆fk = f (xk ) − f (xk−1 ). Si existe un número positivo M tal que n n X X |∆fk | = |f (xk ) − f (xk−1 )| ≤ M (D.5) k=1 k=1 para toda partición P de [a, b], entonces diremos que f es de variación acotada. Teorema D.1.3. [Apostol (1976), pág. 154] Si f es monótona en [a, b], entonces f es de variación acotada en [a, b]. Teorema D.1.4. [Apostol (1976), pág. 155] Si f es de clase C 1 en [a, b], entonces f es de variación acotada en [a, b]. Ejercicio D.1.2. Demostrar los teoremas D.1.3 y D.1.4. 59 Una función de clase C 1 es de variación acotada 60 D. LA INTEGRAL DE RIEMANN–STIELTJES Teorema D.1.5. P [Apostol (1976), pág. 155] Si f es de variación acotada en [a, b], es decir que |∆fk | ≤ M para toda partición de [a, b], entonces f está acotada en [a, b]. Demostración: Sea x ∈ (a, b) y la partición P = {a, x, b}. Se tiene |f (x) − f (a)| + |f (b) − f (x)| ≤ M (D.6) |f (x) − f (a)| ≤ M (D.7) |f (x)| ≤ |f (a)| + M (D.8) con lo cual y, en consecuencia, Cuando x = a vale D.8 trivialmente y cuando x = b |f (b)| ≤ |f (a)| + M (D.9) por la hipótesis. De modo que |f (a)| + M es cota de |f (x)| en todo el intervalo. Definición D.1.2. Sea f una función de variación acotada en [a, b] y sea P = {x0 , x1 , . . . , xn } una partición de [a, b]. El número V (a, b) = sup{ n X |∆fk | : P es partición de [a,b]} (D.10) k=1 se llama variación total de f en el intervalo [a, b]. Teorema D.1.6. Sea f una función de variación acotada en [a, b]. Sea V definida en [a, b] por V (a) = 0 y, para a < x ≤ b, V (x) = V (a, x), la variación total de f entre a y x. Entonces (i) V es una función creciente en [a, b] (ii) W = V − f es una función creciente en [a, b] Demostración: Sean x < y en [a, b]. Entonces V (a, y) = V (a, x) + V (x, y), lo que implica que V (y) − V (x) = V (x, y) ≥ 0 lo que prueba (i). Asimismo W (y) − W (x) = V (y) − V (x) − (f (y) − f (x)) = V (x, y) − (f (y) − f (x)) ≥ 0 (D.11) lo que prueba (ii). Teorema D.1.7. Sea f definida sobre [a, b]. Entonces f es de variación acotada en [a, b] sii f puede expresarse como diferencia de dos funciones crecientes. Una función es de variación acotada sii es diferencia de dos funciones crecientes Demostración: Si f es de variación acotada en [a, b], podemos escribir f = V −W , donde V es la función del teorema D.1.6 y W = V − f . Las dos son funciones crecientes. La otra implicación se obtiene de la monotonı́a de las dos funciones. D.2. LA INTEGRAL 61 D.2. La integral Definición D.2.1. Sea P = {x0 , x1 , . . . , xn } una partición del intervalo [a, b] y sea, para cada k, ξk un punto del intervalo [xk−1 , xk ]. Una suma de la forma n X S(P, f, g) = f (ξk )∆gk (D.12) k=1 (donde ∆gk = g(xk ) − g(xk−1 )) se llama suma de Riemann-Stieltjes de f respecto de g. Diremos que f es integrable respecto de g en [a, b] si existe un número I que satisface la siguiente propiedad: para cada ε > 0, existe una partición Pε de [a, b] tal que, para cada partición P más fina que Pε y para cada elección de los puntos ξk del intervalo [xk−1 , xk ], k = 1, . . . , n, se tiene |S(P, f, g) − I| < ε (D.13) Observación D.2.1. Si un tal número I existe, entonces es único y se representa por la expresión Z b f (x)dg(x) (D.14) a Ejemplo D.2.1. Si g(x) = x entonces la integral se reduce a una integral de Riemann Ejemplo D.2.2. Si g(x) es de clase C 1 en [a, b] entonces la integral resulta Z b f (x)g 0 (x)dx (D.15) a Nota: Este resultado se demuestra en el teorema D.2.5 en la página 63 Ejemplo D.2.3. Si f es continua y g(x) = bxc entonces la integral resulta X f (i) (D.16) i∈Z a≤i<b Nota: Este resultado se demuestra en el teorema D.2.7 en la página 65 Teorema D.2.2. Si f1 y f2 son integrables en el sentido de Riemann-Stieltjes respecto de g en el intervalo [a, b], entonces, para todo par de constantes c1 y c2 , se tiene que c1 f1 + c2 f2 resulta es integrable respecto de g en el mismo intervalo y vale Z Z Z b b (c1 f1 + c2 f2 )dg = c1 b f1 dg + c2 a a f2 dg (D.17) a Demostración: Sea f = c1 f1 + c2 f2 . Para una partición P del intervalo vale n n n X X X S(P, f, g) = f (ξk )∆gk = c1 f1 (ξk )∆gk + c2 f2 (ξk )∆gk (D.18) k=1 k=1 k=1 es decir S(P, f, g) = c1 S(P, f1 , g) + c2S(P, f2 , g) Sea ε > 0 dado, elegimos una partición que ella se tenga (1) Pε Z |S(P, f1 , g) − tal que para toda partición P más fina b f1 dg| < ε a (D.19) (D.20) 62 D. LA INTEGRAL DE RIEMANN–STIELTJES (2) y elegimos otra partición Pε tenga tal que para toda partición P más fina que ella se b Z |S(P, f2 , g) − f2 dg| < ε (D.21) a Unimos las particiones para obtener Pε = Pε(1) ∪ Pε(2) (D.22) de modo que, para cada partición P más fina que Pε se obtiene Z b Z b f1 dg − c2 f2 dg| ≤ |c1 |ε + |c2 |ε |S(P, f, g) − c1 a (D.23) a lo que (con una reelección del ε) prueba el teorema. Teorema D.2.3. Si f es integrable respecto de g1 en el sentido de RiemannStieltjes en el intervalo [a, b], y también es integrable respecto de g2 entonces, para todo par de constantes c1 y c2 , se tiene que f también es integrable respecto de c1 g1 + c2 g2 en el mismo intervalo y vale Z b Z b Z b f d(c1 g1 + c2 g2 ) = c1 f dg1 + c2 f dg2 (D.24) a a a Ejercicio D.2.4. Demostrar el teorema D.2.3 en forma análoga al D.2.2. Demostrar además la aditividad respecto del intervalo de integración de la integral de Riemann-Stieltjes D.2.1. Integración por partes. Teorema D.2.4. [Fórmula de integración por partes] Si f es integrable respecto de g, en el sentido de Riemann-Stieltjes, en el intervalo [a, b] entonces g es integrable respecto de f en el sentido de Riemann-Stieltjes en el intervalo [a, b], y se tiene Z b Z b f (x)dg(x) + g(x)df (x) = f (b)g(b) − f (a)g(a) (D.25) a a Demostración: Fijamos un número ε > 0, por la existencia de la primera integral existe una partición Pε del intervalo [a, b] tal que para toda partición P̃ más fina que Pε tenemos Z b |S(P̃ , f, g) − f (x)dg(x)| < ε (D.26) a Para una partición P más fina que Pε planteamos una suma de Riemann-Stieltjes Rb cualquiera para la integral a g(x)df (x): S(P, g, f ) = n X g(ξk )∆fk = k=1 n X g(ξk )f (xk ) − k=1 n X g(ξk )f (xk−1 ) (D.27) k=1 como se tiene además que f (b)g(b) − f (a)g(a) = n X k=1 f (xk )g(ξk ) − n X k=1 f (xk−1 )g(ξk−1 ) (D.28) D.2. LA INTEGRAL 63 es posible restar las expresiones D.27 y D.28 para obtener f (b)g(b) − f (a)g(a) − S(P, g, f ) n n X X f (xk )[g(xk ) − g(ξk )] − f (xk−1 )[g(xk ) − g(ξk−1 )] (D.29) = k=1 k=1 Si P̃ es una partición formada por los puntos xk y los ξk , entonces es más fina que la partición P y, por ello, que la Pε entonces si llamamos S(P̃ , f, g) al segundo miembro de la ecuación D.29 se tiene que la desigualdad D.26 es válida y se tiene Z b g(x)df (x)| < ε (D.30) |f (b)g(b) − f (a)g(a) − S(P, g, f ) − a para toda partición P más fina que Pε entonces Rb f (b)g(b) − f (a)g(a) − a f (x)dg(x) Rb a g(x)dg(x) existe y vale D.2.2. Propiedades de la integral. Teorema D.2.5. Sea f una función integrable en el sentido de RiemannStieltjes respecto de una función g de clase C 1 en el intervalo [a, b], entonces existe la integral de Riemann del segundo miembro y vale Z b Z b f (x)dg(x) = f (x)g 0 (x)dx (D.31) a a Demostración: Sea la suma de Riemann n X S(P, f g 0 ) = f (ξk )g 0 (ξk )∆xk (D.32) k=1 y (para la misma partición) la suma de Riemann-Stieltjes S(P, f, g) = n X f (ξk )∆gk k=1 n X f (ξk )g 0 (ζk )∆xk (D.33) k=1 donde aplicamos el teorema del valor intermedio y ζk ∈ (xk−1 , xk ), restando se obtiene n X S(P, f, g) − S(P, f g 0 ) = f (ξk )[g 0 (ζk ) − g 0 (ξk )]∆xk (D.34) k=1 Utilizando la hipótesis para el integrador g se puede probar que ε |S(P, f, g) − S(P, f g 0 )| < (D.35) 2 para cada partición P más fina que una dada Pε . Por la hipótesis de integrabilidad de f respecto de g se tiene que, para toda partición P más fina que una dada P̃ε , vale Z b ε |S(P, f, g) − f (x)dg(x)| < (D.36) 2 a Entonces cuando P es más fina que la unión Pε ∪ P̃ε se tiene que Z b |S(P, f g 0 ) − f (x)dg(x)| < ε a lo que demuestra el teorema. (D.37) 64 D. LA INTEGRAL DE RIEMANN–STIELTJES D.2.2.1. Cambio de variables en la integral de Riemann-Stieltjes. Si la función h es un cambio de variables biyectivo de clase C ∞ entre el intervalo [a, b] y el intervalo [c, d] entonces vale la siguiente fórmula de cambio de variables (que damos sin demostración) Z h(d) Z b f (t)dg(t) = f (h(x))dg(h(x)) (D.38) h(c) a D.2.2.2. Integral de funciones escalonadas. Teorema D.2.6. Definimos g en el intervalo [−1, 1] como sigue c1 si −1 ≤ x < 0 c2 si x=0 g(x) = c3 si 0<x≤1 (D.39) (donde c1 , c2 , y c3 son arbitrarios. Sea f una función definida en [−1, 1] de modo que por lo menos una de las funciones f y g sea continua a la izquierda del origen y por lo menos una de las dos lo sea a la derecha de 0. Entonces f es integrable en el sentido de Riemann-Stieltjes en el intervalo [−1, 1] y la integral vale Z 1 f (x)dg(x) = f (0)(g(0+) − g(0−)) (D.40) −1 Demostración: Sea P una partición que contiene al origen, entonces si xk = 0 S(P, f, g) = f (ξk−1 )(g(0) − g(0−)) + f (ξk )(g(0+) − g(0)) (D.41) donde ξk−1 ≤ 0 ≤ ξk . Sumando y restando f (0)g(0) se puede escribir S(P, f, g) − f (0)(g(0+) − g(0−)) = (f (ξk−1 ) − f (0))(g(0) − g(0−)) +(f (ξk ) − f (0))(g(0+) − g(0)) (D.42) |S(P, f, g) − f (0)(g(0+) − g(0−))| ≤ |f (ξk−1 ) − f (0)||g(0) − g(0−)| +|f (ξk ) − f (0)||g(0+) − g(0)| (D.43) por lo tanto se tiene Si f es continua en el origen, para cada ε > 0 existe un δ > 0 tal que, si kP k < δ, entonces |f (ξk−1 ) − f (0)| < ε (D.44) y |f (ξk ) − f (0)| < ε (D.45) de modo que se tiene la desigualdad |S(P, f, g) − f (0)(g(0+) − g(0−))| ≤ ε|g(0) − g(0−)| + ε|g(0+) − g(0)| (D.46) En los otros casos la desigualdad sigue siendo válida (1) f discontinua a izquierda y derecha del origen: entonces g debe ser continua y vale S(P, f, g) − f (0)(g(0+) − g(0−)) = 0 (2) f es discontinua a la derecha y continua a la izquierda: en este caso debe valer g(0+) − g(0) = 0 y vale |S(P, f, g) − f (0)(g(0+) − g(0−))| ≤ ε|g(0) − g(0−)| (D.47) D.4. PERO, ¿HAY FUNCIONES INTEGRABLES? 65 (3) f es continua a la derecha y discontinua a la izquierda: en este caso debe valer g(0) − g(0−) = 0 y vale |S(P, f, g) − f (0)(g(0+) − g(0−))| ≤ ε|g(0+) − g(0)| (D.48) En todos los casos vale la acotación por lo que el teorema queda demostrado. Este último resultado permite demostrar que las integrales respecto de funciones escalonadas se reducen a sumas. Teorema D.2.7. Sea g una función escalonada definida en el intervalo [a, b] con salto gk en el punto xk de una partición {x1 , x2 , . . . , xn } del intervalo. Sea f definida en [a, b] con la propiedad que f y g no sean las dos discontinuas a la izquierda o a la derecha en cada punto xk . Entonces existe la integral de f respecto de g y vale Z b n X f (x)dg(x) = f (xk )gk (D.49) a k=1 Demostración: Basta descomponer el intervalo [a, b] en subintervalos y aplicar el teorema D.2.6. D.3. Fórmula de la suma de Euler Teorema D.3.1. Supongamos que f es de clase C ∞ en [a, b]. Si a y b son enteros se tiene Z b Z b b X 1 f (a) + f (b) f (n) = f (x)dx + x − bxc − f 0 (x)dx + (D.50) 2 2 a a n=a Demostración: Por el teorema D.2.4 se tiene que Z b Z b 1 1 f (x)d x − bxc − + x − bxc − df (x) 2 2 a a 1 1 = f (b) b − bbc − − f (a) a − bac − 2 2 es decir Z b a 1 f (x) d x − bxc − 2 Z + a b 1 x − bxc − 2 df (x) = f (a) − f (b) 2 (D.51) (D.52) (D.53) por último Z a b Z b b X 1 f (x)d x − bxc − = f (x) dx − f (n) 2 a n=a+1 (D.54) lo que, al combinarla con la anterior, completa la demostración. D.4. Pero, ¿Hay funciones integrables? Se puede demostrar que si f es continua y g es de variación acotada en el intervalo [a, b] entonces f es integrable en el sentido de Riemann-Stieltjes respecto del integrador g. La demostración es muy simple y se basa en la definición de las denominadas sumas superior e inferior de Riemann-Stieltjes y en ver que, cuando se refina la partición, ambas sumas se aproximan tanto como se desee. 66 D. LA INTEGRAL DE RIEMANN–STIELTJES D.5. Ejercicios Ejercicio D.5.1. Una función f , definida en [a, b], verifica una condición uniforme de Lipschitz de orden α > 0 en [a, b] si existe una constante M > 0 tal que |f (x) − f (y)| < M |x − y|α para todo x e y de [a, b] (a) Si f es una tal función, probar que α > 1 implica que f es constante en [a, b], mientras que α = 1 implica que f es de variación acotada en [a, b] (b) Dar un ejemplo de una función f que satisfaga una condición uniforme de Lipschitz de orden α < 1 en [a, b] tal que f no sea de variación acotada en [a, b] (c) Dar un ejemplo de una función f que sea de variación acotada y que, sin embargo, no satisfaga ninguna condición uniforme de Lipschitz en [a, b]. Ejercicio D.5.2. Probar que una función polinómica f es de variación acotada en todo intervalo cerrado y acotado [a, b]. Describir un método que permita calcular la variación total de f en [a, b] conociendo los ceros de la derivada f 0 . Ejercicio D.5.3. La siguiente definición de la integral de Riemann-Stieltjes es bastante usual en textos matemáticos: Se dice que f es integrable respecto de g si existe un número real A con la siguiente propiedad: para cada ε > 0 existe un δ > 0 tal que para cada partición P de [a, b] con norma kP k < δ y cada elección de ξk en [xk−1 , xk ], tenemos |S(P, f, g) − A| < ε Rb (a) Demostrar que si a f dg existe según esta definición entonces también existe de acuerdo con la definición D.2.1 (página 61) y ambas son iguales. (b) Sean f (x) = g(x) = 0 para −1 ≤ x < 0, f (x) = g(x) = 1 para 0 < x ≤ 1, Rb f (0) = 0, y g(0) = 1. Demostrar que a f dg existe de acuerdo a la definición D.2.1 pero no existe según la definición de este ejercicio. APÉNDICE E Polinomios y números de Bernoulli Los polinomios de Bernoulli, Bn (x), resultan de la serie generadora ∞ X text tk = Bk (x) t e −1 k! (E.1) k=0 y los números de Bernoulli, Bn , de ∞ X t tk = B k et − 1 k! (E.2) k=0 (es decir, de hacer x = 0 en la anterior, razón por la cual Bn (0) = Bn ). A continuación desarrollamos un cuaderno del Mathematica con algunos ejemplos de estos números y polinomios. E.1. Polinomios de Bernoulli con el Mathematica (* N\’umeros y polinomios de Bernoulli *) (* Calculamos la serie generadora de los polinomios la correspondiente serie para los n\’umeros se obtiene, simplemente, fijando x = 0 en la primera *) Series[t Exp[t x]/(Exp[t]-1),{t,0,4}] 2 2 3 1 1 x x 2 x x x 3 1 + (-(-) + x) t + (-- - - + --) t + (-- - -- + --) t + 2 12 2 2 12 4 6 2 3 4 1 x x x 4 5 (-(---) + -- - -- + --) t + O[t] 720 24 12 24 Series[t Exp[t x]/(Exp[t]-1),{t,0,12}]; CoefficientList[%,t] 2 2 3 2 3 4 1 1 x x x x x 1 x x x {1, -(-) + x, -- - - + --, -- - -- + --, -(---) + -- - -- + --, 2 12 2 2 12 4 6 720 24 12 24 3 4 5 2 4 5 6 -x x x x 1 x x x x --- + -- - -- + ---, ----- - ---- + --- - --- + ---, 720 72 48 120 30240 1440 288 240 720 3 x x 5 x 6 x 7 x 67 68 E. POLINOMIOS Y NÚMEROS DE BERNOULLI ----- - ---- + ---- - ---- + ----, 30240 4320 1440 1440 5040 2 4 6 7 8 1 x x x x x -(-------) + ----- - ----- + ---- - ----- + -----, 1209600 60480 17280 8640 10080 40320 3 5 7 8 9 -x x x x x x ------- + ------ - ----- + ----- - ----- + ------, 1209600 181440 86400 60480 80640 362880 2 4 6 8 9 10 1 x x x x x x -------- - ------- + ------ - ------ + ------ - ------ + -------, 47900160 2419200 725760 518400 483840 725760 3628800 3 5 7 9 10 11 x x x x x x x -------- - ------- + ------- - ------- + ------- - ------- + --------, 47900160 7257600 3628800 3628800 4354560 7257600 39916800 2 4 6 8 10 691 x x x x x -(-------------) + -------- - -------- + -------- - -------- + -------- 1307674368000 95800320 29030400 21772800 29030400 43545600 11 12 x x -------- + ---------} 79833600 479001600 c=2;cm1=c-1; BernoulliB[cm1] BernoulliB[cm1,x] cm1! %3[[c]]//Simplify D[%,x]/cm1 Integrate[%%,{x,0,1}] Plot[%%%,{x,0,1}] 1 -(-) 2 1 -(-) + x 2 1 -(-) + x 2 1 0 -Graphics- (*berno1.wmf*) En la figura 1 y siguientes representamos algunos de los polinomios de Bernoulli. c=3;cm1=c-1; BernoulliB[cm1] BernoulliB[cm1,x]==cm1! %3[[c]]//Simplify cm1! %3[[c]]//Simplify E.1. POLINOMIOS DE BERNOULLI CON EL Mathematica 0.4 0.2 0.2 0.4 0.6 0.8 -0.2 -0.4 Figura 1. El polinomio de Bernoulli B1 (x) D[%,x]/cm1 //Simplify Integrate[%%,{x,0,1}] Plot[%%%,{x,0,1}] 1 6 True 1 2 - - x + x 6 1 -(-) + x 2 0 -Graphics- (*berno2.wmf*) c=7;cm1=c-1; BernoulliB[cm1] BernoulliB[cm1,x]==cm1! %3[[c]]//Simplify cm1! %3[[c]]//Simplify D[%,x]/cm1 //Simplify Integrate[%%,{x,0,1}] Plot[%%%,{x,0,1}] 1 -42 True 1 69 70 E. POLINOMIOS Y NÚMEROS DE BERNOULLI 0.15 0.1 0.05 0.2 0.4 0.6 0.8 -0.05 Figura 2. El polinomio de Bernoulli B2 (x) 2 4 1 x 5 x 5 6 -- - -- + ---- - 3 x + x 42 2 2 3 4 -x 5 x 5 x 5 -- + ---- - ---- + x 6 3 2 0 -Graphics- (*berno3.wmf*) c=11;cm1=c-1; BernoulliB[cm1] BernoulliB[cm1,x]==cm1! %3[[c]]//Simplify cm1! %3[[c]]//Simplify D[%,x]/cm1 //Simplify Integrate[%%,{x,0,1}] Plot[%%%,{x,0,1}] 5 -66 True 2 8 5 3 x 4 6 15 x 9 10 -- - ---- + 5 x - 7 x + ----- - 5 x + x 66 2 2 2 4 6 7 8 1 E.1. POLINOMIOS DE BERNOULLI CON EL Mathematica 0.02 0.01 0.2 0.4 0.6 0.8 1 -0.01 -0.02 Figura 3. El polinomio de Bernoulli B6 (x) x (-3 + 20 x - 42 x + 60 x - 45 x + 10 x ) ---------------------------------------------10 0 -Graphics- (*berno4.wmf*) (* Resulta que las integrales de los coeficientes son nulas, (todas, salvo la primera) porque vale la siguiente integral: *) Integrate[t Exp[t x]/(Exp[t]-1),x] t x E ------t -1 + E Integrate[t Exp[t x]/(Exp[t]-1),{x,0,1}]//Simplify 1 (* Calculamos ahora el coeficiente de t^40 en el desarrollo en serie *) n=40; n! Coefficient[Series[t Exp[t x]/(Exp[t]-1),{t,0,n}],t^n]//Simplify %==BernoulliB[40,x] Integrate[%%,{x,0,1}] Plot[%%%,{x,0,1}] 4 261082718496449122051 2 26315271553053477373 x -(---------------------) + 380899208799402670 x - ----------------------- + 13530 21 71 72 E. POLINOMIOS Y NÚMEROS DE BERNOULLI 0.06 0.04 0.02 0.2 0.4 0.6 0.8 1 -0.02 -0.04 -0.06 Figura 4. El polinomio de Bernoulli B10 (x) 6 1649024253633120910 x 8 10 2325031004857511379 x 10708663585311718520 x - ---------------------- + ------------------------ 2 21 12 16 457533651717217348 x 14 38092256087030385 x ---------------------- + 33081876872548920 x - --------------------- + 3 7 18 702064548199300 x 20 - 72937940132694 x 24 445756964055 x 26 + 27074751480 x 22 43628525827900 x + ------------------ 7 28 30 29696275036 x 192650120 x - --------------- + ------------- 21 3 32 36 5126979 x 34 9139 x 38 39 40 ----------- + 91390 x - -------- + 130 x - 20 x + x 2 3 True 0 E.2. NÚMEROS DE BERNOULLI 73 -Graphics- (*berno5.wmf*) 16 2·10 16 1·10 0.2 0.4 0.6 0.8 1 16 -1·10 16 -2·10 Figura 5. El polinomio de Bernoulli B40 (x) (* Observamos que los valores son muy grandes por eso calculamos el valor del polinomio y luego los partimos por el correspondiente factorial *) BernoulliB[40,0.5] %/40! 16 1.92966 10 -32 2.36502 10 E.2. Números de Bernoulli Para demostrar que los números de Bernoulli con ı́ndice impar ≥ 3 son nulos observemos que t t t t et + 1 − B1 t = t + = (E.3) t e −1 e −1 2 2 et − 1 pero esta última es una función par puesto que t et + 1 t e−t + 1 = − −t t 2e −1 2e −1 (E.4) con lo cual todos los coeficientes de ı́ndice impar de su desarrollo deben anularse. 74 E. POLINOMIOS Y NÚMEROS DE BERNOULLI Ejercicio E.2.1. Multiplicar ambos miembros de E.2 por et − 1, e igualar coeficientes para obtener n X n Bk = Bn + δ1n (E.5) k k=0 Ejercicio E.2.2. Demostrar que n X m Bm (x) = Bk xm−k k (E.6) k=0 En algunos textos la expresión E.6 se toma como definición de los polinomios de Bernoulli. Cuando m = 1, se tiene B1 (x) = B0 x + B1 = x − 12 . Si m > 1 se tiene Bm (1) = Bm = Bm (0) (ver el ejercicio E.2.1). Resulta, en consecuencia que Bm (x − bxc) no tiene saltos en las coordenadas enteras. E.3. Integración por partes Teorema E.3.1. Vale la identidad 0 Bm (x) = mBm−1 (x) Demostración: Por la expresión E.6 se tiene n X m 0 Bm (x) = (m − k)Bk xm−k−1 k k=0 n X m−1 =m Bk xm−1−k = mBm−1 (x) k (E.7) (E.8) (E.9) k=0 Por último se tiene la siguiente fórmula de integración por partes, Z 1 1 Bm (x)f (m) (x)dx = m! 0 1 (Bm+1 (1)f (m) (1) − Bm+1 (0)f (m) (0) (m + 1)! Z 1 1 Bm+1 (x)f (m+1) (x)dx (E.10) (m + 1)! 0 Este último resultado, convenientemente extendido, lo utilizamos para demostrar la fórmula de Euler para el error del método trapezoidal. APÉNDICE F Laboratorio de Matemática: Integración Adaptativa F.1. Objetivos ∗ Las metas del laboratorio de Cuadratura Adaptativa son • Introducir el concepto de método adaptativo para la resolución numérica de distintos problemas de Matemática, y, en particular, para el caso de la integración de funciones • Comparar la eficiencia de distintos métodos de integración numérica • Estudiar los errores de aproximación asociados a distintos métodos de integración numérica F.2. Antes del laboratorio La idea básica de un método adaptativo es refinar los cálculos solamente en los dominios en los que es necesario y realizar el mı́nimo de cuentas en los restantes para lograr a la postre una distribución uniforme de los errores de aproximación function y=mifun(x) % MIFUN funci\’on para probar la adaptatividad de QUAD. % Tiene que ser una funci\’on vectorizada. % C.E. Neuman, 30 de mayo de 1997 I=find(x < 0.5); J=find(x >= 0.5); y=zeros(size(x)); % mayores o iguales que 1/2 y(I)=-2.5e8*((x(I)-0.5).*x(I)).^5; % menores que 1/2 y(J)=720*(x(J)-0.5); % fin de la funci\’on mifun f (x) = 5 − 52 108 x(x − 12 ) 720(x − 12 ) si x< 1 2 si x≥ 1 2 (F.1) ∗ Trabajo realizado con fondos provenientes de la Universidad Nacional del Litoral (UNL), a través de la programación Curso de Acción para la Investigación y el Desarrollo (CAI+D), Secretarı́a de Ciencia y Técnica de la UNL, subsidio 1042-1042-34-182 y 94-16-4-20. Proyectos Uso del producto Mathematica en la ense nanza de la Matemática y Problemas teóricos y numéricos asociados a la obtención de soluciones de ecuaciones elı́pticas y parabólicas 75 Hay posibles singularidades en el entorno de 0 y de 0.5 76 F. LABORATORIO DE MATEMÁTICA: INTEGRACIÓN ADAPTATIVA 400 350 300 250 200 150 100 50 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Figura 1. Puntos de evaluación de quad para la función f (x) en [0, 2] Nótese en la figura 1 que en el entorno de 0 y de 0.5 se acumulan los puntos y se alcanza en nivel de posible singularidad en el algoritmo quad. Asimismo, en el intervalo donde la función es un polinomio de orden 4 el método de Simpson es exacto y la distribución de puntos es uniforme y mucho menos densa. Ejercicio F.2.1. Dada una función f definida en un intervalo [a, b] dar un método adaptativo de interpolación de f mediante polinomios a trozos de orden 2 (splines lineales). Ejercicio F.2.2. Dada una función f definida en un intervalo [a, b] dar un método adaptativo de interpolación de f mediante polinomios a trozos de orden 4 (splines cúbicos) F.3. Laboratorio Ejercicio F.3.1. Desarrollar un algoritmo —y correspondiente programa en Matlab— que implemente un método de integración numérica adaptativa de una función dada en un intervalo cerrado y acotado del eje real. Ejercicio F.3.2. Realizar experimentos numéricos destinados a determinar las caracterı́sticas del comportamiento del programa desarrollado en F.3.1 para distintos integrandos y distintos dominios de integración. Comparar con otros métodos de integración numérica. F.5. REFERENCIAS 77 F.4. Aplicaciones y desarrollos avanzados Ejercicio F.4.1. Analizar en detalle las funciones quad y quad8 de Matlab y, a partir de ellas, y del programa desarrollado en F.3.1, generar un integrador automático más robusto. F.5. Referencias (1) Atkinson, K.E.: An Introduction to Numerical Analysis, 2nd edition, J. Wiley & Sons., New York, 1989. (2) Burden, R.L. y Faires, J.D.: Análisis Numérico, 2da edición, Grupo Editorial Iberoamérica, México, 1993. APÉNDICE G Laboratorio de Matemática: Solución adaptativa de ODEs G.1. Objetivos ∗ Las metas del laboratorio de Solución adaptativa de ODEs son • Desarrollar el concepto de método adaptativo introducido en otro laboratorio de este texto para la resolución numérica de distintos problemas de Matemática, y, en particular, para el caso de la solución de ecuaciones diferenciales • comparar la eficiencia de distintos métodos de solución numérica de ODEs • estudiar los errores de aproximación asociados a distintos métodos de solución numérica de ODEs. G.2. Antes del laboratorio La idea básica de un método adaptativo es refinar los cálculos solamente en los dominios en los que es necesario y realizar el mı́nimo de cuentas en los restantes para lograr a la postre una distribución uniforme de los errores de aproximación. Analizar en detalle los resultados del laboratorio de integración adaptativa. G.3. Laboratorio Ejercicio G.3.1. Desarrollar un algoritmo —y correspondiente programa en Matlab— que implemente un método de integración numérica adaptativa de una ecuación diferencial dada en un intervalo del eje real. Ejercicio G.3.2. Realizar experimentos numéricos destinados a determinar las caracterı́sticas del comportamiento del programa desarrollado en G.3.1 para distintas funciones de carga f (x, y) y distintos dominios de solución. Comparar con otros métodos de solución numérica de ODEs. G.4. Aplicaciones y desarrollos avanzados Ejercicio G.4.1. Analizar en detalle las funciones ode23 y ode45 de Matlab y, a partir de ellas, y del programa desarrollado en G.3.1, generar un integrador automático más robusto. ∗ Trabajo realizado con fondos provenientes de la Universidad Nacional del Litoral (UNL), a través de la programación Curso de Acción para la Investigación y el Desarrollo (CAI+D), Secretarı́a de Ciencia y Técnica de la UNL, subsidio 1042-1042-34-182 y 94-16-4-20. Proyectos Uso del producto Mathematica en la ense nanza de la Matemática y Problemas teóricos y numéricos asociados a la obtención de soluciones de ecuaciones elı́pticas y parabólicas y sus continuaciones 79 80 G. LABORATORIO DE MATEMÁTICA: SOLUCIÓN ADAPTATIVA DE ODES G.5. Referencias (1) Atkinson, K.E.: An Introduction to Numerical Analysis, 2nd edition, J. Wiley & Sons., New York, 1989. (2) Burden, R.L. y Faires, J.D.: Análisis Numérico, 2da edición, Grupo Editorial Iberoamérica, México, 1993. APÉNDICE H Existencia y unicidad de soluciones de ODEs Dado el PVI ( y 0 = f (x, y) x ∈ I, y(x0 ) = y0 x0 ∈ I. (H.1) y las iteraciones de Picard Z x yn+1 = y0 + f (s, yn (s))ds (H.2) x0 definimos el rectángulo R : |x − x0 | ≤ a, |y − y0 | ≤ b y M = max |f (x, y)| (H.3) (x,y)∈R ∂f (x, y) L = max ∂y (x,y)∈R ∂f (x, y) ∂f (x, y) D = max + f (x, y) ∂x ∂y (x,y)∈R (H.4) (H.5) Lema H.0.1. Si α = min(a, b/M ) entonces |yn (x) − y0 | ≤ M (x − x0 ) para x0 ≤ x ≤ x0 + α Demostración: Por inducción en n. Si n = 0 se toma y0 (x) = y0 . Veamos ahora que si vale para n = k entonces se puede demostrar el caso n = Rk + 1: |yk (x) − y0 | ≤ Rx x M (x − x0 ) implica que |yk+1 (x) − y0 | = | x0 f (s, yk (s))ds| ≤ x0 |f (s, yk (s))|ds ≤ M (x − x0 ) si x0 ≤ x ≤ x0 + α lo que demuestra el lema por inducción. Se tiene que (yn (x)) converge sii y0 (x) + (y1 (x) − y0 (x)) + (y2 (x) − y1 (x)) + . . . + (yn (x) − yn−1 (x)) + . . . converge como serie. En consecuencia bastará ver que la serie es absolutamente convergente: ∞ X |yn (x) − yn−1 (x)| < ∞ (H.6) n=1 Observación H.0.2. La serie es absolutamente convergente Demostración: Z x |yn (x) − yn−1 (x)| = | (f (s, yn−1 (s)) − f (s, yn−2 (s)))ds| x0 Z x ≤ |f (s, yn−1 (s)) − f (s, yn−2 (s))|ds x0 Z x ∂f (s, ξ(s)) |yn−1 (s) − yn−2 (s)|ds = ∂y x0 81 (H.7) (H.8) (H.9) 82 H. EXISTENCIA Y UNICIDAD DE SOLUCIONES DE ODES con ξ(s) ∈ int(yn−1 (s), yn−2 (s)) de modo que (s, ξ(s)) ∈ R, ∀s ∈ [x0 , x0 + α] Z x ≤L |yn−1 (s) − yn−2 (s)|ds, x0 ≤ x ≤ x0 + α (H.10) x0 En particular Z x |y2 (x) − y1 (x)| ≤ L |y1 (s) − y0 |ds x0 Z x ≤ L M (s − y0 )ds = LM x0 Z |y3 (x) − y2 (x)| (H.11) (x − x0 )2 2! (H.12) x ≤ L |y2 (s) − y1 (s)|ds (H.13) x0 ≤ M L2 Z x (s − x0 )2 (x − x0 )3 ds = M L2 2 3! x0 (H.14) y por inducción |yn (x) − yn−1 (x)| ≤ M Ln−1 (x − x0 )n , n! x0 ≤ x ≤ x0 + α (H.15) Resulta ası́ que, para x0 ≤ x ≤ x0 + α ∞ X |yj (x) − yj−1 (x)| ≤ M (x − x0 ) + M L j=1 (x − x0 )3 (x − x0 )2 + M L2 +(H.16) ... 2! 3! α2 α3 + M L2 + ... (H.17) 2! 3! M (αL)2 (αL)3 M αL (αL + + + . . .) = (e − 1)(H.18) L 2 3 L ≤ Mα + ML = Luego yn (x) converge para cada x en x0 ≤ x ≤ x0 + α Un argumento similar muestra que yn (x) converge para cada x en x0 − α ≤ x ≤ x0 El lı́mite de (yn (x)) se denotará y(x) Observación H.0.3. La función y(x) satisface la ecuación integral Z x y(x) = y0 + f (s, y(s))ds (H.19) x0 y se tiene que y(x) es continua Como x Z yn+1 (x) = y0 + f (s, yn (s))ds (H.20) x0 tomamos lı́mite: Z x y(x) = y0 + lim n→∞ f (s, yn (s))ds (H.21) x0 y tenemos que calcular este lı́mite. Notemos que y(x) pertenece a R para x0 ≤ x ≤ x0 + α porque es el lı́mite de funciones con gráficos en R. H. EXISTENCIA Y UNICIDAD DE SOLUCIONES DE ODES H.0.1. Cálculo del lı́mite. Z x Z x f (s, y(s))ds − f (s, yn (s))ds| ≤ | x0 x0 Z x ≤ |f (s, y(s)) − f (s, yn (s))|ds x0 Z x ≤ L |y(s) − yn (s)|ds 83 (H.22) (H.23) (H.24) x0 pero y(s) − yn (s) = P∞ − yj−1 (s)) y entonces j=n+1 (yj (s) ∞ X |y(s) − yn (s)| ≤ M ≤ M M L = Lj−1 (s − x0 )j j! (H.25) Lj−1 αj j! (H.26) (αL)j M αL (e − 1) j! L j=n+1 (H.27) j=n+1 ∞ X j=n+1 ∞ X de modo que la integral es (H.24) ≤ M Z ∞ X (Lα)j x ds j! x0 j=n+1 ≤ Mα ∞ X (Lα)j → 0 (n → ∞) j! j=n+1 (H.28) (H.29) Resulta ası́ que Z t lim n→∞ Z t f (s, yn (s))ds = t0 f (s, y(s))ds (H.30) t0 H.0.2. Continuidad de y(x). Escribimos y(x+h)−y(x) = (y(x+h)−yN (x+h))+(yN (x+h)−yN (x))+(yN (x)−y(x)) (H.31) Sea N tal que M L ∞ X (αL)j ε < j! 3 (H.32) j=N +1 de modo que si h es suficientemente pequeño, h < α, se tiene ε |y(x + h) − yN (x + h)| < 3 y ε |y(x) − yN (x)| < 3 y, por la continuidad de yN (integral repetida) ε ∃δ > 0 : |yN (x + h) − yN (x)| < si |h| < δ 3 entonces (H.33) (H.34) (H.35) |y(x+h)−y(x)| ≤ |y(x+h)−yN (x+h)|+|yN (x+h)−yN (x)|+|yN (x)−y(x)| ≤ ε si |h| < δ (H.36) 84 H. EXISTENCIA Y UNICIDAD DE SOLUCIONES DE ODES Hemos demostrado ası́ que el problema de valores iniciales tiene una solución continua en x0 ≤ x ≤ x0 + α Teorema H.0.4. La solución es única Demostración: Supongamos que además de y(x) se tiene que z(x) también es solución: Z x y(x) = y0 + f (s, y(s))ds (H.37) x0 x Z z(x) = y0 + f (s, z(s))ds (H.38) x0 entonces Z x |y(x) − z(x)| = | (f (s, y(s)) − f (s, z(s)))ds| x0 Z x ≤ |f (s, y(s)) − f (s, z(s))|ds x0 Z x ≤ L |y(s) − z(s)|ds (H.39) (H.40) (H.41) x0 lo que prueba el teorema una vez demostrado el siguiente lema Lema H.0.5. Sea w(x) una función no negativa con Z x w(x) ≤ w(s)ds (H.42) x0 Entonces w(x) es idénticamente cero. Demostración: Sea U (x) = Rx x0 w(s)ds entonces dU = w(x) ≤ dx Z x w(s)ds = LU (x) (H.43) x0 lo que implica e−L(x−x0 ) U (x) ≤ U (x0 ) (x ≥ x0 ) (H.44) o bien U (x) = 0 (H.45) de modo que Z x 0 ≤ w(x) ≤ L w(s)ds = LU (x) = 0 (H.46) x0 o tambien w(x) = 0 (H.47) H.1. REFERENCIAS 85 H.0.3. Errores en el método de Euler. El método de Euler tiene la expresión yk+1 = yk + hf (xk , yk ). Si desarrollamos en serie de Taylor: Y (xk+1 = 2 ∂f Y (xk ) + hf (xk , Y (xk )) + h2 ( ∂f ∂x + f ∂y )(ξk , Y (ξk )) con ξk ∈ int(xk , xk+1 ) Si restamos: Yk+1 − yk+1 = Yk − yk + h(f (xk , Yk ) − f (xk , yk )) + f fy )(ξk , Y (ξk )) y se tiene |Yk+1 − yk+1 | ≤ |Yk − yk | + h|fy (xk , ηk )||Yk − yk | + |Yk − yk | + hL|Yk − yk | + Ek+1 = (1 + hL)Ek + + h2 |(fx + f fy )(ξk , Y (H.48) (ξk ))| 2 Dh2 2 y si llamamos Ek = |Yk − yk | al error (k > 0) se tiene ≤ h2 2 (fx Dh2 2 (H.49) (H.50) Se prueba que Dh2 ((1 + hL)k − 1) 2 hL se tiene tambien que Dh khL Ek ≤ ekhL E0 + (e − 1) 2L Ek ≤ (1 + hL)k E0 + y como (1 + hL) ≤ ehL como kh < α Ek ≤ eαL E0 + D αL (e − 1)h 2L (H.51) (H.52) (H.53) H.1. Referencias (1) Atkinson, K.E.: An Introduction to Numerical Analysis, 2nd edition, J. Wiley & Sons., New York, 1989. (2) Burden, R.L. y Faires, J.D.: Análisis Numérico, 2da edición, Grupo Editorial Iberoamérica, México, 1993. H.1. REFERENCIAS Terminado de imprimir el doce de noviembre de dos mil uno en el Departamento de Matemática (FIQ), Universidad Nacional del Litoral, en la ciudad de Santa Fe, República Argentina. 87