Derivación e Integración Numérica

Anuncio
TEMA 0
Derivación e Integración Numéricas
1.
Introducción
La derivación y la integración son dos conceptos del cálculo infinitesimal que se definen
por un proceso de paso al lı́mite. Como este proceso no se puede reproducir en un ordenador,
debemos desarrollar técnicas que nos permitan aproximarlo. La mayorı́a de estas técnicas se
basan en la siguiente propiedad:
Sea L(f ) un funcional lineal (que aplica a cada función un número real), tal como la
derivada en un punto a, L(f ) = f 0 (a), o la integral definida en un intervalo cerrado [a, b],
Rb
L(f ) = a f (x)dx. Si aproximamos f por otra función p más fácil de calcular (como su
polinomio interpolador en ciertos nodos elegidos a priori), entonces se tiene que:
L(f ) = L(p) + L(e) ,
(1)
donde e es el error que se comete al aproximar f por p, e(x) = f (x) − p(x). Para el caso
de la derivación se tendrá: f 0 (a) = p0 (a) + e0 (a), y para el caso de la integración tendremos:
Rb
Rb
Rb
f (x)dx = a p(x)dx + a e(x)dx.
a
Si aproximamos f por su polinomio interpolador pn de grado n en n + 1 puntos previamente seleccionados,
podemos utilizar la expresión de Lagrange del polinomio interpolador,
Pn
pn (x) = i=0 f (xi )Li (x) para obtener el valor aproximado de L(f ):
L(f ) ≈ L(f ) ≡ L(pn ) =
n
X
f (xi )L(Li (x)) =
i=0
n
X
Ai f (xi ) .
(2)
i=0
Como vemos, la expresión que se obtiene es muy sencilla, tan sólo deben calcularse los
coeficientes Ai = L(Li (x)) sobre los polinomios interpoladores de Lagrange. La expresión del
error L(en ) se estudiará con detalle en las secciones siguientes.
En la práctica no se utilizan los polinomios de Lagrange para calcular los coeficientes
Ai , sino que se utiliza la forma de Newton, u otros métodos como desarrollos de Taylor o
el método de los coeficientes indeterminados, donde los Ai se calculan imponiendo que la
fórmula sea
Se dice que una fórmula L(f ) ≈
Pn exacta para polinomios de un cierto grado.
k
k
L(f ) =
) para k = 0, 1, . . . , r y
i=0 Ai f (xi ) es exacta hasta orden r si L(x ) = L(x P
r+1
r+1
L(x ) 6= L(x ) (se puede demostrar que las fórmulas L(f ) ≈ ni=0 Ai f (xi ) son exactas
hasta orden n si y sólo si son de tipo interpolatorio).
1.1.
Fórmulas de Extrapolación
Antes de pasar a estudiar las distintas fórmulas de derivación o integración numéricas,
consideraremos una técnica que permite obtener una mejor aproximación a partir de unos
valores aproximados para L(f ).
Dada una fórmula aproximada L(f ) ≈ Lh (f ), dependiendo de un parámetro h de forma
que cuando h → 0 se tenga que Lh (f ) → L(f ), consideramos que hemos calculado una serie
1
de valores de G(h) ≡ Lh (f ) en h, h/2, h/4, . . . h/2k . Se trata de, a partir de estos valores,
obtener una aproximación mejor que todos ellos que se aproxime al valor exacto G(0) = L(f ).
Para ello, supongamos que se conoce el desarrollo en potencias de h de G(h) (al menos
para h muy pequeño),
G(h) = g0 + g1 hp1 + g2 hp2 + · · ·
h → 0,
(3)
con 0 < p1 < p2 < · · ·. Entonces podemos construir la siguiente sucesión de funciones Gn (h),
definidas recursivamente por:
G1 (h) = G(h) ,
Gn+1 (h) =
2pn Gn (h) − Gn (2h)
,
2pn − 1
(4)
(n)
que verifican el siguiente desarrollo en potencias de h, Gn (h) = g0 + g1 hpn + · · · cuando
h → 0. Es decir, las funciones Gn (h) convergen mucho más rápidamente al valor exacto
g0 = L(f ) que la original G(h).
2.
Derivación Numérica
Veamos algunas reglas de derivación numérica usuales junto con la expresión del error.
Antes de nada, hemos de advertir a los alumnos de que el problema de la derivacón númerica
es intrı́nsecamente mal condicionado, tal y como se comentó en el capı́tulo primero, además
de ser numéricamente inestable, como veremos al final de esta sección.
Tomando la forma de Newton del polinomio interpoladorQ
y de su error, tendremos que
f (x) = pn (x) + f [x0 , x1 , . . . , xn , x]Ψn+1 (x), donde Ψn+1 = ni=0 (x − xi ). Derivando esta
expresión en el punto a se obtiene:
f 0 (a) = p0n (a) +
d
f [x0 , x1 , . . . , xn , x]|x=a Ψn+1 (a) + f [x0 , x1 , . . . , xn , a]Ψ0n+1 (a) .
dx
(5)
d
Haciendo uso de que dx
f [x0 , x1 , . . . , xn , x] = f [x0 , x1 , . . . , xn , x, x], por la propia definición
de diferencia dividida en argumentos repetidos, y empleando la relación entre las diferencias
1
divididas y las derivadas de la función, tenemos que f [x0 , x1 , . . . , xn , a, a] = (n+2)!
f (n+2) (ξ),
con ξ ∈ Ia , siendo Ia el mı́nimo intervalo abierto que incluye todos los puntos de interpolación
y a.
Con esto, el error en la derivación podemos expresarlo de la forma:
f 0 (a) = p0n (a) +
f (n+2) (ξ)
f (n+1) (η) 0
Ψn+1 (a) +
Ψ (a) ,
(n + 2)!
(n + 1)! n+1
(6)
con η ∈ Ia .
Si el punto a es un nodo de interpolación, a = xi entonces Ψn+1 (a) = 0 y la fórmula para
(n+1)
el error se simplifica, e0n (a) = f (n+1)!(η) Ψ0n+1 (a). Si llamamos H = máx1≤j≤n |xi − xj |, entonces
Mn+1
e0n (a) = (n+1)!
H n , donde Mn+1 = máxx∈Ia |f (n+1) (x)|.
Otra forma de simplificar la expresón para el error, y de paso obtener una fórmula exacta
para un orden mayor, es tomando a de manera que Ψ0n+1 (a) = 0. Esto se consigue haciendo
2
que los puntos de interpolación se sitúen de forma simétrica respecto a a (en este caso se
necesita que el número de puntos sea par, y por tanto n impar), en cuyo caso Ψn+1 (a) alcanza
Mn+2
un máximo relativo en a y Ψ0n+1 (a) = 0. En este caso se tiene que e0n (a) = (n+2)!
H n+1 .
Haciendo las diversas elecciones de polinomio interpolador de grado n = 0, 1, 2, . . ., y
tomando a como nodo interpolador o situado de manera simétrica tendremos las diversas
fórmulas aproximadas para la derivada f 0 (a):
n = 0, un sólo punto. En este caso p0 (x) = f (x0 ), por lo que f 0 (a) = 0. Esta fórmula
es de escaso interés.
n = 1, dos puntos. En este caso se tiene, p1 (x) = f (a) + f [x0 , x1 ](x − x0 ) y p01 (x) =
p01 (a) = f [x0 , x1 ], una diferencia dividida. Si tomamos a uno de los nodos, por ejemplo
(a)
a = x0 y x1 = a+h, entonces p01 (a) = f [a, a+h] = f (a+h)−f
, una diferencia progresiva.
h
0
Tomando a = x1 y x0 = a − h, se tiene p1 (a) = f [a − h, a] = f (a)−fh(a−h) , una diferencia
regresiva. En ambos casos el error es el mismo, e01 (a) = − 12 hf 00 (ξ), con ξ entre a y a + h
(o entre a − h y a). La cota para el error máximo será |e01 (a)| ≤ 21 hM2 , que tiende a
cero linealmente con h.
Eligiendo a de manera simétrica respecto a x0 y x1 , es decir, x0 = a − h y x1 =
(a−h)
a + h, entonces es p01 (a) = f (a+h)−f
, una diferencia centrada. En este caso el error
2h
1 2 000
0
vale e1 (a) = − 6 h f (η), con cota para el error máximo |e01 (a)| ≤ 61 h2 M3 . Podemos
comprobar que a igualdad de número de nodos, para las disposiciones simétricas de
estos, el error es menor.
n = 2, tres puntos. En este caso el polinomio interpolador es p2 (x) = f (x0 )+f [x0 , x1 ](x−
x0 )+f [x0 , x1 , x2 ](x−x0 )(x−x1 ), y su derivada vale p02 (a) = f [x0 , x1 ]+f [x0 , x1 , x2 ](2a−
x0 − x1 ). Por regla general se suelen tomar los puntos igualmente espaciados y a uno
de los nodos, por ejemplo x0 = a, x1 = a + h y x2 = a + 2h. Con esto se tiene
(a+h)−3f (a)
. El error vale e02 (a) = 13 h2 f 000 (ξ), con cota máxima
que p02 (a) = −f (a+2h)+4f
2h
1 2
0
|e2 (a)| ≤ 3 h M3 . Esta fórmula es poco usada, a no ser que se deba calcular la derivada
en el extremo de un intervalo, pues el error es el mismo que la de la diferencia centrada
con dos puntos. De hecho, si se toma aquı́ una disposición simétrica de los nodos con
a siendo el nodo central, se obtendrı́a la fórmula centrada de dos puntos, en donde no
interviene para nada el valor en f (a).
2.1.
Derivadas de orden superior
De forma análoga se pueden obtener expresiones para derivadas de orden superior, aunque
para no obtener resultados triviales se requerirá que n sea igual o superior al grado de la
derivada. Por ejemplo, para la derivada segunda, con una fórmula de tres puntos centrada
(x0 = a − h, x1 = a, x2 = a + h) se tiene:
f 00 (a) ≈ p002 (a) =
f (a − h) − 2f (a) + f (a + h)
,
h2
1 2 (4)
con error e002 (a) = − 12
h f (ξ). La cota del error máximo será |e002 (a)| =
3
(7)
1 2
h M4 .
12
2.2.
Obtención de las derivadas mediante desarrollo de Taylor y
método de los coeficientes indeterminados
Por último, se mostrará a los alumnos que estas mismas expresiones pueden obtenerse
manipulando algebraicamente los desarrollos de Taylor de f (a ± h) y f (a ± 2h) en torno
a f (a) para despejar la derivada que nos interese. De esta manera se obtienen también las
mismas expresiones para el error.
También se obtienen los mismos resultados mediante el método de los coeficientes indeterminados, aunque en este caso no se obtienen cotas para el error.
2.3.
Condicionamiento del problema de la derivación numérica
Como ya se ha comentado, el problema de la derivación numérica está intrı́nsecamente
mal condicionado. Por ejemplo, para f (x) derivable en x = 0, podemos construir f ∗ (x)
próxima a ella de la siguiente manera:
f ∗ (x) = f (x) + 10−s sin(10k+s x) .
(8)
Entonces ||f − f ∗ ||∞ ≤ 10−s , y sin embargo f ∗0 (0) = f 0 (0) + 10k , por lo que tomando s
y k tan grande como queramos podemos hacer que f ∗ se aproxime a f tanto como se quiera
mientras su derivada se aleja también todo lo que queramos (las tangentes a las curvas en
x = 0 tienden a ser perpendiculares).
Pero además de eso, y como consecuencia de los problemas de cancelación en el cálculo de
las diferencias divididas en puntos muy póximos, el cálculo de las derivadas es numéricamente
inestable incluso para errores pequeños, como pueden ser los errores de redondeo.
P
Por ejemplo, para una fórmula de tipo interpolatorio f 0 (a) ≈ p0n (a) = ni=0 Ai f (xi ), si en
lugar dePf (xi ) se dispone de los valores aproximados f ∗ (xi ) = f (xi ) + i , entonces p∗n 0 (a) =
n
∗0
0
p0n (a) + P
i=0 Ai i . Si definimos = máxi |i |, entonces el error real será en (a) ≤ |en (a)| + A,
n
con A = i=0 |Ai |. Como resulta ser A = O(1/h), el error constará de dos partes, una que
tiende a cero cuando h → 0 y otra que diverge cuando h → 0.
Por ejemplo, para la fórmula de la diferencia progresiva, se tiene que el error real es
e∗n 0 (a) ≤ 21 hM2 + h2 . Para valores de h relativamente grandes el término O(h) domina, pero
para valores cada vez más pequeños de h comienza a dominar elptérmino O(1/h). Existe un
valor de
√ h para el cual el error alcanza un mı́nimo, y ese es h = 2 /M2 , para el cual el error
vale 2 M2 . El problema es que se requiere el conocimiento de la cota M2 de la segunda
derivada.
Por estos motivos las fórmulas de derivación no son muy utilizadas por sı́ mismas, debido a
los grandes errores que presentan. Sı́ son utilizadas, en cambio, en la resolución de ecuaciones
diferenciales por métodos de discretización.
2.4.
Extrapolación de Richardson
Dado un método de derivación numérica, si conocemos con qué potencia va el término
del error (mucho mejor si conocemos el desarrollo de Euler-Maclaurin en potencias de h),
podemos mejorar notablemente el valor aproximado de la derivada usando la técnica de
extrapolación vista anteriormente.
4
Por ejemplo, para la fórmula de dos puntos centrada, con error proporcional a h2 , es
posible demostrar, haciendo uso adecuado del desarrollo de Taylor, que se verifica:
∞
X
f (a + h) − f (a − h)
0
= f (a) +
A2k h2k ,
2h
k=0
(9)
1
con A2k = (2k+1)!
f (2k+1) (a). En realidad, como ya vimos, no es necesario conocer el valor de
los coeficientes A2k , tan sólo que es válida la fórmula anterior para h → 0.
Según vimos, podemos construir la sucesión de funciones:
22n Gn (h) − Gn (2h)
,
(10)
22n − 1
P
(n) 2k
de manera que para cada Gn (h) se verifica Gn (h) = f 0 (a) + ∞
k=n A2k h , es decir, el error
va como h2n .
Es conveniente ir calculando estas funciones de forma recursiva para valores de h divididos
por las sucesivas potencias de 2. Esto da lugar al llamado algoritmo de extrapolación de
Richardson, en el que se van calculando los valores Gj (h/2i ) fila por fila (i es el ı́ndice de
la fila y j el de la columna). La aproximación más buena vendrá dada por los términos
que van saliendo en la diagonal. Si quisiéramos obtener un término más, tan sólo habrı́a
que calcular la derivada por la fórmula de dos puntos centrada en un h que se obtiene del
anterior dividiendo por 2, y después aplicar el algoritmo para generar la nueva fila. El último
término, el de la diagonal, nos proporcionaá un valor para la derivada mejor que todos los
anteriores.
G1 (h) =
3.
f (a + h) − f (a − h)
,
2h
Gn+1 (h) =
Integración numérica
Las fórmulas de integración numérica (generalmente conocidas como fórmulas de cuadratura) son muy similares a las de derivación númerica. Debido al buen condicionamiento de la
integración y a la estabilidad numérica de muchas de estas fórmulas, ası́ como al interés
tanto teórico como práctico de la integración (no olvidemos que la derivación es muy proceso rutinario, mientras que la integración no es nada trivial, e incluso muchas integrales con
integrandos sencillos no son expresables en términos de funciones elementales), se han desarrollado muchas más fórmulas de cuadratura que de derivación. Además, como el número
de condición de la integración es proporcional a b − a (la anchura del intervalo), se hace
necesario dividirlo en subintervalos más pequeños (la otra alternativa, el aumentar el grado
del polinomio interpolador, hemos visto que da problemas debido a las grandes oscilaciones
que presentan estos) en los cuales se interpola mediante polinomios de grado bajo. Estas
fórmulas de cuadraturas se denominan compuestas, frente a las simples en las que un sólo
polinomio interpola a f en todo [a, b].
Al igual que en el caso de la derivación utilizaremos fórmulas del tipo:
Z
b
f (x)dx ≈
a
n
X
i=0
5
Ai f (xi ) ,
(11)
de manera que cuando son exactas para polinomios de grado n, entonces resultan ser de tipo
interpolatorio:
Z b
Z b
Z b
n
X
f (x)dx ≈
pn (x)dx =
Li (x)dx .
(12)
f (xi )
a
a
i=0
a
Estas fórmulas se dividen en dos grandes clases: Fórmulas de Newton-Cotes, cuando
los nodos de interpolación son equiespaciados, y fórmulas de cuadratura de Gauss,
cuando los nodos de interpolación se determinan imponiendo que la fórmula sea exacta para
el grado más alto posible (que resulta ser 2n + 1).
A su vez, las fórmulas de Newton-Cotes se dividen en cerradas, cuando los extremos
del intervalo se incluyen como nodos de interpolación, y abiertas, cuando alguno de los
extremos no se toma como nodo de interpolación.
En este curso sólo tendremos ocasión de estudiar algunas de las fórmulas de Newton-Cotes
(tanto abiertas como cerradas) en su versión simple y compuesta.
3.1.
Fórmulas de Newton-Cotes
Veamos algunas de las fórmulas de Newton-Cotes más sencillas:
Rb
1. Fórmulas en un sólo punto: a f (x)dx ≈ f (x0 )(b − a) .
Rb
Si x0 = a, a f (x)dx ≈ f (a)(b − a) .
Rb
Si x0 = b, a f (x)dx ≈ f (b)(b − a) .
Rb
,
f (x)dx ≈ f ( a+b
)(b − a) .
Si x0 = a+b
2
2
a
Estas expresiones se conocen como fórmula del rectángulo. Los errores de estas
2
3
fórmulas son de la forma E(f ) = f 0 (ξ) (b−a)
para las dos primeras y E(f ) = f 00 (ξ) (b−a)
2
24
para la tercera, con ξ ∈ (a, b), por lo que las dos primeras son exactas para polinomios
de orden cero mientras que la tercera, conocida como fórmula del punto medio, es
exacta para polinomios de orden uno.
2. Fórmulas de dos puntos. Lo más usual es tomar los extremos del intervalo,R de manera
b
que sea una fórmula cerrada, que se conoce como fórmula del trapecio: a f (x)dx ≈
3
f (a)+f (b)
(b − a). Su error es de la forma E(f ) = −f 00 (ξ) (b−a)
, con ξ ∈ (a, b). Por tanto,
2
12
se trata de una fórmula exacta para polinomios de orden uno.
3. Fórmulas de tres puntos. Con puntos equiespaciados e incluyendo los extremos, resulta
la conocida fórmula de Simpson (de tipo 1/3):
Z b
b−a
a+b
f (x)dx ≈
f (a) + 4f (
) + f (b) .
(13)
6
2
a
1
1 (iv)
El error viene dado por E(f ) = − 2880
f (iv) (ξ)(b − a)5 = − 90
f (ξ)h5 donde h = b−a
2
es la separación entre los nodos. Por tanto, esta fórmula es exacta para polinomios de
orden tres.
6
4. Fórmulas de cuatro puntos. Con puntos equiespaciados e incluyendo los extremos, se
obtiene la llamada fórmula de Newton 3/8:
Z b
b−a
2a + b
a + 2b
f (x)dx ≈
f (a) + 3f (
) + 3f (
) + f (b) .
(14)
8
3
3
a
3 (iv)
f (ξ)h5 , donde h = b−a
es la separación
El error para esta fórmula es E(f ) = − 80
3
entre los nodos. Por tanto, esta fórmula sigue siendo exacta para polinomios de orden
tres.
Hay que hacer notar que para las fórmulas de Newton-Cotes, con nodos equiespaciados,
ocurre lo mismo que para las fórmulas de derivación. Cuando los nodos son impares y se
sitúan de forma simétrica respecto al centro del intervalo, son exactas para polinomios de
un orden mayor del que cabrı́a esperar.
El principal problema que presenta las fórmulas de Newton-Cotes simples es, debido al
hecho de trabajar con interpolación en puntos equiespaciados, las grandes oscilaciones de
los polinomios interpoladores de grado alto. Esto, que por sı́ solo no es un inconveniente,
hace que sean numéricamente inestables. Para verlo, supongamos que los valores de que se
disponen no son f (xi ) sino f ∗ (xi ) = f (xi ) + i . El valor que obtendremos para la integral
aproximada será:
n
X
i=0
∗
Ai f (xi ) =
n
X
Ai (f (xi ) + i ) =
i=0
n
X
Ai f (xi ) +
i=0
n
X
Ai i .
(15)
i=0
P
Se puede probar que la fórmula es numéricamente estable, es decir, que | ni=0 Ai i | ≤
M
Pn con = máxi |i | para algun M , si y sólo si existe un M independiente de n tal que
i=0 |Ai | ≤ M .
De aqui se puede deducir que una condición suficiente
numéricaRes que
P
P para la estabilidad
b
todos los coeficientes Ai sean positivos. En este caso, ni=0 |Ai | = ni=0 Ai = b − a = a 1dx,
por lo que la fórmula es estable.
Para las fórmulas de Newton-Cotes ocurre que para n ≥ 8 algunos de los Ai toman
valores negativos, por lo que dejan de ser numéricamente estables.
Al igual que para la interpolación polinomial, la solución consiste en dividir el intervalo
[a, b] en subintervalos más pequeños y aproximar la función f en cada subintervalo por un
polinomio de grado bajo. Entonces podemos aplicar las fórmulas de cuadratura estudiadas para obtener al final lo que se denomina una fórmula compuesta. Si los nodos son
equiespaciados tendremos una cuadratura de Newton-Cotes compuesta.
Para cada uno de los tipos de cuadratura anteriores, las correspondientes expresiones
compuestas con:
1. Fórmula del rectángulo compuesta: izquierda y derecha:
Z b
n−1
X
f (x)dx ≈ h
f (xi )
a
Z
b
f (x)dx ≈ h
a
i=0
n−1
X
i=0
7
f (xi+1 ) ,
(16)
(17)
con h = b−a
. El error para estas fórmulas es E(f ) = (b − a)f 0 (ξ) h2 , por lo que tiende
n
linealmente a cero cuando h → 0. Nótese que estas expresiones se corresponden con
sumas de Riemann, y con sumas inferiores y superiores de f en el intervalo [a, b], en el
caso en que f sea monótona.
2. Fórmula del punto medio compuesta: Supongamos que n es par, y que hacemos la
partición [a, b] = [x0 = a, x2 ] ∪ [x2 , x4 ] ∪ · · · [xn−2 , xn = b], entonces:
Z
n/2−1
b
f (x)dx ≈ h
a
X
f (x2i+1 ) ,
(18)
i=0
2
h
. Se observa que por ser simétrica, el error tiende
con error E(f ) = (b − a)f 00 (ξ) 192
a cero más rápidamente que para el caso de los rectángulos, a pesar de aproximar la
función por un polinomio de grado cero.
3. Fórmula de los trapecios compuesta:
Z b
f (a)
f (b)
f (x)dx ≈ h
+ f (x1 ) + · · · + f (xn−1 ) +
,
2
2
a
(19)
2
con error E(f ) = −(b − a)f 00 (ξ) h12 . A pesar de que esta fórmula es sólo exacta para
polinomios de grado uno, se da la circunstancia de que es especialmente adecuada para
funciones periódicas infinitamente diferenciables de periodo b − a (véase por ejemplo
Gautshi, pag. 155).
4. Fórmula de Simpson compuesta. Supongamos que n es par y que hacemos una división
de intervalos semejante a la de la fórmula del punto medio compuesta, [a, b] = [x0 =
a, x2 ] ∪ [x2 , x4 ] ∪ · · · [xn−2 , xn = b]. En cada subintervalo aplicamos la regla de Simpson
simple, y obtenemos:
Z b
1
f (x)dx ≈ h [f (a) + 4f (x1 ) + 2f (x2 ) + · · · + 2f (xn−2 ) + 4f (xn−1 ) + f (b)] , (20)
3
a
4
h
con error E(f ) = −(b − a)f (iv) (ξ) 180
. En el caso en que n sea impar, se aplicará la
regla de Simpson compuesta en el intervalo [a = x0 , xn−3 ], mientras que aplicaremos
fórmula de Newton 3/8 en el intervalo [xn−3 , xn = b].
En todos los casos de fórmulas compuestas, para obtener la expresión del error en términos
de la derivada de un cierto orden de f valorada en un punto ξ ∈ [a, b], se ha hecho uso de la
correspondiente expresión del error en la fórmula simple y de la continuidad de la derivada
correspondiente, de manera que, haciendo uso del teorema del valor intermedio, se tiene:
n−1
X
f (k) (ξi ) = nf (k) (ξ) =
i=0
donde ξi ∈ [xi , xi+1 ] y ξ ∈ [a, b].
8
b − a (k)
f (ξ) ,
h
(21)
3.2.
Integración de Romberg
Al igual que se hizo para la derivación, también es posible aquı́ diseñar algoritmos que
hagan uso del comportamiento del error para obtener una solución mejorada mediante extrapolación. Para el caso de la fórmula de los trapecios compuesta este algoritmo se conoce
como algoritmo de extrapolación de Romberg, y sigue las mismas lı́neas que las del algoritmo
de extrapolación de Richardson. La única diferencia radica en que cuando se divide h por 2
y se cálcula de nuevo la integral mediante el método de los trapecios (para pasar de G0 (h/2i )
a G0 (h/2i+1 )) podemos hacer uso de los valores de la función ya calculados, de manera que
el algoritmo resulte más eficiente.
Una curiosidad del algoritmo de Romberg es que en la segunda columna, G2 (h/2i ), los
valores que se obtienen para la integral, con error de orden h4 , son precisamente los que se
obtendrı́an al aplicar el método de Simpson compuesto.
9
Descargar