Subido por lu cas

UnaintroduccionalmetododeNewton

Anuncio
See discussions, stats, and author profiles for this publication at: https://www.researchgate.net/publication/305852121
Una Introducci�on al M�etodo de Newton para resolver ecuaciones no
lineales.
Book · April 2009
CITATIONS
READS
0
6,486
1 author:
Manuel Aurelio Diloné
Universidad de La Rioja (Spain)
8 PUBLICATIONS 6 CITATIONS
SEE PROFILE
Some of the authors of this publication are also working on these related projects:
Dinámica del método de Halley View project
Construcción de un modelo matemático para la solución óptima del problema de localización de los sistemas de distribución de gas natural para abastecimiento del
parque de generación de energía eléctrica. View project
All content following this page was uploaded by Manuel Aurelio Diloné on 09 August 2016.
The user has requested enhancement of the downloaded file.
Una introducción al método de Newton-Raphson
para resolver ecuaciones no lineales
Manuel Aurelio Diloné Alvarado
13 de julio de 2009
2
Una introducción al método de Newton-Raphson
para resolver ecuaciones no lineales.
3
Una introducción al método de Newton-Raphson
para resolver ecuaciones no lineales
Manuel Aurelio Diloné Alvarado. M.A
Impresión: Impresora ServiCentro. C/ Progreso, Nagua, Provincia María Trinidad
Sánchez. República Dominicana.
Impreso en la República Dominicana.
Printed in Dominican republic.
ISBN: 978-9945-00-206-5.
4
Dedicación
A mi esposa Jocelyn Espinal, gracias por brindarme en todo momento el apoyo,
el ánimo y el amor que he necesitado para terminar este proyecto. En gran medida
a ti debo el honor de haber finalizado este trabajo.
A mis hijos Anneuri Manuel y Manuel Aurelio Jr. Por ser ellos la fuente de mi
mayor inspiración.
5
6
Prólogo
Este documento es fruto del trabajo realizado por D. Manuel Aurelio Diloné Alvarado durante su estancia de investigación en la Universidad de La Rioja, en los
cursos 2006–07, 2007–08 y 2008–09. Dicha estancia fue motivada por el convenio
firmado por la Universidad de La Rioja y la Secretaría de Estado de Educación Superior, Ciencia y Tecnología de la República Dominicana con el objetivo de impulsar
los estudios de doctorado científico técnicos en dicho país.
Una de las primeras acciones que impulsó el citado convenio fue la llegada a la
Universidad de La Rioja, a comienzos del curso 2006–07, de dos profesores dominicanos para la realización de los cursos de doctorado en dicha Universidad, uno de
los cuales era D. Manuel Aurelio Diloné Alvarado. En concreto, el profesor Diloné
se inscribió en el programa de doctorado que se imparte de forma conjunta entre
los departamentos de Matemáticas y Computación e Ingeniería Eléctrica de la Universidad de La Rioja, cursando con éxito las asignaturas en las que se matriculó.
Además de los conocimientos adquiridos en estas asignaturas, el profesor Diloné ha
complementado su formación con el manejo de algunas herramientas que en la actualidad resultan imprescindibles para cualquier investigador en Matemáticas, tales
como el procesador de textos científicos LATEX o el programa de cálculo simbólico
Mathematica.
Una vez superado el periodo de docencia, tuvo que afrontar la realización de un
trabajo de investigación, optando para ello por alguna de las líneas que se ofertaban desde el departamento de Matemáticas y Computación de la Universidad de La
Rioja. En concreto, la línea de investigación elegida fue Procesos iterativos para la
resolución de ecuaciones no lineales. Aplicaciones. Para ayudarle a llevar a cabo su
cometido al profesor Diloné se le asignó un tutor académico, que es quien subscribe
estas líneas. Recuerdo con cariño la primera entrevista que tuve como tutor de Diloné, en la cual se me presentó como un «soldado disciplinado» dispuesto a conseguir
todas aquellas metas académicas que se le propongan.
Dentro de la línea de investigación elegida, el trabajo del profesor Diloné se centra
en el estudio del método de Newton y su aplicación a la ecuación de Kepler. Este
tema combina a la perfección dos de los tópicos más clásicos en el Análisis Numérico
y la Matemática Aplicada en general. Por una parte, el estudio de procesos iterativos
para resolver ecuaciones no lineales y, en particular el método de Newton, es un tema
de incuestionable actualidad, a tenor de las publicaciones al respecto que aparecen
en diversas revistas científicas. Por otra parte, la ecuación de Kepler es, sin duda, una
de las ecuaciones más estudiadas en la bibliografía matemática. La combinación de
ambos tópicos ofrece unas enormes posibilidades investigadoras, como lo demuestran
los logros alcanzados hasta el momento. En concreto, además de la publicación de
esta monografía, se ha presentado una comunicación en las III Jornadas de Análisis
Numérico y Aplicaciones, celebradas en la Universidad de La Rioja en noviembre
de 2008 y se tiene admitido un capítulo en el libro Computational Mathematics:
Theory, Methods and Application que publicará a finales de 2009 la editorial Nova
Science Publishers, Inc., con sede en Nueva York.
La tarea investigadora del profesor Diloné en la Universidad de La Rioja culminará a finales del presente curso 2008–09, con la defensa de su trabajo de investigación
y la obtención del Diploma de Estudios Avanzados. Pero es en ese momento, cuando
vuelva a su República Dominicana natal, cuando dará comienzo la etapa más apa7
8
PRÓLOGO
sionante de su labor investigadora: la realización de una tesis doctoral, su defensa
y la obtención del correspondiente título de doctor. Sin duda, con la estancia realizada en la Universidad de La Rioja y los logros alcanzados durante esta época, el
profesor Diloné ha iniciado con paso firme su andadura hacia el título de doctor.
Pero aún queda mucho camino por recorrer, mucho que investigar, redactar y publicar. Además habrá que salvar las dificultades añadidas que motivan el tener que
trabajar a distancia y el tener que «abrir huella» a la hora de realizar las gestiones
administrativas y burocráticas generadas al coordinar las distintas instituciones que
se puedan ver involucradas en este camino al doctorado.
Así, nos gustaría emular al insigne matemático riojano Julio Rey Pastor (Logroño, 1888 – Buenos Aires, 1962), que con su vida y su obra mostró cómo el poder de
las Matemáticas permite cruzar fronteras y unir a pueblos y generaciones distintas.
Nos disponemos a cruzar el «río Océanos» (así es como Rey Pastor denominaba
coloquialmente al Océano Atlántico), tendiendo en este caso un puente entre las
orillas del río Ebro y las cálidas aguas caribeñas por el que las Matemáticas puedan
caminar a sus anchas. Es posible que el profesor Diloné sea el primero en cruzar este
puente pero, sin duda, no será el último ya que nos encontramos ante el inicio de
una colaboración a la que se la augura un gran futuro.
Logroño, abril de 2009
Dr. José Manuel Gutiérrez Jiménez
Profesor del Departamento de Matemáticas y Computación
de la Universidad de La Rioja
Nota preliminar del autor
Es bien sabido que la resolución de ecuaciones no lineales constituyen un aspecto
fundamental en el estudio de cualquier disciplina matemática. Con el texto que el
lector tiene en sus manos pretendemos completar la información que el discente de la
carrera de matemática posee de dicho aspecto para abordar con éxito un primer curso
de Análisis Matemático. Su contenido recoge una colección de teoremas y ejercicios,
quizás no tratados lo suficientemente aquí, concernientes al método de NewtonRaphson, y otro adicional en donde se aplican las condiciones de la convergencia
semilocal del método anterior mencionado a la ecuación de Kepler.
El libro se estructura en tres capítulos: Resolución numérica de ecuaciones no
lineales, El método de Newton-Raphson y El método de Newton-Raphson aplicado
a la ecuación de Kepler. En el primer capítulo se trata de ofrecer una visión teórica
de los conceptos, que a nuestro parecer, son necesarios para lograr entender todos
los factores que se involucran en el proceso de solución de una ecuación no lineal a
partir de un método iterativo. El segundo capítulo se centra en el método de NewtonRaphson y en el mismo se presenta la descripción del mismo a partir de tres puntos
de vistas: el desarrollo de Taylor, su construcción geométrica y como iteración de
punto fijo. También se presenta un estudio referido a la convergencia local, global y
semilocal de dicho método, así como un análisis de su orden de convergencia e índice
de eficiencia. Finalizamos este segundo capítulo con una serie de ejemplos numéricos
en los cuales se puede apreciar las fortalezas y debilidades que presenta el método de
Newton-Raphson. El tercer capítulo está dedicado al análisis del método de NewtonRaphson aplicado a la ecuación de Kepler. En concreto, hacemos un estudio de las
condiciones de convergencia semilocal presentadas por Kantorovich y Smale, y de sus
variante, Gutiérrez y Wang-Zhao. Hemos querido abordar cada capítulo con ciertos
detalles, de manera que su lectura permitan al discente la mejor comprensión en
todos los pasos de las demostraciones de los teoremas y ejercicios resueltos que se
presentan en los mismos.
Deseo manifestar mi agradecimiento al Dr. José Manuel Gutiérrez Jiménez, Guti.
Por todas las cosas en que me ha ayudado me ha demostrado que, además de ser un
excelente matemático, es también mi amigo. Gracias Guti por estar siempre presente
en todos aquellos momentos en que las dudas parecían hacer naufragar esta investigación, sin tus consejos este libro nunca hubiese sido posible. Por último, también
quiero agradecer al personal del Departamento de Matemática y Computación de la
Universidad de La Rioja, y de manera muy especial al Dr. Juan Luis Varona, Dr.
Oscar Ciaurri, Dr. Manuel Bello y a la Dra. Natalia Romero. Gracias por vuestras
continuas muestras de solidaridad para conmigo.
Nagua, abril de 2009
Manuel Aurelio Diloné Alvarado
Miembro del Instituto Nacional de Formación y Capacitación del Magisterio
INAFOCAM
9
10
NOTA PRELIMINAR DEL AUTOR
Índice general
1. Resolución numérica de ecuaciones no lineales
1.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2. Clasificación de los métodos iterativos. . . . . . . . . . . . . . . . . .
2. El Método de Newton-Raphson
2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . .
2.2. Descripción del método . . . . . . . . . . . . . . . . . .
2.2.1. A partir del desarrollo de Taylor . . . . . . . . .
2.2.2. Construcción geométrica: método de la tangente.
2.2.3. Iteración del punto fijo. . . . . . . . . . . . . . .
2.3. Estudio de convergencia . . . . . . . . . . . . . . . . . .
2.3.1. Convergencia Local. . . . . . . . . . . . . . . . .
2.3.2. Convergencia Global. . . . . . . . . . . . . . . . .
2.3.3. Convergencia Semilocal. . . . . . . . . . . . . . .
2.4. Orden de convergencia y eficiencia . . . . . . . . . . . .
2.4.1. Orden de convergencia . . . . . . . . . . . . . . .
2.4.2. Índice de eficiencia . . . . . . . . . . . . . . . . .
2.4.3. Orden de convergencia computacional . . . . . .
2.5. Ejemplos numéricos . . . . . . . . . . . . . . . . . . . .
2.5.1. Ecuaciones no lineales resueltos por el método de
2.5.2. Ejemplos patológicos . . . . . . . . . . . . . . . .
3. El método de Newton aplicado a la
3.1. Introducción histórica . . . . . . .
3.2. El teorema de Kantorovich . . . .
3.3. El teorema de Gutiérrez . . . . . .
3.4. La α-teoría de Smale . . . . . . . .
3.5. La α-teoría de Wang-Zhao . . . . .
3.6. Ejemplos numéricos . . . . . . . .
Bibliografía
ecuación
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
de
. .
. .
. .
. .
. .
. .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
Newton.
. . . . .
Kepler
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
5
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
7
9
9
9
10
11
11
12
16
25
25
25
26
27
27
32
.
.
.
.
.
.
.
.
.
.
.
.
43
43
45
46
49
51
54
57
11
12
ÍNDICE GENERAL
Capítulo 1
Resolución numérica de
ecuaciones no lineales
1.1.
Introducción
Muchos problemas relacionados con las Matemáticas se reducen a resolver una
ecuación
f (x) = 0,
(1.1)
donde, en principio, supondremos que f es una función real de variable real. Pese
a su sencillez de planteamiento, éste ha sido un problema complicado que ha sido
tratado por numerosos matemáticos célebres: Cardano, Newton, Ruffini, Galois, etc.
Incluso para funciones «sencillas» como son los polinomios, el cálculo de sus raíces es
un tema complicado. En un principio, se intentó encontrar dichas raíces en función
de los coeficientes del polinomio, como ocurre con la ecuación de segundo grado:
√
−b ± b2 − 4ac
2
ax + bx + c = 0 ⇐⇒ x =
.
2a
También se conocen fórmulas para polinomios de grados 3 y 4 aunque, debido a su
complejidad, no se suelen usar en la práctica. A principios del s. XIX, Galois probó
que no existen este tipo de fórmulas para polinomios de grado mayor o igual que 5.
El problema de no poder encontrar de forma exacta las soluciones de una ecuación
surgía también al trabajar con ecuaciones trascendentes, como la ecuación de Kepler,
relacionada con el cálculo de órbitas planetarias:
f (E) = E − e sen E − M
para distintos valores de E y de M .
Estas limitaciones obligan a buscar métodos para encontrar las soluciones de una
ecuación de forma aproximada. Básicamente, estos métodos generan una sucesión
{x1 , x2 , . . . , xn , . . . } que, en condiciones adecuadas, converge a una solución de la
ecuación (1.1). En muchas ocasiones, esta sucesión se genera de forma recursiva
xn+1 = F (xn , . . . , xn−p+1 ),
a partir de una función de iteración, F , que puede depender de uno o varios argumentos.
Los intentos por resolver estos tipos de ecuaciones se vienen reflejando desde
la antigüedad. Leyendo a Knill [50], nos damos cuenta que desde las civilizaciones
griegas, aproximadamente dos mil años antes de Cristo, ya se conocían algoritmos
iterativos, tal es el caso de la fórmula de Herón para
√ el cálculo de raíces cuadradas,
donde partiendo de una aproximación inicial s de S se propone como nueva aproximación (s + S/s)/2. Con esta fórmula, Herón podía aproximar el valor de la raíz
1
2
CAPÍTULO 1. RESOLUCIÓN NUMÉRICA DE ENL
cuadrada que aparece en la fórmula del área de un triángulo:
p
S = p(p − a)(p − b)(p − c),
donde p = (a + b + c)/2 es el semiperímetro del triángulo de lados a, b y c.
La utilización de un algoritmo iterativo conlleva el planteamiento de varios problemas teóricos ya que es básico examinar su velocidad de convergencia, determinar
el número de iteraciones necesarias para obtener la precisión acordada, estudiar los
efectos de la aritmética del computador sobre la sucesión, así como resolver el problema de buscar una buena aproximación inicial.
El problema de resolver una ecuación presenta aspectos muy diferentes. Por ejemplo, con respecto a la función que se presente, la misma puede ser polinomial, trascendental o no disponer de una expresión explícita de la misma, tal y como ocurre
cuando se trata de una ecuación diferencial. Por otra parte, está el problema que
presentan las soluciones, pues es sabido que una ecuación puede no tener solución,
tener una única solución, poseer soluciones múltiples o tener infinitas soluciones.
Definición 1 (Error Absoluto). Dada una sucesión {xn }∞
n=0 convergente a un
límite x∗ , definimos el error absoluto como la diferencia entre el valor exacto xn de
la sucesión y x∗ .
an = xn − x∗ .
En ocasiones se usa la expresión
|an | = |xn − x∗ |,
para referirse al módulo del error absoluto.
Definición 2 (Error Relativo). El error relativo del límite x∗ de una sucesión
{xn }∞
n=0 con respecto al valor exacto xn de la sucesión, es el cociente entre el módulo
del error absoluto y el valor absoluto del valor exacto.
rn =
|xn − x∗ |
.
|xn |
El error relativo y el módulo del error absoluto tienen un uso muy especial en
la determinación del criterio de parada y el orden de convergencia de un algoritmo
iterativo.
Definición 3 (Criterios de parada). Los criterios de parada son los que definen
el momento en que se detendrá el algoritmo que se está ejecutando, pues establecen
cuando se está lo suficientemente cerca del valor buscado.
El proceso habitual para fijar un criterio de parada consiste en fijar un parámetro
pequeño llamado tolerancia, denotado usualmente por T OL, deteniéndose el proceso
cuando se cumple una de las siguientes condiciones
1. |xn − xn−1 | < T OL.
2.
|xn −xn−1 |
|xn |
< T OL.
Estos criterios están justificados en el hecho de que para muchas sucesiones, las
expresiones 1 y 2 intervienen en las cotas del error, es decir
|xn − x∗ | ≤ Kn |xn − xn−1 |,
de esta manera se consigue que si |xn −xn−1 | es pequeño, entonces el error cometido,
cuando Kn sea de un tamaño moderado, también será pequeño. Un error muy a
menudo cometido cuando se resuelve una ecuación no lineal (1.1) es el hecho de
usar, como único criterio de parada, la expresión
|f (xn )| < T OL,
1.1. INTRODUCCIÓN
3
pues suponer siempre que xn es una buena aproximación de la raíz si se cumple que
f (xn ) es pequeño, puede resultar completamente incorrecto para algunas funciones.
Este tipo de caso luego se verá en los ejemplos que presentaremos.
Definición 4 (Orden de convergencia). El orden de convergencia nos indica la
velocidad con la cual una sucesión converge a su límite. En términos matemáticos
asume la siguiente expresión:
|xn+1 − x∗ |
= C,
n→∞ |xn − x∗ |p
lı́m
con C ∈ R+ y p ≥ 1,
donde {xn } es la sucesión, x∗ el número al que converge la sucesión, p es el orden
de convergencia y C es la constante asintótica de error.
Si p = 1, 2, 3, 4, 5, se dice que es de orden lineal, cuadrático, cúbico, cuártico y
quíntico respectivamente.
Se debe recalcar la importancia práctica que presenta el orden de convergencia.
En efecto, cuando xi+1 está lo suficientemente cerca de x∗ , se cumple
|xi+1 − x∗ | ≈ µ|xi − x∗ |p ,
y haciendo
Dn = − log |xi − x∗ |,
se obtiene
Dn+1 = pDn + r,
donde r = − log µ.
Esto significa que en cada iteración se multiplica aproximadamente por p, el
número de cifras exactas, de forma que, en general, un algoritmo con orden de
convergencia alto converge más rápidamente que un algoritmo de orden menor.
Cuando se verifica que
|xn+1 − x∗ |
=0
n→∞ |xn − x∗ |
lı́m
ó
|xn+1 − x∗ |
= 0,
n→∞ |xn − x∗ |2
lı́m
∗
el orden de convergencia de la sucesión {xn }∞
n=1 a x se llama superlineal o supercuadrático, respectivamente.
Una caracterización del orden del convergencia la encontramos en el teorema
de Schröder, cuya demostración damos a continuación. Parte de la demostración la
pueden encontrar en [48] y [82].
Teorema 1 (de Schröder). Consideremos un método iterativo
xn+1 = g(xn ),
(1.2)
en el que g es continua y q veces diferenciable en en entorno de x∗ , un punto fijo de
g, x∗ = g(x∗ ). Entonces la sucesión {xn } converge a x∗ con orden de convergencia
q si
dj g(x∗ )
dq g(x∗ )
= 0, j = 1, 2, . . . , q − 1,
6= 0.
j
dx
dxq
Demostración. Desarrollando (1.2) en serie de Taylor se obtiene
xn+1 = g(xn ) = x∗ + g 0 (x∗ )(xn − x∗ ) + · · · +
1 dq g(x)
(xn − x∗ )q ,
q! dxq
Luego, usando la condición del enunciado, se sigue
xn+1 − x∗ =
con lo que
1 dq g(x∗ )
(xn − x∗ )q ,
q! dxq
|xn+1 − x∗ |
1 dq g(x∗ )
=
6= 0.
∗
q
n→∞ |xn − x |
q! dxq
Por lo tanto el método tiene orden de convergencia q.
lı́m
x ∈ (xn , x∗ ).
4
CAPÍTULO 1. RESOLUCIÓN NUMÉRICA DE ENL
Otro importante aspecto que tiene que ver con la convergencia es el que se refiere
a la velocidad de convergencia de dos sucesiones, ya que ésta nos permitirá comparar
la velocidad de los diferentes algoritmos iterativos.
Definición 5 (Velocidad de convergencia de dos sucesiones). Dada una sucesión {xn } que converge a x y una sucesión {yn } que converge a y, se dice que {yn }
converge más rápidamente que {xn } si
y − yn
= 0.
n→∞ x − xn
lı́m
Otro elemento que también se emplea para comparar la velocidad de convergencia
de dos sucesiones es la constante asintótica del error. En efecto, dadas dos sucesiones
con el mismo orden de convergencia, la que tenga la constante asintótica del error más
pequeña convergerá más rápidamente que la otra. El recíproco de esta proposición no
es cierto, pues dos sucesiones del mismo orden y con la misma constante asintótica
de error no tienen por qué converger con la misma velocidad. En [21], se muestran
varios ejemplos que verifican la no reciprocidad de la proposición.
Ejemplo 1. Dadas yn = an /n2 y xn = an /n con 0 < a ≤ 1, el orden de convergencia
es 1 y a es, para ambos casos, la constante asintótica del error, pero {yn } converge
más rápidamente a cero.
Solución 1. Notemos que al sustituir cualquier valor de 0 < a < 1 y n ≥ 1 se
obtiene
0 < yn < xn , ∀n ≥ 1.
Para una mayor profundidad de los aspectos concernientes a orden y velocidad
de convergencia, ver a [4], [16], [52], [64] y [73] entre otros.
En la determinación de las raíces de una ecuación no lineal, el aumento del orden
de convergencia permite reducir el número de iteraciones. Pero el aumento en el
orden requiere una mayor cantidad de evaluaciones de funciones y sus derivadas,
aumentando el tiempo de cálculo en cada iteración. Esto podría significar que el
aumento del orden de convergencia del método lleva implícito que el mismo sea
menos eficiente, pero no siempre es así ya que en realidad lo que se establece es un
equilibrio entre el orden de convergencia y el coste operacional del algoritmo.
Desde el punto de vista práctico, lo realmente importante no es ni el orden de
una sucesión ni el número de iteraciones necesarias para llegar a la precisión deseada,
sino el tiempo que emplea el computador en alcanzar tal precisión, por lo tanto el
coste del cómputo de una iteración es fundamental. En otras palabras, el índice de
eficiencia del método iterativo es básico. Veamos su definición:
Definición 6 (Índice de eficiencia computacional de un método). De acuerdo
con [38], existen dos tipos de índice de eficiencia:
i) El de aritmética con precisión fija y pequeña. El índice de eficiencia viene
definido por la expresión
IEC(p, d) = p1/d ,
(1.3)
donde p > 1 es el orden de convergencia del método y d es el número de
evaluaciones de la función f o de sus derivadas.
ii) El de aritmética con múltiple precisión. En este caso el índice de eficiencia del
método se denota por la fórmula
1
IEC(d, p, α) = p C(d,p,α) = p
1−p−α
d
,
Donde p y d tienen el mismo significado que en la ecuación (1.3) y
d
es el coste total o tiempo computacional de evaluar a f , en donde.
1 − p−α
= logk+1 (2k + 1), para k ≥ 1.
C(d, p, α) =
α
1.2. CLASIFICACIÓN DE LOS MÉTODOS ITERATIVOS.
5
y k es una constante que indica el número de veces que se debe evaluar la
función f .
Computacionalmente hablando, cuanto mayor sea el índice de eficiencia mejor
es el método iterativo. Es importante señalar que una mejora en el orden de convergencia de un método iterativo, no siempre implica una mejora en la eficiencia
computacional del mismo. Generalmente estas mejoras traen como consecuencia el
incremento del coste de evaluar la función, en perjuicio de su eficiencia.
1.2.
Clasificación de los métodos iterativos.
Existen diferentes formas de clasificar los procesos iterativos, dependiendo de
los aspectos que se vayan a tener en cuenta. Por ejemplo, en función del número
de elementos de la sucesión {xn } que necesitamos para calcular xn+1 , los podemos
catalogar en dos grandes bloques
(i) Métodos de un punto. Aquellos en los que la sucesión de iteración es de la
forma
xn+1 = g(xn ).
Entre estos se encuentran el método de: Newton-Raphson, Halley, SuperHalley, Chebyshev, etc.
(ii) Métodos multipunto. En estos la función de iteración es de la forma
xn+1 = g(xn , xn−1 , . . . , xn−p+1 ),
con p ≥ 1.
Es decir, son métodos en los que el n-énesimo término viene dado en función de
los p términos anteriores. A este grupo pertenecen los métodos de: la Secante,
Steffensen, Falsa Posición o Regula Falsi, etc.
Pero ésta no es una clasificación única. Por ejemplo, Aubanell y Delshams [5]
presentan una clasificación de los métodos iterativos atendiendo a dos rasgos que los
caracterizan:
1. La herramienta que se emplea en el desarrollo de la función. De acuerdo a la
herramienta que se emplea en el desarrollo de la función, los métodos iterativos
se clasifican en:
Métodos de Taylor. Son aquéllos que utilizan el desarrollo de Taylor,
es decir, calculan a xn+1 a partir del conocimiento de la función y de sus
derivadas en un punto xn . Ejemplos: método de Euler, método de Punto
medio.
Métodos de Interpolación. En éstos se calcula xn+1 a partir del conocimiento de la función en xn , xn−1 , . . . . Ejemplos: método de Lagrange,
método de Hermite.
2. La función que se desarrolla o se interpola. Por la función que se desarrolla o
se interpola, es decir, si se emplea g = f −1 , que es equivalente a buscar a x∗
tal que f (x∗ ) = 0 a buscar x∗ tal que g(0) = x∗ , es posible dar dos enfoques
a los métodos que se aplicaran en la solución del problema según se emplee el
desarrollo de Taylor o la interpolación de la función f ó g:
Métodos Directos. Si usamos la función f . Ejemplos: método de NewtonRaphson, Método de Halley.
Métodos Inversos. Si empleamos la función g = f −1 . Ejemplo: método
de Chebyshev.
Además, teniendo en cuenta el comportamiento especial para raíces múltiples,
consideraremos un tercer bloque
6
CAPÍTULO 1. RESOLUCIÓN NUMÉRICA DE ENL
(iii) Métodos para raíces múltiples.
Es conocido que algunos métodos, i.e el método de Newton-Raphson y el método de la Secante, disminuyen su orden de convergencia cuando la ecuación
que intentan resolver tienen raíces múltiples. Para evitar esta consecuencia se
han creado una serie de métodos que introducen en el método original una
constante de multiplicidad que permite aumentar nuevamente el orden de convergencia.
Entre los métodos para encontrar raíces múltiples tenemos el de NewtonRaphson modificado, Newton Relajado, King-Van de Vel, etc.
Capítulo 2
El Método de
Newton-Raphson
2.1.
Introducción
La idea general de resolver una ecuación mediante un algoritmo iterativo o estimando la solución mediante la adicción de un término corrector ha sido empleada
por muchas culturas milenarias. Por ejemplo, en la antigua Grecia y Babilonia se
emplearon métodos parecidos a los utilizados por Newton, para aproximar la solución de radicales. Métodos algebraicamente equivalente al de Newton también fueron
aplicados en el siglo XII, por el algebrista Sharaf al-Din al-Tusi. En el siglo XV ,
el matemático árabe Al-Kashi empleó un algoritmo numérico para encontrar las
raíces p-ésimas de N en la ecuación xp = N . También Henry Briggs, en su obra
Trigonometria Britannica publicada en 1633, usó un método parecido al de Newton.
Leyendo a Tjalling J. Ypma [96] encontramos que
la primera formulación del método de Newton-Raphson
apareció en un tratado de Newton titulado De analysi per aequationes numero terminorum infinitas, el cual
fue, probablemente, presentado a mediados del año 1669
y publicado en 1711 por William Jones. Esta primera formulación es considerablemente diferente a la que conocemos hoy en día y estaba definida para resolver sólamente
ecuaciones polinómicas. Además la forma de realizar los
cálculos son mucho más tediosos que en la formulación
actual. En 1671 Newton dio a conocer un tratado, con
una versión ligeramente más comprensible, titulado De
Figura 2.1: Sir Isaac
methodis fluxionum et serierum infinitarum, la cual fue
Newton (1643–1727)
publicada por John Colson en 1736.
El proceso descrito por Newton requiere un cálculo explícito de una sucesión
polinómica de la forma g1 , g2 , . . . , que lo convierte en un método muy laborioso.
También se observa que la estimación final x∗ es calculada al final del proceso como
x∗ = x0 + c0 + c1 + . . . en vez de hacer las estimaciones sucesivas de xn , lo cual
evidencia que Newton no utilizó una técnica recursiva.
La primera vez que Newton publica su método aplicado a ecuaciones no polinómicas fue en la segunda y tercera edición de su obra Philosophiae Naturalis Principia
Mathematica, la cual fue presentada en 1687 en Londres. En ellas describe las técnicas para resolver la ecuación de Kepler
f (E) = E − e sen E − M,
(2.1)
donde M es la anomalía media, E es la anomalía excéntrica y e es la excentricidad
de la elipse.
7
8
CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON
La segunda formulación del método de Newton
se debe a Joseph Raphson, quien en 1690 publicó
un tratado titulado Analysis aequationum universalis en el cual se presentó un método nuevo para
resolver ecuaciones polinómicas. Una segunda edición de dicho tratado se publicó como libro en 1697,
con un apéndice que hace referencia a Newton. Se
comprueba que los dos métodos son matemáticamente equivalentes, la diferencia es que Raphson
no necesitó generar una sucesión de polinomios, como lo hacía Newton.
Figura 2.2: Thomas SimRaphson consideró una ecuación de la forma
pson (1710 − 1761)
a3 − ba − c = 0, donde a es una variable. Prosigue
indicando que si g es una estimación de la solución
x∗ , entonces, una mejor aproximación se consigue haciendo a g + x, donde
x=
c + bg − g 3
.
3g 2 − b
Formalmente esto es de la forma
g+x=g−
f (g)
,
f 0 (g)
con f (a) = a3 − ba − c,
pero como en el caso de Newton, Raphson también procedió de manera puramente
algebraica, aunque prefirió las reglas del cálculo al utilizar la forma de derivada,
pues en cada ejemplo escribió expresiones, tales como f (x) y f 0 (x), para referirse a
polinomios completos.
Los contactos entre Newton y Raphson parece que fueron muy limitados, aunque parece que Newton aprovechó las circunstancia de la muerte de Raphson para
adjuntar un apéndice al último libro de Raphson, titulado Historia fluxionum. En el
prefacio del tratado de 1690, Raphson se refiere a los trabajos de Newton, indicando
que su método no es único.
La tercera versión del método de Newton se
debe a Thomas Simpson y la misma está descrita
en un libro titulado Essays on Several Curious and
Useful Subjects in Speculative and Mixed Mathematicks, publicado en 1740 en Londres. En el ensayo
número seis, Simpson describe un nuevo método
para la solución de ecuaciones numéricas, sin hacer referencia a los trabajos de ningún predecesor.
En el prefacio de dicho ensayo, contrasta las técnicas de su método, las cuales estaban basadas en
el análisis matemático y cálculo numérico, con los
Figura 2.3: Joseph Louis
métodos algebraicos de entonces. En éste se dan
Lagrange
(1736 − 1813)
ejemplos de solución de ecuaciones polinómicas y
no polinómicas, con detalles para resolver ecuaciones en una o dos variables mediante instrucciones que involucran el signo ẋ, el cual
es equivalente a dx/dt. Además aparece la primera formulación de un método iterativo para resolver, en general, ecuaciones no lineales basados en el cálculo numérico.
Finalmente, fue Lagrange, en 1798, quien introdujo el método de Newton-Raphson
con la simbología que se emplea actualmente. La obra en que aparece esta notación
moderna se titula Sur la méthode d’Approximation donnée par Newton y en la misma no hace referencia a los trabajos de Simpson, aunque si menciona a Newton y
Raphson.
2.2. DESCRIPCIÓN DEL MÉTODO
2.2.
9
Descripción del método de Newton-Raphson
El método de Newton-Raphson es un proceso iterativo que, en condiciones adecuadas, permite aproximar una solución x∗ de una ecuación no lineal (1.1). Partiendo
de una aproximación inicial x0 de la raíz x∗ , el método de Newton-Raphson define
una sucesión
f (xn )
xn+1 = xn − 0
, n = 0, 1, 2, 3, . . . .
(2.2)
f (xn )
Existen varias formas de deducir la expresión (2.2). A continuación presentamos,
de forma reducida, algunas de ellas.
2.2.1.
A partir del desarrollo de Taylor
La técnica que explicaremos a continuación aparece en varios libros clásicos de
Análisis Numérico, entre ellos [16], [27], [48] y [53].
Sea x0 una aproximación de x∗ , la raíz de f (x) = 0. Buscamos un término
corrector h de forma que x + h sea la raíz buscada, es decir,
f (x0 + h) = f (x∗ ) = 0.
Si desarrollamos por la serie de Taylor f (x0 + h) se obtiene:
0 = f (x0 + h) = f (x0 ) + hf 0 (x0 ) +
h2 00
f (x0 ) + · · · .
2!
(2.3)
La solución exacta de esta ecuación nos daría el término corrector h tal que
x0 + h = x∗ .
Si en lugar de considerar la ecuación (2.3), tomamos su linealizada
f (x0 ) + hf 0 (x0 ) = 0,
obtenemos de forma sencilla su solución
h=−
f (x0 )
.
f 0 (x0 )
Si bien este valor no es la solución exacta de (2.3), en condiciones adecuadas
podría ser una buena aproximación. De esta forma
x0 + h = x0 −
f (x0 )
,
f 0 (x0 )
sería una mejor aproximación a x∗ que la dada inicialmente por x0 .
Si denotamos por
f (x0 )
x1 = x0 − 0
,
f (x0 )
y reiteramos el proceso obtenemos el método de Newton-Raphson: (2.2).
2.2.2.
Construcción geométrica: método de la tangente.
Esta técnica aparece en una inmensa bibliografía de Métodos Matemáticos y
Análisis Numérico, entre los que podemos citar los siguientes: [10], [13], [15], [52],
[55], [69], [65], [68], [69], [74] y muchísimos más.
La técnica de iteración de este método consiste en tomar un punto inicial x0 , véase
la figura (2.4), para luego trazar por el punto (x0 , f (x0 )) la tangente geométrica a la
gráfica de la función f (x). Luego, la intersección de dicha tangente con el eje X nos
da un nuevo punto x1 , por el cual trazamos una nueva recta tangente a la gráfica
de la función, pero esta vez por el punto (x1 , f (x1 )). En condiciones adecuadas la
sucesión así obtenida
x0 , x1 , x2 , . . . , xn−1 , xn , . . .
10
CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON
tiende a la raíz exacta x∗ .
y
f Hx0 L
f Hx1 L
f Hx2 L
x*
x2
x1
x0
x
Figura 2.4: Interpretación geométrica del método de Newton-Raphson
Por la ecuación de la recta tangente obtenemos
y − f (x0 ) = f 0 (x0 )(x1 − x0 ).
Luego, en la intersección con el eje X, (y = 0), se sigue
x1 = x0 −
f (x0 )
.
f 0 (x0 )
Reiterando el proceso se llega a la función iterativa (2.2) para el punto xn .
2.2.3.
Iteración del punto fijo.
El método de Newton-Raphson puede ser obtenido a partir de del método de
iteración del punto fijo. Para ello escribiremos la ecuación f (x) = 0 como
x = x − f (x),
(2.4)
luego introducimos en (2.4) un parámetro λ, con lo cual
x + λx = λx + x − f (x),
de donde
λ
1
x+
(x − f (x)) = G(x).
(2.5)
λ+1
1+λ
Si x∗ es una raíz de f (x), x∗ es un punto fijo de G(x). Si imponemos que G0 (x∗ ) =
0 es un punto fijo superatractor, entonces el parámetro λ debe cumplir
x=
λ
1
+
(1 − f 0 (x∗ ) = 0,
1+λ 1+λ
de donde se obtiene
λ = f 0 (x∗ ) − 1.
(2.6)
Sustituyendo (2.6) en (2.5) y utilizando la iteración del punto fijo, sigue
xn+1
=
=
=
G(xn )
1
f 0 (x∗ − 1)
xn + 0 ∗ (xn − f (xn ))
0
∗
f (x )
f (x )
f (xn )
xn − 0 ∗ .
f (x )
Pero como x∗ es, en principio desconocido, podemos usar la aproximación definida
por x∗ ∼ xn para llegar al siguiente método iterativo.
xn+1 = xn −
f (xn )
,
f 0 (xn )
que es, de nuevo, el método de Newton-Raphson.
2.3. ESTUDIO DE CONVERGENCIA
2.3.
11
Estudio de la convergencia del método de NewtonRaphson
En los apartados anteriores, hemos visto como definir una sucesión
xn+1 = xn −
f (xn )
f 0 (xn )
con el objetivo de aproximar la solución de x∗ de la ecuación f (x) = 0.
Tenemos que ser conscientes de que la convergencia de {xn } hacia x∗ no siempre
va a suceder. Para que esto ocurra, se tienen que dar una serie de condiciones sobre
la función f , el punto de partida x0 o la raíz x∗ . En concreto, distinguiremos 3 tipos
de resultados de convergencia:
1. Local: Se dan condiciones sobre la raíz x∗ .
2. Semilocal: Se dan condiciones sobre el punto de partida x0 .
3. Global: Se dan condiciones sobre un intervalo.
Existen una gran cantidad de publicaciones con diversos resultados de convergencia para el método de Newton-Raphson (véanse [4], [5], [7], [21], [28], [30], [47],
[52], [54], [55], [57],[60], [68], [73], [74], [78] y [82]). No es nuestro objetivo dar un
listado exhaustivo de todos ellos. No obstante, a modo de ejemplos, expondremos
uno o dos resultados de cada tipo de convergencia.
2.3.1.
Convergencia Local.
El teorema que presentamos a continuación ha sido elegido tomando en cuenta
la forma sencilla y poderosa de su demostración. En el mismo se introducen dos
elementos, la función de iteración del método de Newton-Raphson (Nf (x)) y su
derivada (Lf (x)), las cuales toman la forma siguiente:
f (x)
.
f 0 (x)
f (x)f 00 (x)
.
f 0 (x)2
Nf (x)
= x−
(2.7)
Lf (x)
=
(2.8)
Las funciones (2.7) y (2.8) son muy utilizadas en las demostraciones de la convergencia de muchos métodos iterativos, tales como el método de Halley y el método
de Chebyshev, así como en libros y artículos de Análisis Numérico, entre los que se
pueden citar a [2], [23], [40] y [84].
Es importante destacar que la expresión (2.8) es identificada como el Grado de
Convexidad Logarítmico de una función. Leyendo a [40] encontramos que el grado de
convexidad logarítmico de una función es una medida puntual de la convexidad, dada
por la resistencia de una función a ser «concavizada» por un operador logarítmico.
En otras palabras, es el numero de veces que hay que aplicar un operador logarítmico
a una función convexa para obtener como resultado una función cóncava.
Además, el grado de convexidad logarítmico está relacionado con la velocidad de
convergencia del método de Newton-Raphson. En efecto, leyendo a [24] encontramos
que a partir de la interpretación geométrica del método de Newton- Raphson se
verifica que a menor convexidad logarítmica de la función y = f (x), la sucesión de
Newton-Raphson presenta mayor velocidad de convergencia a la raíz de la ecuación
f (x) = 0, por lo que la convexidad logarítmica es aplicada para construir nuevas
variantes del método de Newton. Para un estudio profundo de las variaciones del
método de Newton a partir de la aplicación del grado de convexidad logarítmico,
consúltese nuevamente [24] y [36].
12
CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON
Teorema 2. Sea f una función dos veces diferenciable en un entorno I de una
solución x∗ de f (x) = 0. Supongamos que f 0 (x∗ ) 6= 0. Entonces existe un r > 0 tal
que si x0 ∈ (x∗ − r, x∗ + r) la sucesión
xn+1 = xn −
f (xn )
,
f 0 (xn )
converge a x∗ .
Demostración. Como xn+1 = Nf (xn ), restando x∗ a ambos lados se sigue
Z
∗
∗
x − xn+1
∗
x∗
= x − Nf (xn ) = Nf (x ) − Nf (xn ) =
Z
xn
Nf0 (t)dt
x∗
=
Lf (t)dt.
xn
Como f (x∗ ) = 0 y f 0 (x∗ ) 6= 0, entonces Lf (x∗ ) = 0.
Por la continuidad de Lf (x), existe r ∈ R tal que si t ∈ (x∗ − r, x∗ + r), |Lf (t)| ≤
γ < 1.
De esta forma, si x0 ∈ (x∗ − r, x∗ + r), entonces
Z
∗
x∗
|x − x1 | ≤
Lf (t)dt ≤ γ|x∗ − x0 | < r,
luego x1 ∈ (x∗ − r, x∗ + r).
x0
Inductivamente, si xn ∈ (x∗ − r, x∗ + r), entonces
Z
|x∗ − xn+1 | ≤
x∗
Lf (t)dt ≤ γ|x∗ − xn | < r,
es decir xn+1 ∈ (x∗ − r, x∗ + r).
xn
Además
|x∗ − xn+1 | ≤ γ|x∗ − xn | ≤ γ 2 |x∗ − xn−1 | ≤ · · · ≤ γ n+1 |x∗ − x0 |.
Luego
lı́m xn+1 = x∗
n→∞
2.3.2.
para todo x0 ∈ (x∗ − r, x∗ + r).
Convergencia Global.
En el Análisis Numérico principalmente se emplean dos teoremas que permiten
conocer el comportamiento global de los métodos iterativos de un punto. Éstos son
1. El teorema del Punto Fijo.
2. El teorema de Fourier.
El teorema del Punto Fijo nos da las condiciones suficientes para la convergencia
de un algoritmo, a partir de un valor inicial tomado en un intervalo apropiado. Para
su demostración se hace necesario conocer de antemano el significado de función
contractiva.
Definición 7 (Función contractiva). Una función g(x) ∈ C 1 (I) es contractiva en
I, si existe 0 < L < 1 tal que para todo x, y ∈ I, se cumple
|g(x) − g(y)| ≤ L|x − y|.
A la condición |g(x) − g(y)| ≤ L|x − y| se le llama condición de Lipchitz y a L
constante de Lipchitz. Normalmente se dice que una función g(x) es contractiva si
su constante de Lipchitz es menor que la unidad.
2.3. ESTUDIO DE CONVERGENCIA
13
Teorema 3 (Punto Fijo). Sea I un intervalo cerrado y g : I → I una contracción
(L < 1). Bajo estas condiciones se cumple que:
i) La sucesión definida por xn+1 = g(xn ) converge para todo valor inicial x0 ∈ I.
ii) La sucesión converge a un punto fijo de g, es decir si x∗ = lı́mn→∞ xn ⇒ x∗ =
g(x∗ ).
iii) Este punto fijo es único en I, es decir, existe un único x∗ ∈ I
x∗ .
tal que
g(x∗ ) =
Demostración. Para demostrar i) probaremos que la sucesión {xn } es de Cauchy.
En efecto, consideremos la sucesión definida por el enunciado del teorema
xn+1 = g(xn ).
(2.9)
Como la diferencia entre dos términos cualesquiera de (2.9) cumple que
|xn+m − xn | = |xn+m − xn+m−1 + xn+m−1 − · · · + xn+1 − xn |.
De donde
|xn+m − xn | ≤ |xn+m − xn+m−1 | + · · · + |xn+1 − xn |.
(2.10)
Pero
|xn+m − xn+m−1 | ≤
Luego
Lm−1 |xn+1 − xn | + · · · + L2 |xn+1 − xn | +
L|xn+1 − xn | + |xn+1 − xn | = |xn+1 − xn |(1 + L + L2 + · · · + Lm−1 ).
|xn+m − xn+m−1 | ≤ |xn+1 − xn |(1 + L + L2 + · · · + Lm−1 ).
Ahora (1 + L + L2 + · · · + Lm−1 ) es la suma de los términos de una progresión
geométrica, por tanto
|xn+m − xn+m−1 | ≤ |xn+1 − xn |
1 − Lm
.
1−L
(2.11)
Asimismo
|xn+1 − xn | ≤ L|xn − xn−1 | ≤ L2 |xn−1 − xn−2 | ≤ · · · ≤ Ln |x1 − x0 |.
(2.12)
Sustituyendo (2.11) y (2.12) en (2.10) se sigue
|xn+m − xn | ≤ Ln
1 − Lm
|x1 − x0 |.
1−L
Esto nos garantiza que la sucesión es de Cauchy, ya que si L < 1 el término
1 − Lm
|x1 − x0 |,
1−L
está acotado y el término Ln puede ser todo lo pequeño posible sin más que tomar
un n suficientemente grande.
Por tanto, bajo estas condiciones, para todo ε > 0 podemos encontrar un k ∈ N
tal que ∀ n ≥ k, m ≥ 1 se cumple que
|xn+m − xn | < ε.
Es decir que la sucesión {xn } es de Cauchy, y por tanto convergente.
Para probar ii) es suficiente ver que al verificar la condición de Lipchitz, g es
continua y por tanto
g( lı́m xn ) = lı́m g(xn ) = lı́m xn+1 ⇒ x∗ = g(x∗ ).
n→∞
n→∞
n→∞
14
CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON
Para demostrar iii), supongamos que existen dos puntos fijos x∗ 6= x∗∗ con lo
que
|x∗ − x∗∗ | = |g(x∗ ) − g(x∗∗ )|.
Luego, por la condición de Lipchitz se sigue
|x∗ − x∗∗ | ≤ L|x∗ − x∗∗ |,
lo cual es un absurdo, ya que por hipótesis L < 1. Luego, x∗ = x∗∗ .
Teorema 4 (Condiciones de convergencia de Fourier). Sea f (x) : [a, b] → R
una función f ∈ C 2 [a, b] que cumple las siguientes condiciones:
i) f (a)f (b) < 0.
ii) f 0 (x) 6= 0, ∀x ∈ [a, b].
iii) f 00 (x) no cambia de signo en [a, b].
f (b)
iv) máx{| ff0(a)
(a) |, | f 0 (b) |} ≤ b − a.
Entonces existe una única raíz x∗ de (1.1) en [a, b] y la sucesión {xn }∞
n=0 , definida
por (2.2) converge hacia x∗ para cualquier valor inicial x0 ∈ [a, b].
Demostración. De acuerdo a las condiciones que se establecen en las hipótesis, pueden darse varias posibilidades. Para fijar ideas asumiremos que f 0 (x) < 0 y que
f 00 (x) ≥ 0 en [a, b], con lo cual se asegura que ii) y iii) se cumplan.
Notemos que en estas condiciones x∗ es la única raíz de f (x) = 0 en [a, b].
Además, al ser f 0 (x) < 0 y verificar i), se sigue que f (a) > 0 y f (b) < 0, tal y como
se muestra en la gráfica (2.5).
y
b
x
a
Figura 2.5: Interpretación geométrica del teorema de Fourier.
Visto esto, y asumiendo que x0 ∈ [a, x∗ ] demostraremos que:
{xn }∞
n=0 es una sucesión creciente.
∗
El límite de {xn }∞
n=0 es la raíz x
Veamos la primera parte. Si x0 ∈ [a, x∗ ] entonces xn < xn+1 < x∗ . La demostración será por inducción.
Para n = 0 verificaremos que x0 < x1 < x∗ .
Por (2.2) sabemos que
f (x0 )
x1 = x0 − 0
.
f (x0 )
2.3. ESTUDIO DE CONVERGENCIA
15
Pero f 0 (x0 ) < 0 y f (x0 ) > 0, luego
x1 − x0 = −
f (x0 )
> 0,
f 0 (x0 )
por tanto x0 < x1 .
Ahora demostraremos que x1 < x∗ , para esto comprobaremos que x∗ − x1 > 0.
Aplicando el teorema del valor medio, se sigue
x∗ − x1 = Nf (x∗ ) − Nf (x0 ) = Nf0 (γ)(x∗ − x0 ),
donde
Nf0 (γ) =
f (γ)f 00 (γ)
> 0,
f 0 (γ)2
Luego
para γ ∈ (x0 , x∗ ).
x∗ − x1 > 0.
Asumiendo que xk < xk+1 < x∗ demostraremos que xk+1 < xk+2 < x∗ . Lo
haremos aplicando un procedimiento análogo al anterior. Primero demostraremos
que xk+1 < xk+2 .
Nuevamente, por (2.2) se obtiene
xk+2 = xk+1 −
f (xk+1 )
.
f 0 (xk+1 )
Pero acá también se cumple que f 0 (xk+1 ) < 0 y f (xk+1 ) > 0, por tanto
xk+2 − xk+1 = −
f (xk+1 )
> 0,
f 0 (xk+1 )
luego
xk+1 < xk+2 .
Para demostrar que xk+2 < x∗ comprobaremos que x∗ − xk+2 > 0. Aplicando de
nuevo el teorema del valor medio, se sigue
x∗ − xk+2 = Nf (x∗ ) − Nf (xk+1 ) = Nf0 (θ)(x∗ − xk+1 ),
donde
Nf0 (θ) = Lf (θ) =
f (θ)f 00 (θ)
> 0,
f 0 (θ)2
para θ ∈ (xk+1 , x∗ ).
Por lo tanto x∗ − xk+2 > 0, xk+2 < x∗ . Así queda demostrado que {xn }∞
n=0 es
una sucesión creciente acotada superiormente por x∗ y, en consecuencia, {xn } es una
sucesión convergente.
∗
Veamos ahora que el límite de la sucesión {xn }∞
n=0 es la raíz x .
Aplicando límites a (2.2) se sigue
lı́m xn+1 = lı́m
n→∞
n→∞
xn −
f (xn ) .
f 0 (xn )
Pero
lı́m xn+1 = lı́m xn = L.
n→∞
n→∞
Además, como f y f 0 son funciones continuas en [a, b],
L=L−
f (L)
f (L)
=⇒ 0
= 0.
f 0 (L)
f (L)
Como f 0 (L) < 0 se sigue que f (L) = 0 y, por tanto, L = x∗ .
Quedan por comprobar los casos siguientes
16
CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON
1) f 0 (x) < 0,
f 00 (x) ≤ 0,
x ∈ [a, b].
2) f 0 (x) > 0,
f 00 (x) ≥ 0,
x ∈ [a, b].
3) f 0 (x) > 0,
f 00 (x) ≤ 0,
x ∈ [a, b].
Sin embargo, el caso 3) se reduce al caso estudiado cambiando a f por −f . A su
vez, el caso 1) se reduce al 2) de la misma forma. En ese sentido hagamos el siguiente
análisis.
Haciendo un cambio de variable z = −x y llamando q a la función resultante se
sigue
f (x) = f (−z) = q(z),
esta función está definida en [−b, −a] y se comprueba que
f 0 (x) =
dq(z) dz
= −q 0 (z).
dz dx
Análogamente se comprueba que f 00 (x) = q 00 (z). Esto significa que la raíz x∗ de
(1.1) en [a, b] se habrá transformado en la raíz −x∗ de q(z) = 0 en [−b, −a].
Entonces, el caso 2) se reduce también al que hemos estudiado, porque si f 0 (x) >
0 y f 00 (x) ≥ 0 en [a, b], q 0 (z) < 0 y q 00 (z) ≥ 0 en [−b, −a], luego el teorema será
válido para q. Deshaciendo el cambio, también será cierto para el caso 2) y para el
caso 1).
De acuerdo a [40], las condiciones de Fourier son insuficientes para asegurar la
convergencia del método de Newton-Raphson, pues tomando en cuenta la interpretación geométrica del método de Newton-Raphson, nos damos cuenta que su convergencia está asegurada siempre y cuando la segunda derivada de la función f 00 (x)
no cambie de signo en el intervalo [a, b] en que aparece la solución x∗ . Es decir,
cuando la función tenga un punto de inflexión en su dominio. En ese sentido, [40]
realiza un estudio del método de Newton-Raphson en función del grado de convexidad logarítmico (2.8). Para mayores detalles de este estudio refierase nuevamente a
[40].
2.3.3.
Convergencia Semilocal.
Históricamente hablando, en 1829, Cauchy presentó el primer resultado de convergencia semilocal
para el método de Newton-Raphson. Los detalles
de dicho teorema se encuentran en [12], mientras
que en [94] aparece un resumen parecido al que
presentamos a continuación.
Teorema 5 (Cauchy). Sea X = R,
0)
C2 , σ0 = − ff0(x
(x0 ) , η = |σ0 | y
I = hx0 , x0 +2σ0 i ≡
F = f ∈


[x0 , x0 + 2σ0 ],
si σ0 ≥ 0,


[x0 + 2σ0 , x0 ],
si σ0 < 0.
Asumamos que x0 ∈ X y además que
i) f 0 (x0 ) 6= 0.
iv) |f 00 (x0 )| ≤ K ∈ I.
v) 2Kη < |f 0 (x0 )|,
entonces F (x) tiene a x∗ como solución única en I.
Figura 2.6: Augustin Louis
Cauchy (1789 − 1857)
2.3. ESTUDIO DE CONVERGENCIA
17
Este resultado, inicialmente establecido para
funciones reales de variable real, fue generalizado
años más tarde por Kantorovich en su célebre teorema enunciado para operadores definidos en espacios de Banach.
Leyendo a [36], encontramos que fue a finales
del 1940 cuando L. V. Kantorovich y L. B. Rall introdujeron el método de Newton-Raphson en estos
tipos de espacios. Su planteamiento establece que
si F es un operador suficientemente diferenciable
definido entre dos espacios de Banach X e Y , a
partir de un punto x0 ∈ X se construye la sucesión
Figura 2.7: Leonid V. Kande Newton-Raphson
0
−1
xn+1 = xn − F (xn ) F (xn ), torovich (1912 − 1986)
(2.13)
donde F 0 (xn )−1 es el inverso del operador lineal F 0 (xn ).
A partir de ciertas condiciones, Kantorovich demostró que la sucesión {xn },
generada a partir de (2.13) está bien definida y es convergente a una solución de
F (x) = 0. Para una vision mas profunda del teorema de Kantorovich se puede
consultar a [44], [60] y [62].
A finales de los años 80, surgió una
nueva teoría sobre la convergencia semilocal de procesos iterativos. Esta teoría,
conocida como α- teoría fue introducida
por H. M. Kim y S. Smale [18]. Kim la
introdujo en su tesis doctoral titulada
Computational Complexity of the Euler
Type Algorithms for the Roots of Polynomials, publicada en febrero del 1986
y en un artículo publicado en 1988 bajo
el título On approximate zeroes and root
finding algorithms. En ambos trabajos
Figura 2.8: Stephen Smale (1930)
Kim aplicó la α-teoría a ecuaciones polinómicas de una variable. Por su parte,
Smale en un libro titulado New Directions in Pure, Applied and Computational Mathematics, publicado en 1986, introdujo la α-teoría para sistemas de ecuaciones, los
cuales tienen solución en base a tres invariantes de la forma
||DF (x)−1 F (x)||.
1
Dk F (x) (k−1)
,
γ(F, x) = sup ||DF (x)−1
||
k!
α(F, x) = β(F, x)γ(F, x).
β(F, x) =
k ≥ 2,
donde F es un un operador definido entre dos espacios de Banach.
En este trabajo demostraremos el teorema de Kantorovich y de la α teoría de
Smale como una versión en R que podrá ser extendida al caso general.
Teorema 6 (Teorema de Kantorovich en R). Sea f : I → R, en donde I es un
intervalo abierto en R, una función diferenciable en I. Asumamos, sin pérdida de
generalidad, que f (x0 ) 6= 0 y que
i) x0 ∈ I.
ii) f 0 (x0 ) 6= 0.
iii)
f (x0 )
f 0 (x0 )
iv)
f 0 (x)−f 0 (y)
f 0 (x0 )
≤ β.
≤ γ|x − y|,
∀x, y ∈ I.
18
CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON
v) h = γβ ≤ 1/2.
vi) t∗ =
√2β
1+ 1−2h
es tal que (x0 − t∗ , x0 + t∗ ) ⊂ I.
Entonces el método de Newton-Raphson
xn+1 = xn −
f (xn )
,
f 0 (xn )
n ≥ 0,
∗
∗
está bien definido y {xn }∞
n=0 converge a x ∈ I, donde f (x ) = 0.
Demostración. Para encontrar una sucesión que mayorice a {xn }∞
n=0 vamos a considerar el polinomio
p(t) =
1 2
γt − t + β,
2
cuyas raíces son
∗
t ,t
∗∗
=
1±
√
(2.14)
1 − 2γβ
,
γ
tal y como se muestra en la gráfica (2.9)
p HtL
t*
t*
*
Figura 2.9: Gráfica del polinomio mayorizante p(t) = 21 γt2 − t + β
Notemos que (2.14) tendrá solución en R cuando 1 − 2γβ ≥ 0, de donde γβ ≤ 12 .
Esto explica la condición v)
Aplicando el método de Newton-Raphson a (2.14) se sigue
"
#


−β+tn − 12 γt2n
p(tn )
t
.
n+1 = tn − p0 (tn ) = tn −
1−γtn
(2.15)


t0 = 0.
Notemos que el polinomio p(t) cumple las condiciones de Fourier. Así, tomando
a t0 = 0 se genera una sucesión monótona creciente cuyo límite es t∗ . Ahora, por
inducción probaremos que
|xn+1 − xn | ≤ tn+1 − tn ,
∀ n ≥ 0.
Sustituyendo a n = 0 en (2.15) se sigue
t1 − t0 = −
p(t0 )
p(0)
=− 0
= β,
p0 (t0 )
p (0)
Sustituyendo n = 0 en (2.2) y aplicando iii)
|x1 − x0 | ≤ β = t1 − t0 .
En consecuencia x1 ∈ I ya que |x1 − x0 | < t1 < t∗ .
t1 = β.
2.3. ESTUDIO DE CONVERGENCIA
19
Supongamos que x0 , x1 , . . . , xm ∈ I y además que |xi+1 − xi | ≤ ti+1 − ti para
i = 0, 1, . . . , m − 1, demostraremos que |xm+1 − xm | ≤ tm+1 − tm .
En efecto, como
|xm − x0 | ≤ |xm − xm−1 | + |xm−1 − xm−2 | + · · · + |x1 − x0 |.
≤ (tm − tm−1 ) + (tm−1 − tm−2 ) + · · · + (t1 − t0 ).
= tm − t0 = tm < t∗ ,
se tiene que xm ∈ I.
Por otra parte, notemos que
1 − γ|xm − x0 | ≥ 1 − γtm ⇒
Además
|xm+1 − xm | =
1
1
≤
.
1 − γ|xm − x0 |
1 − γtm
f (xm )
f (xm ) f 0 (x0 )
= 0
.
0
f (xm )
f (x0 ) f 0 (xm )
(2.16)
Aplicando la condición iv) se sigue
f 0 (xm ) − f 0 (x0 )
f 0 (xm )
≤ γ|xm −x0 | ⇒ 1− 0
≤ γ|xm −x0 | ≤ γ(tn −t0 ) < γt∗ < 1.
0
f (x0 )
f (x0 )
Luego
−γ|xm − x0 | ≤ 1 −
Entonces
−γ|xm − x0 | − 1 ≤ −
Luego
−1 < 1 −
Así
f 0 (xm )
≤ γ|xm − x0 |.
f 0 (x0 )
f 0 (xm )
≤ γ|xm − x0 | − 1.
f 0 (x0 )
f 0 (xm )
f 0 (xm )
⇒
−
< 0.
f 0 (x0 )
f 0 (x0 )
f 0 (xm )
f 0 (xm )
≥ 1 − γ|xm − x0 |.
= 0
0
f (x0 )
f (x0 )
De donde
f 0 (x0 )
1
≤
.
0
f (xm )
1 − γ|xm − x0 |
(2.17)
Ahora bien, de (2.2) se deduce
f (xm ) = f (xm ) − f (xm−1 ) − f 0 (xm−1 )(xm − xm−1 ).
Luego
f (xm )
f (xm ) − f (xm−1 ) − f 0 (xm−1 )(xm − xm−1 )
=
=
f 0 (x0 )
f 0 (x0 )
Z
xm
h f 0 (t) − f 0 (x
xm−1
m−1 )
f 0 (x0 )
Haciendo el cambio de variable t = xm−1 + s(xm − xm−1 ) se sigue
f (xm )
≤
f 0 (x0 )
Z
1
0
f 0 (xm−1 + s(xm − xm−1 )) − f 0 (xm−1 )
|(xm − xm−1 )|ds.
f 0 (x0 )
(2.18)
Aplicando la condición iv) a (2.18) se sigue
f (xm )
≤
f 0 (x0 )
Z
0
1
Z
γs|xm − xm−1 |2 ds = γ|xm − xm−1 |2
1
sds ≤
0
1
γ|xm − xm−1 |2 .
2
(2.19)
i
dt .
20
CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON
Sustituyendo (2.17) y (2.19) en (2.16) se sigue
1
2 γ(tm
|xm+1 − xm | ≤
− tm−1 )2
.
1 − γtm
(2.20)
p(tm )
.
p0 (tm )
(2.21)
Por otra parte
tm+1 − tm = −
De (2.14) se obtiene
p0 (t) = γt − 1.
p00 (t) = γ.
p(i) (t) = 0, i ≥ 3.
(2.22)
(2.23)
Aplicando el desarrollo de Taylor a (2.14) se sigue
1
p(tm ) = p(tm−1 ) + p0 (tm−1 )(tm − tm−1 ) + p00 (tm−1 )(tm − tm−1 )2 + 0.
2
Pero
tm − tm−1 = −
p(tm−1 )
.
p0 (tm−1 )
(2.24)
(2.25)
Luego, sustituyendo (2.23) y (2.25) en (2.24) se sigue
p(tm ) =
1
γ(tm − tm−1 )2 .
2
(2.26)
Sustituyendo (2.26) y (2.22) en (2.21)
tm+1 − tm =
1
2 γ(tm
− tm−1 )2
.
1 − γtm
(2.27)
Finalmente, sustituyendo (2.27) en (2.20)
|xm+1 − xm | ≤ tm+1 − tm .
El proceso inductivo queda probado. Como {tn }∞
n=0 es convergente, se sigue que
también
es
convergente.
{xn }∞
n=0
De (2.19) se deduce que cuando m → ∞, entonces f (xm ) → 0. Por tanto {xm }
converge a x∗ , la solución de f (x∗ ) = 0.
Teorema 7 (α-teoría de Smale en R.). Sea f : D ⊆ R → R una función continua
y diferenciable en un intervalo D en el que se cumplen las siguientes condiciones:
i)
ii)
f (x0 )
f 0 (x0 )
≤ β. f 0 (x0 ) 6= 0.
(k)
(x0 )
1 f
k! f 0 (x0 )
≤ γ k−1 ,
para k ≥ 2.
√
iii) α = βγ ≤ 3 − 2 2.
Entonces el método de Newton-Raphson definido por (2.2) converge a x∗ solución
de f (x) = 0.
Demostración. Dado {xn }, se demostrará que |xn+1 − xn | ≤ tn+1 − tn , donde {tn }
es una sucesión real obtenida al aplicar el método de Newton-Raphson a la función
mayorante φ(t).
Consideremos la función
φ(t) = β − t +
X
k≥2
γ k−1 tk = β − t +
γt2
,
1 − γt
para 0 ≤ t <
1
,
γ
(2.28)
2.3. ESTUDIO DE CONVERGENCIA
21
cuya gráfica es
Φ HtL
t*
t*
*
Figura 2.10: Gráfica de la función mayorizante φ(t) = β − t +
γt2
1−γt
Notemos que para φ(t) = 0 se debe cumplir
φ(t) = 2γt2 − t(α + 1) + β = 0,
de donde
∗
t ,t
∗∗
=
(α + 1) ±
p
(α + 1)2 − 8α
.
4γ
(2.29)
Luego, para que (2.29) tenga raíz en R se debe cumplir
(α + 1)2 − 8α ≥ 0,
√
de donde α2 − 6α + 1 ≥ 0, por tanto α ≤ 3 − 2 2.
Como vemos, este resultado se deduce directamente de la condición iii).
Ahora, sea {tn } la sucesión obtenida al aplicar el método de Newton-Raphson a
(2.28), es decir:

t
n+1

= tn −
φ(tn )
β(1 − γtn )2 − tn (1 − γtn )2 + γt2n (1 − γtn )
=
.
0
φ (tn )
−1 + 2γtn (2 − γtn )
(2.30)
t0 = 0.
Observemos que para n = 0, de (2.30) se obtiene
t1 − t0
φ(t0 )
φ0 (t0 )
φ(t0 )
φ0 (t0 )
φ(0)
− 0
φ (0)
= β,
≤ β,
= β,
= β.
Asimismo, si sustituimos n = 0 en (2.2) y aplicamos i) se sigue
|x1 − x0 | ≤
f (x0 )
f 0 (x0 )
≤
f (x0 )
≤ β = t1 − t0 .
f 0 (x0 )
φ(t0 )
.
β=− 0
φ (t0 )
Por otra parte, notemos que
X
kγ k−1 tk−1 ⇒ φ0 (t0 ) = φ0 (0) = −1.
φ0 (t) = −1 +
k≥2
(2.31)
(2.32)
(2.33)
22
CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON
Además
φ00 (t)
=
X
k(k − 1)γ k−1 tk−2 .
k≥2
000
φ (t)
=
X
k(k − 1)(k − 2)γ k−1 tk−3 .
k≥3
φ(j) (t)
..
.
X
=
k(k − 1) . . . (k − j + 1)γ k−1 tk−j .
k≥j
Entonces
φ(j) (t0 ) = φ(j) (0) = k!γ k−1 .
(2.34)
Luego, de (2.34) y (2.33) se obtiene
γ k−1 =
φ(j) (t0 )
1 φ(j) (t0 )
=−
.
k!
k! φ0 (t0 )
(2.35)
Aplicando ii) en (2.35) se sigue
1 f (k) (x0 )
1 φ(k) (t0 )
k−1
.
≤
γ
=
−
k! f 0 (x0 )
k! φ0 (t0 )
(2.36)
Probaremos que las desigualdades (2.31), (2.32) y (2.36) se cumplen siempre. En
otras palabras, demostraremos que si (2.31), (2.32) y (2.36), se cumplen, entonces
f (xj )
f 0 (xj )
≤ −
1 f (k) (xj )
k! f 0 (xj )
|xj+2 − xj+1 |
φ(tj )
,
φ0 (tj )
para j = 0, 1, 2, . . . .
1 φ(k) (tj )
,
k! φ0 (tj )
tj+2 − tj+1 .
≤ −
≤
(2.37)
para k ≥ 2 y j = 0, 1, 2, . . . .
La demostración será por inducción.
Para j = 0; (2.31), (2.32) y (2.36) son ciertas por hipótesis. Comprobaremos que
si son ciertas para j, también lo serán para j + 1.
Aplicando el desarrollo de Taylor a f (xj+1 ) se sigue
f (xj+1 ) = f (xj ) + f 0 (xj )(xj+1 − xj ) +
X 1
f (k) (xj )(xj+1 − xj )k .
k!
(2.38)
k≥2
Pero
(xj+1 − xj ) = −
f (xj )
.
f 0 (xj )
(2.39)
Sustituyendo (2.39) en (2.38) se sigue
f (xj+1 ) = f (xj ) − f 0 (xj )
f (xj ) X 1 (k)
+
f (xj )(xj+1 − xj )k .
f 0 (xj )
k!
k≥2
Así
f (xj+1 ) =
X 1
f (k) (xj )(xj+1 − xj )k .
k!
k≥2
Luego
X 1 f (k) (xj ) f (xj )
f (xj+1 )
≤
f 0 (xj )
k! f 0 (xj ) f 0 (xj )
k≥2
k
≤
Xh
k≥2
−
1 φ(k) (tj ) ih φ(tj ) ik
− 0
. (2.40)
k! φ0 (tj )
φ (tj )
2.3. ESTUDIO DE CONVERGENCIA
23
Si ahora aplicamos el desarrollo de Taylor a φ(tj+1 ) se sigue
φ(tj+1 ) = φ(tj ) + φ0 (tj )(tj+1 − tj ) +
X 1
φ(k) (tj )(tj+1 − tj )k .
k!
(2.41)
k≥2
Pero
(tj+1 − tj ) = −
φ(tj )
.
φ0 (tj )
(2.42)
Sustituyendo (2.42) en (2.41) sigue
φ(tj+1 ) = φ(tj ) − φ0 (tj )
φ(tj ) X 1 (k)
+
φ (tj )(tj+1 − tj )k .
φ0 (tj )
k!
k≥2
Así
φ(tj+1 ) =
X 1
φ(k) (tj )(tj+1 − tj )k .
k!
k≥2
Luego
−
Xh
1 φ(k) (tj ) ih φ(tj ) ik
φ(tj+1 ) X 1 φ(k) (tj )
k
=
−
(t
−
t
)
=
−
− 0
.
j+1
j
φ0 (tj )
k! φ0 (tj )
k! φ0 (tj )
φ (tj )
k≥2
k≥2
Entonces, (2.40) se transforma en
f (xj+1 )
φ(tj+1 )
.
≤− 0
f 0 (xj )
φ (tj )
(2.43)
Por otra parte, aplicando el desarrollo de Taylor a la derivada de (2.38) se sigue
f 0 (xj+1 ) =
X 1
f (k+1) (xj )(xj+1 − xj )k .
k!
k≥0
Luego
1−
X 1 f (k+1) (xj )
X
f 0 (xj+1 )
φ(k+1) (tj ) h φ(tj ) ik
k
≤
|x
−
x
|
≤
−(k
+
1)
.
j+1
j
f 0 (xj )
k
f 0 (xj )
φ0 (tj )
φ0 (tj )
k≥1
k≥1
(2.44)
Por otro lado
φ0 (tj+1 ) = φ0 (tj ) +
X
k≥1
h φ(t ) ik
j
(k + 1)φ(k+1) (tj ) 0
.
φ (tj )
De donde
φ0 (tj ) − φ0 (tj+1 ) =
X
−(k + 1)φ(k+1) (tj )
k≥1
0
0
φ (tj ) − φ (tj+1 )
φ0 (tj )
=
φ0 (tj+1 )
1− 0
φ (tj )
=
X
−(k + 1)
φ(k+1) (tj ) h φ(tj ) ik
.
φ0 (tj )
φ0 (tj )
−(k + 1)
φ(k+1) (tj ) h φ(tj ) ik
.
φ0 (tj )
φ0 (tj )
k≥1
X
k≥1
Sustituyendo (2.45) en (2.44) se sigue
1−
f 0 (xj+1 )
φ0 (tj+1 )
< 1,
≤
1
−
f 0 (xj )
φ0 (tj )
pues φ es de signo constante en (0, t∗ ).
h φ(t ) ik
j
.
φ0 (tj )
(2.45)
24
CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON
Así
f 0 (xj )
1
φ0 (tj )
h
i
≤
=
.
φ0 (t
)
f 0 (xj+1 )
φ0 (tj+1 )
1 − 1 − φ0 (tj+1
j)
(2.46)
Aplicando el desarrollo de Taylor a f (k) (xj+1 ) se sigue
f (k) (xj+1 ) =
X1
f (k+1) (xj )(xj+1 − xj )i .
i!
i≥0
Luego
1 f (k) (xj+1 )
k! f 0 (xj )
≤
X (k + 1)!
k! i!
X k + i −1 φ(k+1) (tj ) (tj+1 − tj )i =
i
(k + 1)! φ0 (tj )
i≥0
≤
1
f (k+1) (xj )
|xj+1 − xj |i ≤
(k + 1)! f 0 (xj )
i≥0
=
−
1 φ(k) (tj+1 )
1 X 1 φ(k+1) (tj )
(tj+1 − tj )i = −
.
0
k!
i! φ (tj )
k! φ0 (tj )
i≥0
Además
1 φ(k) (tj+1 )
1 X 1 φ(k+1) (tj )
=
(tj+1 − tj )i .
k! φ0 (tj )
k!
i! φ0 (tj )
1≥0
Así que
Entonces
1 φ(k) (tj+1 )
1 f (k) (xj+1 )
≤−
.
0
k! f (xj )
k! φ0 (tj )
(2.47)
f (xj+1 )
f 0 (xj ) f (xj+1 )
≤
.
f 0 (xj+1 )
f 0 (xj+1 ) f 0 (xj )
(2.48)
Sustituyendo (2.46) y (2.43) en (2.48) se sigue
f (xj+1 )
φ(tj+1 )
φ0 (tj ) φ(tj+1 )
=− 0
.
≤
−
0
0
0
f (xj+1 )
φ (tj+1 ) φ (tj )
φ (tj+1 )
Asimismo
1 f (k) (xj+1 )
1 f (k) (xj+1 ) f 0 (xj )
≤
.
k! f 0 (xj+1 )
k! f 0 (xj )
f 0 (xj+1 )
(2.49)
Sustituyendo (2.46) y (2.47) en (2.49) sigue
1 f (k) (xj+1 )
1 φ(k) (tj+1 ) φ0 (tj )
1 φ(k) (tj+1 )
≤−
=−
.
0
0
0
k! f (xj+1 )
k! φ (tj ) φ (tj+1 )
k! φ0 (tj+1 )
Por último
|xj+2 − xj+1 | ≤
f (xj+1 )
φ(tj+1 )
= tj+2 − tj+1 .
≤− 0
f 0 (xj+1 )
φ (tj+1 )
Luego, hemos probado que
|xk+1 − xk | ≤ tk+1 − tk .
Además {tk } es convergente a t∗ , por tanto {tk } es de Cauchy, lo cual implica
que {xk } también es de Cauchy y que {xk } converge a x∗ .
Por otra parte, notar que de (2.37) se deduce que
lı́m
j→∞
f (xj )
φ(t∗ )
φ(xj )
= − 0 ∗ = 0.
≤ lı́m − 0
0
j→∞
f (xj )
φ (xj )
φ (t )
Entonces f (x∗ ) = 0, luego x∗ es la solución de f (x).
2.4. ORDEN DE CONVERGENCIA Y EFICIENCIA
25
2.4.
Orden de convergencia y eficiencia del método
de Newton-Raphson
2.4.1.
Orden de convergencia
Como establecimos en la sección 1.1, el orden de convergencia de un método
iterativo nos indica la «velocidad» con la cual una sucesión converge a su límite. La
característica principal de esta «velocidad» se verifica en la proporción con que se
multiplican los dígitos significativos de la solución aproximada. Así, cuando el método iterativo posee convergencia lineal, los dígitos significativos se reproducen a la
misma escala, mientras que si la convergencia es cuadrática, los dígitos significativos
en cada iteración se van incrementando en potencia de dos y así sucesivamente.
El teorema que presentamos a continuación demuestra que para raíces simples el
método de Newton-Raphson posee un orden de convergencia cuadrático o de orden
dos.
Teorema 8. Sea x∗ una raíz simple de (1.1), es decir f (x∗ ) = 0 y f 0 (x∗ ) 6= 0.
Entonces el método de Newton-Raphson definido por (2.13) es de segundo orden o
de convergencia cuadrática.
Demostración. Para demostrar lo anteriormente indicado se comprobará que Nf0 (x∗ ) =
Lf (x∗ ) = 0 y Nf00 (x∗ ) = L0f (x∗ ) 6= 0.
En efecto
Nf0 (x∗ ) = Lf (x∗ ) =
f (x∗ )f 00 (x∗ )
= 0,
f 0 (x∗ )
pues f (x∗ ) = 0 y f 0 (x∗ ) 6= 0.
Además
Nf00 (x∗ ) = L0f (x∗ ) =
f 0 (x∗ )f 00 (x∗)
f 00 (x∗ )
=
6= 0,
f 0 (x∗ )2
f 0 (x∗ )
pues f 0 (x∗ ) 6= 0 y f 00 (x∗ ) 6= 0.
Luego, por el teorema de Schröder, el orden de convergencia de (2.13) es cuadrático.
Además, la constante del error asintótico es
C=
1 |f 00 (x∗ )|
.
2 |f 0 (x∗ )|
Como se ha demostrado, el orden de convergencia del método de Newton-Raphson
es, por lo menos, cuadrático, siempre y cuando las raíces de la función f (x) sean
simples. Es conocido que, para raíces múltiples, se pierde la convergencia cuadrática,
pasando a convergencia lineal.
2.4.2.
Índice de eficiencia
Es importante indicar que, al contrario del continente europeo, en el continente
americano, y en gran parte de las islas que conforman la cuenca del Caribe, se utiliza
la coma gramatical para separar las cantidades que representan miles de unidades.
Asimismo, se emplea el punto gramatical para separar las partes que representan
fracciones de unidades. En adelante usaremos la coma y el punto desde una visión
americana.
Tomando en cuenta a (1.3), sabemos que
IEC(p, d) = p1/d .
Considerando que p = 2, d = 2, luego
√
1
IEC(p, d) = 2 2 = 2 ≈ 1.414213562373095,
es el índice de eficiencia del método de Newton-Raphson.
26
CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON
2.4.3.
Orden de convergencia computacional
Recordemos que en la matemática computacional un método iterativo trata de
resolver una ecuación del tipo (1.1) mediante aproximaciones sucesivas a la solución.
Tomando esto en cuenta, Weerakoon y Fernando [90], Grau [38] y Grau y Gutiérrez
[39] han introducido formas diferentes de aproximar el orden de convergencia de un
método iterativo. En concreto, cada uno de ellos define lo que se llama el orden de
convergencia computacional OCC de un método iterativo. Nos encontramos, por
tanto, con tres definiciones del OCC, que denotaremos OCCW , OCCG y OCCGG .
De acuerdo a [90], el OCCW viene expresado por la fórmula
OCCW =
ln |(xn+1 − x∗ )/(xn − x∗ )|
,
ln |(xn − x∗ )/(xn−1 − x∗ )|
(2.50)
en donde x∗ es una raíz de la función f (x) y xn+1 , xn y xn−1 son tres iteraciones
consecutivas próximas a la raíz x∗ .
Por su parte [38] define el OCCG a partir de la expresión
OCCG =
ln |(xn+1 − xn )/(xn − xn−1 )|
,
ln |(xn − xn−1 )/(xn−1 − xn−2 )|
(2.51)
en donde xn+1 , xn , xn−1 y xn−2 son cuatro iteraciones consecutivas próximas a la
raíz x∗ .
Mientras que [39] definen el OCC a partir de la expresión
OCCGG =
ln |(xn − α
e/(xn−1 − α
e)|
,
ln |(xn−1 − α
e)/(xn−2 − α
e)|
(2.52)
en donde xn+1 , xn , xn−1 y xn−2 son cuatro iteraciones consecutivas próximas a la
raíz x∗ y
(xn+1 − xn )2
α
e = xn+1 −
xn+1 − 2xn + xn−1
Notemos que en (2.50) es necesario conocer la solución de la ecuación, mientras
que en (2.51) y (2.52) no es necesario conocer dicha solución, esto implica que la
aplicación de la ecuación (2.50) podría tener inconvenientes cuando una iteración
xn está muy próxima a la solución x∗ . En ese caso, aparecerían dos iteraciones
sucesivas con el mismo valor. Es importante señalar que la suceción de iteraciones
que se apliquen tanto en (2.50) como en (2.51) y (2.52) deben estar lo mas próximas
posibles a x∗ .
A continuación se va a calcular el OCCG , OCCW y el OCCGG para un conjunto
de funciones test. Las funciones que se presentan en la siguiente tabla fueron tomadas
de [63], [83] y [90]. En la siguiente tabla se comprueba que el OCCG , OCCW y el
OCCGG promedio del método de Newton-Raphson es 2.02298, 1.99904 y 1.96442
respectivamente, lo cual significa que, computacionalmente hablando, el orden del
método de Newton-Raphson también es cuadrático. Los valores que se presentan se
obtuvieron mediante el siguiendo procedimiento:
1. La solución aproximada de cada ecuación se encontró utilizando el código para
implementar el método de Newton-Raphson con el paquete Mathematica.
2. Los valores iniciales se tomaron de forma optimizada, es decir, lo más próximo
a la solución.
3. Para aplicar a (2.50) se tomo la solución apróximada generada por cada ecuación y se tomaron las tres soluciones sucesivas más próximas a dicha solución
apróximada.
4. Para aplicar a (2.51) y (2.52) se tomaron las cuatro soluciones sucesivas más
próximas a la supuesta solución generadas por cada ecuación.
2.5. EJEMPLOS NUMÉRICOS
Función f (x)
x3 + 4x2 − 10
sen2 (x) − x2 + 1
x2 − ex − 3x + 2
cos(x) − x
(x − 1)3 − 1
x3 − 10
x2
xe − sen2 (x) + cos(x) + 5
x3 + log(x)
1
x − sen(x) + 1
2
2
2
x sen (x) + ex cos(x) sen(x) − 28
Promedio
27
x0
1.0
1.0
1.0
1.0
1.8
1.5
-1.0
0.5
-1.0
4.4
OCCG
2.00564
2.00155
1.99794
1.93728
2.0099
2.00299
2.0438
2.00087
2.36985
1.85999
2.02298
OCCW
1.99957
1.99966
1.99825
1.99803
1.99939
1.99916
1.99968
2.00067
2.00013
1.9959
1.99904
OCCGG
1.9804
1.98758
1.94079
1.91155
1.97686
1.9937
1.98951
2.00067
2.00326
1.85991
1.96442
Raíz (x∗ )
1.365230
1.404491
0.257530
0.739085
2.000000
2.154434
-1.166495
0.704709
-0.629446
4.622104
Cuadro 2.1: OCC promedio del método de Newton.
2.5.
Ejemplos numéricos
En esta sección aplicaremos el método de Newton-Raphson a partir de dos momentos. En un primer momento se presentan una serie de problemas en los cuales
el método de Newton-Raphson funciona perfectamente. En el segundo momento se
presentan los ejemplos patológicos, es decir, aquellas situaciones en los cuales el
método de Newton-Raphson no arroja los resultados esperados.
2.5.1.
Ecuaciones no lineales resueltos por el método de Newton.
Los ejemplos presentados a continuación han sido diseñados y codificados en el
lenguaje del paquete Mathematica. Para un estudio más profundo de este acápite,
véase [8], [28], [47],[55], [57], [66], [69], [91], [113], [114], [116] y [120].
Ejemplo 2. Al principio de cada año un banco deposita v euros en un fondo de
inversión y retira un capital de M euros al final del n− ésimo año. Mediante el
método de Newton-Raphson se pretende calcular el tipo medio de interés anual r de
esta inversión, sabiendo que M está relacionada con r por la siguiente ecuación.
M =v
n
X
(1 + r)k = v
k=1
1+r
[(1 + r)n − 1].
r
Solución 2. Observando la ecuación anterior, se deduce que r es la solución de la
ecuación
f (r) = M − v
1+r
[(1 + r)n − 1],
r
f (r) = 0.
Para la construcción de la gráfica, vamos a suponer que v es 10, 000 euros y que
después de 5 años M es igual a 60, 000 euros. Bajo estas condiciones se obtiene la
gráfica (2.11)
28
CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON
30 000
20 000
10 000
-0.2
0.1
-0.1
0.2
-10 000
-20 000
-30 000
n
Figura 2.11: Gráfica de la función f (r) = M − v 1+r
r [(1 + r) − 1]
1. Se observa que f (r) tiene solución única en el intervalo [0.0, 0.1]
2. Construcción de la función de iteración.
f (r)
=
60, 000 − 10, 000
rn+1
=
rn −
rn+1
=
r
0
1
2
3
4
5
1+r
[(1 + r)5 − 1].
r
f (rn )
.
f 0 (rn )
1 + 20rn2 + 30rn3 + 18rn4 + 4rn5
.
15 + 40rn + 45rn2 + 24rn3 + 5rn4
(2.53)
rn
0.1
0.06325399881896841
0.06140685508980816
0.06140241156217179
0.0614024115365252
0.0614024115365252
Cuadro 2.2: Valores obtenidos a partir de (2.53)
3. Resultado.
Después de 4 iteraciones el método converge a la raíz aproximada x4 = 0.0614024115365252.
Luego, el tipo de interés es aproximadamente igual a 6.14 %
Ejemplo 3. En cursos de física avanzada se sabe que la posición en función del
tiempo para un tiro parabólico viene dada por la forma
2
v0
x(t) = x0 + 2x (1 − e−w t ),
w
i
2
1 h
g y(t) = y0 + 2 v0y + 2 1 − e−w t − gt ,
w
w
k
donde w2 = m
, x(t): alcance con respecto al tiempo, y(t): altura con respecto al
tiempo, x0 : distancia inicial con respecto a la tierra, y0 : altura inicial con respecto
a tierra, v0x : velocidad inicial con respecto a la tierra, v0y : velocidad inicial con
respecto a la altura, t: tiempo, g: gravedad, k: constante de proporcionalidad, m:
masa.
Supongamos que un proyectil
√ de masa m = 4 Kg es lanzado desde la tierra con
π
una velocidad inicial k~v0 k = 2 m
s , formando con la horizontal un ángulo de θ = 4 .
m
Si la constante de proporcionalidad k = 2 Kg
s y tomamos la gravedad g = 9.8 s2 ,
aproximaremos el alcance del proyectil aplicando el método de Newton-Raphson.
2.5. EJEMPLOS NUMÉRICOS
29
Solución 3. Por los datos suministrados en el enunciado, sabemos que k~v0 k =
y θ = π4 , luego
√
√
2
√
2
= 1.
√2
√ 2
= k~v0 k sen(θ) = 2
= 1.
2
v 0x
= k~v0 k cos(θ) =
v0y
2
Notemos que w2 = 12 . Tomando el origen de referencia en el punto de lanzamiento, se tiene que (x0 , y0 ) = (0, 0), luego, la posición en función del tiempo del
proyectil es
x(t)
=
y(t)
=
1
2 1 − e− 2 t .
h
i
1
2 (1 − 2g) 1 − e− 2 t − gt .
(2.54)
(2.55)
El plan ahora es determinar la solución t∗ de y(t) = 0, luego x(t∗ ) sería el alcance
del proyectil. Así
tn+1
=
=
y(tn )
.
y 0 (tn )
[20.6(1 − e−0.5tn ) − 9.8tn ]
tn −
.
10.3e−0.5tn − 9.8
tn −
(2.56)
En adelante hay que tener cuidado en seleccionar a t0 , pues una mala elección
puede hacer que se obtenga una solución que no nos interese. Por ejemplo, si tomamos t0 = 0.03, la solución que se obtiene tiende a t∗ = 0, que al ser sustituida en
(2.54), nos daría una falso alcance.
La razón de la convergencia anterior es que la función y(t) corta al eje de las
abscisa en t = 0 y además tiene un máximo relativo en t = 0.099523, luego, al ser
y(t) una función creciente en el intervalo I = (0, 0.099523), si tomamos un t0 ∈ I,
la sucesión que se obtiene converge a t = 0.
-0.4
0.2
-0.2
0.4
-0.2
-0.4
-0.6
-0.8
i
h
1
Figura 2.12: Gráfica de la función y(t) = 2 (1 − 2g) 1 − e− 2 t − gt
Este problema se resuelve tomando un valor t0 > 0.099523. Si tomemos a t0 = 0.4
se genera la siguiente tabla
30
CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON
n
0
1
2
3
4
5
6
7
8
tn
0.4
0.26405006877449
0.21254143019785
0.20132631548484
0.20072639679455
0.20072466363483
0.20072466362036
0.20072466362036
0.20072466362036
Cuadro 2.3: Valores obtenidos a partir de (2.56).
Así, t6 ≈ 0.20072466362036 es una aproximación de la solución t∗ . Sustituyendo
este valor en (2.54), se obtiene que el alcance del proyectil sería x(t6 ) = 2(1 −
e−0.5t6 ) ≈ 0.190981 metros.
Ejemplo 4. Aplicando el procedimiento que desarrolló F. Vieta, a finales del siglo
XVI, calcularemos las dos primeras aproximaciones del polinomio x3 − 2x − 5 = 0.
Verificaremos que este procedimiento coincide con el método de Newton-Raphson.
Solución 4. De los datos del problema se obtiene que el polinomio a considerar es
P (x) = x3 − 2x − 5. Notemos que P (2) = −1 < 0 y P (3) = 16 > 0, luego, por el
teorema de Bolzano, existe una raíz x∗ del polinomio P (x) tal que x∗ ∈ (2, 3). Luego,
el valor entero x0 más próximo e inferior a la raíz es x0 = 2, el cual tomaremos
como una primera raíz, es decir x∗ ≈ x0 = 2.
Realizando el cambio de variable x = x0 + s = 2 + s, el polinomio P (x) se
transforma en
P (2 + s) = −1 + 10s + 6s2 + s3 .
(2.57)
Despreciando los términos de grado superior a uno de (2.55) sigue
P (2 + s) = −1 + 10s.
Cuya raíz es s = 1/10. Luego, la nueva aproximación de la raíz del polinomio
original es
x∗ ≈ x1 = x0 + s = 2 + 0.1 = 2.1.
Realizando el cambio de variable x = x1 + s el polinomio P (x) ahora es
P (2.1 + s) = 0.061 + 11.23s + 6.3s2 + s3 .
(2.58)
Nuevamente despreciando, de (2.58), los términos de grado superior a uno, obtenemos que
P (2.1 + s) = 0.061 + 11.23s,
cuya raíz es s = −0.00543188. Luego, la nueva aproximación de la raíz x∗ del polinomio P (x) es
x∗ ≈ x2 = x1 − 0.00543188 = 2.1 − 0.00543188 = 2.09457.
Aplicando el método de Newton-Raphson para aproximar la raíz de P (x) sigue
xn+1
=
=
P (xn )
,
P 0 (xn )
x3 − 2xn − 5
xn − n 2
.
3xn − 2
xn −
Tomando a x0 = 2, obtenemos la siguiente tabla
(2.59)
2.5. EJEMPLOS NUMÉRICOS
n
xn
0
2.000000
31
1
2.100000
2
2.094568
3
2.094551
4
2.094551
Cuadro 2.4: Valores obtenidos a partir de (2.59).
En la tabla se verifica que las dos primeras iteraciones coinciden con el método
aplicado por Vieta.
Ejemplo 5. Aplicaremos el método de Newton-Raphson para encontrar la solución
aproximada de la ecuación
f (x) = 6x3 − 39x2 + 45x = 0,
comenzando a partir de la solución inicial x0 = 4.
Solución 5.
1. Gráfica de la función.
100
50
-2
4
2
6
8
-50
-100
-150
Figura 2.13: Gráfica de la función f (x) = 6x3 − 39x2 + 45x
La gráfica muestra la existencia de tres raíces, aproximaremos la mayor de
ellas, tomando un x0 = 4.
2. Construcción de la función de iteración.
xn+1
n
xn
0
4.000000
1
6.857143
f (xn )
.
f 0 (xn )
45xn − 39x2n + 6x3n
= xn −
.
45 − 26xn + 6x2n
−13x2n + 4x3n
=
.
6x2n − 26xn + 15
= xn −
2
5.708987
3
5.160504
4
5.011191
(2.60)
5
5.000060
6
5.000000
Cuadro 2.5: Valores obtenidos a partir de (2.60).
3. Resultado.
La raíz aproximada es x6 = 5.
Ejemplo 6. Comprobaremos que la ecuación
f (x) = ex + x,
tiene una única raíz real y aproximaremos dicha raíz por el método de NewtonRaphson. Detendremos el proceso de iteración cuando se verifique que |xn − xn−1 | ≤
0.5 × 10−3 .
32
CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON
Solución 6.
1. Gráfica de la función.
20
15
10
5
-3
-1
-2
1
2
3
Figura 2.14: Gráfica de la función f (x) = ex + x
Se verifica que la función f (x) = ex + x, es continua y derivable en el intervalo
[−1, 0]. Como
f (−1) = −0.632121 < 0,
f (0) = 1 > 0.
Además se verifica que f 0 (x) = ex +1 > 0 en todo el intervalo, luego f (x) tiene
a lo sumo una solución en [−1, 0]. Tomemos x0 = −1
2. Construcción de la función de iteración.
n
xn
xn
=
xn
=
xn
=
0
-1.000000
f (xn−1 )
, n ≥ 1,
f 0 (xn−1 )
exn−1 + xn−1
xn−1 −
,
1 + exn−1
exn−1 (−1 + xn−1 )
.
1 + exn−1
xn−1 −
1
-0.537883
2
-0.566987
(2.61)
3
-0.567143
Cuadro 2.6: Valores obtenidos a partir de (2.61).
3. Resultado.
La raíz aproximada es x3 = −0.567143.
2.5.2.
Ejemplos patológicos
Entenderemos por ejemplos patológicos, como aquellos ejemplos en los cuales el
método de Newton-Raphson falla o converge a una solución no esperada. Son diversas
las razones que permiten el desarrollo de estos casos, pero las más importantes son:
Cuando la sucesión diverge lentamente a +∞.
Cuando la sucesión de puntos generada por la función oscila sin converger.
En caso de que se presente el fenómeno de la periodicidad, es decir, cuando
los resultados de la función generan una sucesión de puntos que tienden a
repetirse. Es lo que se conoce como la presencia de ciclos atractores.
2.5. EJEMPLOS NUMÉRICOS
33
En caso de que se presente el fenómeno de repulsión, es decir, cuando los valores
de la función de iteración se alejan de la posible solución.
Antes de iniciar con dichos ejemplos, recordemos las condiciones típicas para la
convergencia de (2.2), dichas condiciones fueron tomadas de ([8]).
0)
Sea f (x) una función, x0 un punto inicial e I0 = [x0 , 2µ0 ], donde µo = ff0(x
(x0 ) , un
intervalo en el cual la función es dos veces diferenciable, entonces las condiciones
sup |f 00 (x)| = M,
x∈I0
|f 0 (x0 )| ≥ 2|µ0 |M,
(2.62)
son suficientes para asegurar la existencia de una solución x∗ de f (x) en I0 , y para
la convergencia de (2.2) a esa solución.
De forma general, la condición (2.62) se cumple para
|f 00 (xn )| ≤ M,
|f 0 (xn )| ≥ 2|µn |M,
n = 1, 2, · · ·
Recordemos también que en la solución de una ecuación mediante métodos numéricos, comúnmente se aplica el siguiente criterio de parada
|xn+1 − xn | < ε,
ε > 0.
(2.63)
Donde xn es el n−ésimo termino de la sucesión generada y ε > 0 es la tolerancia.
Veamos algunos ejemplos que demuestran lo anteriormente señalado. Para un
análisis más profundo de estos de ejemplos ver [8], [19], [28], [42], [47] y [57].
Ejemplo 7. Parte del ejemplo que detallamos a continuación aparece en [8]. En el
mismo se presenta un caso de repulsión. Dada la función
f (x) = x1/3 ,
(2.64)
demostraremos que para cualquier valor inicial diferente de cero, el método de NewtonRaphson diverge.
Solución 7. Notemos que la función dada posee solución única en x∗ = 0. Aplicando
el método de Newton-Raphson a (2.64) sigue
xn+1
=
xn −
=
xn −
f (xn )
,
f 0 (xn )
1/3
xn
−2
1/3xn 3
= −2xn ,
luego, para cualquier punto de partida distinto de cero, el método de Newton-Raphson
se aleja de la solución x∗ = 0. En efecto, dado x0 se sigue
x1
x2
xn
= −2x0
= 2 2 x0
..
.
= (−1)n 2n x0 .
Luego si x0 > 0 se tiene que
lı́m xn = ∞,
n→∞
n par
lı́m xn = −∞.
n→∞
n impar
Si x0 < 0 se obtiene
lı́m xn = −∞,
n→∞
n par
lı́m xn = ∞.
n→∞
n impar
En ambos casos el método de Newton-Raphson presentará una divergencia oscilatoria.
34
CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON
Ejemplo 8. El siguiente ejemplo aparece en [19]. En el mismo se presenta una
función que posee falsa convergencia.
Buscaremos una función h(x) en la que el método de Newton-Raphson genere
una sucesión {xn } divergente, pero que cumpla la condición (2.63).
Solución 8. Notemos que para valores pequeños de x, la función del ejemplo 7
√
f (x) = 3 x,
(2.65)
posee un punto fijo repulsor en cero. También observemos que para valores grandes
de x, la función
2
ψ(x) = e−x ,
(2.66)
tendrá un comportamiento semejante. Por consiguiente, tomaremos a la función h
como el producto de (2.65) y (2.66). Así
h(x) =
√
3
2
xe−x .
(2.67)
La función (2.67) tiene una solución trivial en x = 0, pero como demostraremos,
la iteración bajo el método de Newton-Raphson nunca converge a este cero, a menos
que no se escoja a x0 = 0. Sin embargo, si aplicamos (2.63) como criterio de convergencia y si ninguna de las iteraciones es un punto crítico de h(x), el método de
Newton-Raphson tendría convergencia en una zona en la cual no hay ceros.
Aplicando el método de Newton-Raphson a (2.67) sigue
xn+1 = xn −
h(xn )
= xn −
h0 (xn )
1
3
h
xn
=
x
1−
n
− 2x2n
1
3
i
1
2xn (1 + 3x2n )
. (2.68)
=
−
1 − 6x2n
− 2x2n
Analicemos a (2.68) y caractericemos su punto fijo.
xn+1 = f (xn ), donde f (x) = −
2(−1 − 9x2 + 36x3 )
2xn (1 + 3x2n )
0
y
f
(x)
=
.
1 − 6x2n
(1 − 6x)2
Como
f (0) = 0 y f 0 (0) = −2, entonces para x = 0 existe un punto fijo repulsor.
Analicemos su comportamiento. Supongamos
√ que xn no pertenece al intervalo
(− √16 , √16 ). Asumamos también que xn 6= 1/ 6, porque la derivada de h(x) en ese
punto se hace cero, aún así, el método de Newton-Raphson diverge. En efecto, si
xn > √16 entonces
xn+1 − xn = f (xn ) − xn = −xn
2 + 6x2 + 1 − 6x2 −3xn
n
n
=
> 0.
2
1 − 6xn
1 − 6x2n
Es decir xn+1 > xn , luego xn → ∞.
Análogamente, si xn < − √16 , entonces
xn+1 − xn =
−3xn
< 0, luego xn+1 < xn , por tanto xn → −∞.
1 − 6x2n
Para xn 6= 0 y xn ∈ (− √16 , √16 ) se obtiene
xn+1
1 + 3x2n
1 + 3x2n
=2
=
2
> 2.
xn
1 − 6x2n
1 − 6x2n
Entonces
1
|xn+1 | > 2|xn |, luego, en algun momento xn+1 > √ , por tanto xn → ∞.
6
2.5. EJEMPLOS NUMÉRICOS
35
Si para algún n se obtiene que f (xn ) = ± √16 , entonces xn+1 → ±∞.
Por tanto, en todos los casos la sucesión diverge a ±∞.
0.6
0.4
0.2
-3
-2
1
-1
2
3
-0.2
-0.4
-0.6
Figura 2.15: Gráfica de la función h(x) =
√
3
xe−x
2
5
-2
1
-1
2
-5
Figura 2.16: Gráfica de la función f (x) =
−2x(1+3x2 )
.
1−6x2
Ejemplo 9. La siguiente función ha sido considerada en [42]. Su gráfica puede verse
en la figura 2.17. Dada la función

π

π − 2x sen( x ), si x 6= 0,
f (x) =
(2.69)


π, si x = 0.
Demostraremos que la sucesión generada a partir de aplicar el método de NewtonRaphson a (2.69), converge a un límite que no es solución de (2.69).
Solución 9. Notemos que lı́mx→0 f (x) = π, luego f (x) es continua en todo punto.
Aplicando el método de Newton-Raphson a (2.69) se sigue
xn+1 = xn −
πxn − 2πxn cos( xπn )
f (xn )
=
−
.
f 0 (xn )
2[π cos( xπn ) − xn sen( xπn )]
Notemos que (2.70), a partir de x0 = 0,5 genera la sucesión xn =
1
efecto, se prueba por inducción que si xn = 2n+1
, entonces
xn+1 = −
(2.70)
1
2n+1 .
En
1
1
π 2n+1
− 2π 2n+1
cos(2n π)
1
π
1
=
( n+1 ) = n+2 .
2π
2π 2
2
Luego
lı́m xn = lı́m
x→∞
x→∞
1
= 0.
2n+1
(2.71)
36
CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON
y
4
3
2
1
x3x2 x1
-1.5
-1.0
x0
0.5
-0.5
1.0
1.5
x
Figura 2.17: Gráfica de la función f (x) = π − 2x sen( πx ) y de las iteraciones del
método de Newton-Raphson.
Sin embargo, de (2.69) se sigue que f (0) = π, luego, el límite de (2.71) no es
solución de (2.69).
En el siguiente ejemplo, el método de Newton-Raphson da como resultado una
sucesión oscilante divergente.
Ejemplo 10. Dada la función f (x) = arctan(x) aplicaremos el método de NewtonRaphson empleando un x0 = 1,45. Comprobaremos que los resultados obtenidos representan una sucesión oscilante divergente.
Solución 10.
1. Construcción de la función de iteración.
xn+1
= xn −
f (xn )
.
f 0 (xn )
= xn − (1 + x2n ) arctan(xn ).
(2.72)
Estudiemos la sucesión (2.72) y caractericemos el punto fijo. Sea
xn+1 = f (xn ),
donde
f (x) = x − (1 + x2 ) arctan x,
(2.73)
f 0 (x) = −2x arctan x.
(2.74)
y
Para f (x) = x, se sigue que x∗ = 0 es un punto fijo de (2.73). Sustituyendo
dicho punto fijo en (2.74) se obtiene que f 0 (x∗ ) = 0, por tanto, el cero es un
punto fijo superatractor de (2.72).
Notar que
|f 0 (x)| < 1 ⇔ |x arctan x| <
1
,
2
pero
x arctan x − 0.5 = 0 ⇔ x = 0.765378926665789 = a,
por lo tanto
|f 0 (x)| < 1 ⇔ |x| < a,
luego, para todo x0 ∈ (−a, a) se asegura la convergencia de (2.72).
2.5. EJEMPLOS NUMÉRICOS
37
y
x
a
-a
Figura 2.18: Gráfica de f (x) = x arctan x
Para x0 ∈
/ (−a, a), el método de Newton-Raphson puede converger o presentar
una divergencia oscilatoria.
y
1.0
0.5
-4
2
-2
4
x
-0.5
-1.0
Figura 2.19: Gráfica de la función f (x) = arctan(x) y de las iteraciones del método
de Newton-Raphson.
La gráfica (2.19), para un x0 = 1.45 muestra la presencia de una sucesión
oscilatoria alrededor de la solución única x = 0.
n
0
1
2
3
4
5
6
7
8
9
10
11
xn
1.4500
-1.55026
1.84593
-2.88911
8.67845
-102.443
16281.4
−4,16358 × 108
2,72305 × 1017
−1,16474 × 1035
2,13099 × 1070
−7,13317 × 10140
Cuadro 2.7: Valores obtenidos a partir de (2.72).
El próximo ejemplo prueba que el método de Newton-Raphson produce una
sucesión que tiende casi a repetirse (esto es lo que se llama un ciclo atractor).
Ejemplo 11. Aplicaremos el método de Newton-Raphson a la ecuación x3 −x−3 = 0
iniciando el proceso para x0 = 0.
38
CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON
Solución 11.
1. Construcción de la función de iteración.
xn+1 = xn −
x3n − xn − 3
2x3 + 3
= n2
.
2
3xn − 1
3xn − 1
(2.75)
Realicemos un análisis de la función de iteración (2.75).
2. Determinemos y caractericemos sus puntos fijos.
xn+1 = g(x)
donde
g(x) =
2x3 + 3
,
3x2 − 1
(2.76)
si g(x) = x, se sigue
2x3 + 3
= x ⇔ x∗ = 1.6717.
3x2 − 1
Luego, sustituyendo x∗ = 1.6717 en la derivada de (2.76) se obtiene que
g 0 (x∗ ) < 1, es decir, (2.75) posee un punto fijo atractor.
Veamos ahora la monotonía de (2.76).
Notemos que a partir del denominador
√
de (2.76) se obtiene que x = ±1/ 3.
10
5
-3
-2
1
-1
2
3
-5
-10
Figura 2.20: Gráfica de la función asociada al método de Newton, g(x) =
2x3 +3
3x2 −1
Observando la gráfica (2.20) se verifica que (2.76) es monótona creciente en los
intervalos (−∞, − √13 ), (− √13 , 0) y (x∗ , +∞).
Analicemos el comportamiento de (2.76) cuando x0 ≥ x∗ . En efecto, si
x0 ≥ x∗
entonces xn → x∗ de forma decreciente, es decir
xn+1 < xn ,
∀n ≥ 0
y
5
4
3
2
x*
2
3
4
5
x
Figura 2.21: Comportamiento de (2.76) cuando x0 ≥ x∗
2.5. EJEMPLOS NUMÉRICOS
39
Si x0 ∈ ( √13 , x∗ ), entonces x1 > x∗ , luego, por el caso anterior también convergerá
a x∗ , pues
xn+1 < xn ,
∀n ≥ 1
y
6
4
2
1
x*
2
3
4
5
x
-2
Figura 2.22: Comportamiento de (2.76) cuando x0 ∈ ( √13 , x∗ )
En un entorno de cero (−, ), si x0 ∈ (−, ), entonces xn presentará ciclos.
Experimentalmente se ha comprobado que ≈ 0.058.
y
-3
-2
1
-1
2
x
-5
-10
-15
-20
-25
Figura 2.23: Iteraciones del método de Newton-Raphson para f (x) = x3 − x − 3
En cualquier otro caso, se tiene convergencia, ya que
Si x0 > x∗ , entonces xn converge monótonamente a x∗ .
Si x0 < x∗ y x0 6= (−, ) llega el momento en el que xn > x∗ , luego también
converge.
Ejemplo 12. Dada la ecuación f (x) = cos(x) aplicaremos el método de NewtonRaphson, utilizando una aproximación inicial x0 = 3,0. Comprobaremos que el método de Newton-Raphson produce una sucesión que converge a una solución no esperada.
Solución 12.
1. Gráfica de la función.
40
CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON
y
1.0
0.5
-6
-4
2
-2
4
6
x
-0.5
-1.0
Figura 2.24: Iteraciones del método de Newton-Raphson para f (x) = cos(x)
Se observa que existen infinitas raíces: (2k + 1)π/2, k ∈ Z. Tomando una
aproximación inicial x0 = 3, se espera que converja a una de las soluciones
más próximas: π/2 ó 3π/2. Sin embargo, converge a −3π/2, como se ve en el
cuadro (2.8).
n
0
1
2
3
4
5
6
xn
3.00000
-4.01525
-4.85266
-4.71146
-4.71239
-4.71239
-4.71239
Cuadro 2.8: Valores obtenidos al aplicar el método de Newton-Raphson a f (x) =
cos(x)
La tabla muestra que el método de Newton-Raphson no converge a la solución
esperada, esto es debido a que la pendiente de la derivada de la función es muy
pequeña y la recta tangente a la función es casi horizontal. Además, se tomó una
aproximación inicial que coincidía con el punto de inflexión de la curva que representa
la función.
El ejemplo siguiente muestra una ecuación cuyas raíces son complejas.
Ejemplo 13. Dada la ecuación x2 − 2x + 5 = 0, aplicaremos el método de NewtonRaphson tomando a x0 = 3,5 como la aproximación inicial.
Solución 13.
1. Construcción de la función de iteración.
xn+1
=
=
5 − 2xn + x2
,
−2 + 2xn
−5 + x2n
.
2(−1 + xn )
xn −
(2.77)
Análicemos a 2.77. Veamos si tiene puntos fijos.
xn+1 = h(xn )
donde
h(x) =
−5 + x2
,
2(−1 + x)
(2.78)
2.5. EJEMPLOS NUMÉRICOS
41
pero h(x) = x ⇔ x = 1 ± 2i, luego (2.77) tampoco tiene puntos fijos.
6
4
2
-4
2
-2
4
-2
-4
-6
Figura 2.25: Gráfica de la función h(x) =
−5+x2
2(−1+x)
Luego, véase Figura (2.26), para cualquier x0 , la función (2.78) presentará una
divergencia oscilatoria.
y
x0
x
Figura 2.26: Comportamiento de (2.78)cuando x0 < 0
y
50
40
30
20
10
-6
-4
-2
2
4
6
x
Figura 2.27: Iteraciones del método de Newton-Raphson para f (x) = x2 − 2x + 5
La gráfica comprueba que no existe solución real, pues la curva no corta al eje
0X.
42
CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON
x0
x1
x2
x3
x4
x5
..
.
x10
x11
..
.
x40
-4
-1.1
0.9023
21.4389
11.1216
5.8632
..
.
-23.6247
-11.2311
..
.
-10.5682
-0.7
1.3264
-4.9628
-1.6460
0.4328
4.2426
..
.
0.1392
2.8932
..
.
-2.4868
0.5
4.75
2.3416
0.1801
3.0295
1.0293
..
.
-2.9444
-0.4652
..
.
-1.3910
6.5
3.3863
1.3550
-4.4548
-1.3607
0.6667
..
.
-0.2840
1.9155
..
.
8.2370
10
5.2777
2.6713
0.6390
6.3603
3.3070
..
.
2.7082
0.6832
..
.
6.0321
Cuadro 2.9: Valores obtenidos al aplicar el método de Newton a f (x) = x2 − 2x + 5
La tabla muestra las sucesiones originadas a partir de diferentes valores iniciales,
las mismas oscilan de izquierda a derecha sin converger, por lo tanto ninguna de las
aproximaciones que se verifican son un valor aproximado de la raíz.
Capítulo 3
El método de Newton
aplicado a la ecuación de
Kepler
3.1.
Introducción histórica a la ecuación de Kepler.
Johannes Kepler (1571 − 1630) fue un astrólogo alemán nacido en Württemberg. Realizó sus estudios en la
Universidad de Tübingen, donde su maestro M. Mästlin
le inició en el sistema heliocéntrico de Copérnico. Enseñó matemática en Heidelberg y Tubinga. En su obra
Materium Cosmographicum mostró que los planos de las
órbitas planetarias son próximos entre sí, pero diferentes, y que las mismas pasan, no por el centro de la órbita
terrestre, como lo había establecido Copérnico, sino por
el sol. En 1600, un edicto de la iglesia católica le obliga
a renunciar a su cátedra en la universidad de Graz; emigrando a Dinamarca, donde inicia a trabajar con Tycho
Brahe. Kepler, a la muerte de Tycho Brahe, quedo en
Figura 3.1: Johannes
posesión de sus datos astronómicos, los cuales eran para
Kepler (1571 − 1630)
su época, los más precisos.
Fue alrededor del año 1609, cuando Kepler, en su libro Astronomia Nova, enunció
la ley de las órbitas, cuya expresión analítica es una ecuación algebraica no lineal de
la forma
f (E) = E − e sen E − M.
(3.1)
Para la solución de la ecuación de Kepler es necesario conocer los valores de la
anomalía media, M , y de la excentricidad, e, de la órbita. La ecuación de Kepler fue
una de las primeras ecuaciones que mediante métodos numéricos se le dio solución.
Desde los días de Newton este problema a sido extensamente estudiado y su solución
se a conseguido de diversas maneras. Esto, como lo establece Danby, [17] , demuestra
que el tema es abierto y existen muchas posibilidades para promover la invención de
nuevas alternativas de solución.
Veamos algunos momentos importantes en la solución de (3.1).
Jacques Cassini, [11], publicó un artículo en el cual emplea un método geométrico
para dar solución a la ecuación de Kepler. Para la anomalía excéntrica obtuvo la
expresión
1
1
EC = M + .
(3.2)
2
2
Jeremiah Horrocks, en 1638, describe un método basado en diferencias apróxi43
44
CAPÍTULO 3. EL MÉTODO DE NEWTON APLICADO A LA EK
madas, para tal caso emplea la fórmula
EH − M = e sen EH = sen(EH − M ).
(3.3)
Donde
1 3
e sen3 M + E.
6
Peder Horrebow, en 1717, obtuvo una solución de la ecuación de Kepler que está
estrechamente relacionada a la solución de Horrocks. Los detalles de la solución están
contenidos en unos artículos publicados en 1717 y 1718, los cuales fueron compilados
en 1742 en un manuscrito titulado Adytum Astronomiae.
EH ≈
E = M − e sen(∠BCF ).
(3.4)
Donde ∠BCF es E0 .
Cristopher Wren, en 1658, ofrece una solución de la ecuación de Kepler basada
en las cicloides, la misma aparece en un tratado publicado por John Wallis, [89]. La
solución que aparece en la sección De problemate Kepleriano per cycloidem solvendo
es
E = M − e sen E = |OH| + |HF | = |OF |.
(3.5)
Isaac Newton, en el Libro I, proposición 31 de la Principia de 1686, emplea la
construcción de Wren para ubicar la posición de un planeta en una órbita elíptica,
pero luego, en el Scholium, presenta una forma más práctica de resolver ese problema.
John Couch Adams, en [1], presenta un método basado en la curva de los senos.
E = M − e sen E.
(3.6)
T. Levi-Civita, [51], presenta una interesante solución a la ecuación de Kepler en
forma de series infinitas. Su trabajo fue puramente analítico. Demostró que si
√
e exp( 1 − e2 )
√
z=
, 0 ≤ e < 1,
(3.7)
1 + 1 − e2
entonces la ecuación de Kepler tendrá por solución a
E=
∞
X
Ln (M )z n ,
0 ≤ z < 1.
(3.8)
n=0
K. Stumpff, [80], aplicó las series de Lie a algunos problemas de la mecánica
celeste, obteniendo una solución en series de Lie para la ecuación de Kepler.
∞
h
i X
(M − M0 )n n
E = exp (M − M0 )D(x)|x=E0 =
D (x)|x=E0 ,
n!
n=0
(3.9)
donde D(x) es un operador lineal de la forma
D(x) =
1
.
1 − e cos x
(3.10)
En este acápite se considera la famosa ecuación de Kepler, consúltese (2.1), donde
e y M son conocidos, como función test para analizar diversos resultados de convergencia semilocal para el método de Newton-Raphson. En concreto, se estudian
los resultados dados por Kantorovich ([46]) y Smale ([77], [87]) y algunas de sus
variantes ([35], [88]). Dichos resultados, además de garantizar la convergencia del
método de Newton-Raphson a una solución de (2.1), pueden verse también como
unos resultados de existencia y unicidad de solución para la ecuación de Kepler.
Así, y generalizando el trabajo realizado en [97], obtendremos distintos dominios de
existencia y unicidad de la forma
[M − t∗ , M + t∗ ]
y (M − t∗∗ , M + t∗∗ ), respectivamente.
3.2. EL TEOREMA DE KANTOROVICH
45
Los valores de t∗ y t∗∗ están dados en función de la excentricidad e de la órbita.
Tanto en la teoría de Kantorovich como en la de Smale (α-teoría), la idea de
la demostración consiste en construir una función mayorizante de la cual obtener
información sobre la convergencia del método de Newton-Raphson.
Así, sea φ(t) una función mayorizante obtenida por alguna de las teorías consideradas. Se comprobará que φ(t) tiene dos raíces: t∗ y t∗∗ que son las que proporcionan
los dominios de existencia y unicidad buscados.
Aunque la idea que presentamos se aplica a la ecuación de Kepler, se podría
seguir el mismo esquema para otros tipos de ecuaciones: Complejas, sistemas de
ecuaciones, ecuaciones funcionales, etc.
En lo que sigue:
1. Vamos a construir la función mayorizante para la ecuación de Kepler siguiendo
4 teorías:
i) Kantorovich, ([46]).
ii) Gutiérrez, ([35]).
iii) α-teoría de Smale (artículo de Zhen-Shi-Ming), ([97]).
iv) α-teoría de Wang-Zhao, ([87]).
2. Vamos a ver bajo qué condiciones la correspondiente función mayorizante tiene
raíces reales. Esto nos va a dar un resultado que garantiza la existencia de
solución para la ecuación de Kepler en términos de la excentricidad e.
3. Vamos a determinar los correspondientes dominios de existencia y unicidad en
cada caso.
3.2.
El teorema de Kantorovich
Teorema 9. Si e ≤ 0.4142, entonces la ecuación de Kepler tiene solución. Dicha
solución está localizada en el intervalo
y es única en
[M − t∗ , M + t∗ ].
(3.11)
(M − t∗∗ , M + t∗∗ ),
(3.12)
donde
∗
=
t∗∗
=
t
1−
√
1 − 2δ
.
√δ
1 + 1 − 2δ
,
δ
son las raíces del polinomio mayorizante
p(t) =
1 2
δt − t + δ,
2
con δ =
e
.
1−e
Además, el método de Newton-Raphson, definido por
En+1 = En −
f (En )
,
f 0 (En )
n ≥ 0,
(3.13)
iniciando en E0 = M , converge a dicha solución.
Demostración. Tomemos E0 = M en el teorema de Kantorovich. Luego se deben
cumplir las siguientes condiciones:
i) f 0 (E0 ) 6= 0.
46
CAPÍTULO 3. EL MÉTODO DE NEWTON APLICADO A LA EK
ii)
iii)
f (E0 )
f 0 (E0 )
≤ β.
f (E)−f (y)
f 0 (E0 )
≤ γ(E − y),
∀E, y ∈ I.
iv) h = γβ ≤ 12 .
Para ello, calcularemos los parámetros β y γ.
Notemos que
f 0 (E) = 1 − e cos E ⇒ |f 0 (E0 )| ≥ 1 − e.
f 0 (y) = 1 − e cos y.
|f (E0 )| ≤ |e sen E0 | ≤ e.
0
|f (E) − f 0 (y)| = e| cos E − cos y| ≤ e|E − y|.
Así
f (E0 )
e
≤
= β = δ.
0
f (E0 )
1−e
Además
f (E) − f (y)
e
≤
|E − y|,
f 0 (E0 )
1−e
Luego
h = γβ = δ 2 =
por lo que γ = δ.
e 2
1
≤ .
1−e
2
Y por tanto
2e2 ≤ (1 − e)2 ⇔ 2e2 ≤ 1 − 2e + e2 ⇔ 0 ≤ 1 − 2e − e2 ⇔ 0 ≤ 2 − (1 − 2e + e2 ).
Luego
√
√
0 < 2 − (1 + e2 ) ⇔ (1 + e)2 ≤ 2 ⇔ − 2 ≤ 1 + e ≤ 2.
(3.14)
Tomando la parte positiva de (3.14) se sigue
√
√
1 + e ≤ 2 ⇔ e ≤ 2 − 1 ≈ 0.4142.
Notemos que la condición e ≤ 0.4142 garantiza tres cosas:
1. La ecuación de Kepler tiene solución: E ∗ .
2. El polinomio mayorizante p(t) = 1/2δt2 − t + δ tiene soluciones reales: t∗ y t∗∗ .
3. E ∗ está localizada en el intervalo [M − t∗ , M + t∗ ] y es la única solución en
(M − t∗∗ , M + t∗∗ ).
Por último, el método de Newton-Raphson definido por (3.13), iniciando en E0 =
M , converge a E ∗ .
3.3.
El teorema de Gutiérrez
Como vimos en el acápite anterior, el teorema de Kantorovich presenta las siguientes condiciones:
i) x0 ∈ I.
ii) f 0 (x0 ) 6= 0.
iii)
f (x0 )
f 0 (x0 )
iv)
f 0 (x)−f 0 (y)
f 0 (x0 )
≤ β.
≤ γ|x − y|,
∀x, y ∈ I.
3.3. EL TEOREMA DE GUTIÉRREZ
47
v) h = γβ ≤ 1/2.
En 1997, José Manuel Gutiérrez presentó un nuevo teorema de convergencia
semilocal para el método de Newton-Raphson. En dicho teorema Gutiérrez no toma
en cuenta la condición v) de Kantorovich, sino que la sustituye por dos expresiones
en que se aplica la derivada segunda de la función en x
1.
f 00 (x0 )
f 0 (x0 )
2.
f 00 (x)−f 00 (x0 )
f 0 (x0 )
≤ b.
≤ K|x − x0 |.
Además, aplica la condición iii) en la forma
f (x0 )
≤ a,
f 0 (x0 )
con lo que se obtiene el nuevo polinomio mayorizante
b
K
p(t) = a − t + t2 + t3 .
2
6
(3.15)
Los detalles de la demostración de éste teorema se encuentran en [35]. A continuación analizaremos su aplicación al caso de la ecuación de Kepler.
Teorema 10. Si e ≤ 0.3759, entonces la ecuación de Kepler tiene solución. Dicha
solución está localizada en el intervalo (3.11) y es única en (3.12) donde t∗ y t∗∗
son las raíces del polinomio mayorizante
1
1
p(t) = δ − t + δt2 + δt3 ,
2
6
con δ =
e
.
1−e
Además, el método de Newton-Raphson, definido por (3.13), iniciando en E0 =
M , converge a dicha solución.
Demostración. Tomemos a E0 = M en el teorema de Gutiérrez. Luego se deben
cumplir las siguientes condiciones:
i)
f (E0 )
f 0 (E0 )
≤ a.
ii)
f 00 (E0 )
f 0 (E0 )
≤ b.
iii)
f 00 (E)−f 00 (E0 )
f 0 (E0 )
≤ K|E − E0 |.
Ahora calcularemos los parámetros a, b y K. Observemos que
f 0 (E) = 1 − e cos E ⇒ |f 0 (E0 )| = |1 − e cos E| ≥ 1 − e.
f 00 (E) = e sen E ⇒ |f 00 (E0 )| = |e sen E0 | ≤ e.
|f 00 (E) − f 00 (E0 )| =
e| sen E − sen E0 | ≤ e|E − E0 |.
luego
f (E0 )
f 0 (E0 )
f 00 (E0 )
f 0 (E0 )
00
f (E) − f 00 (E0 )
f 0 (E0 )
≤
≤
≤
e
= a.
1−e
e
= b.
1−e
e
e
|E − E0 | ⇒ K =
.
1−e
1−e
Así
a=b=K=
e
= δ.
1−e
(3.16)
48
CAPÍTULO 3. EL MÉTODO DE NEWTON APLICADO A LA EK
Sustituyendo (3.16) en (3.15) se obtiene
δ
δ
p(t) = δ − t + t2 + t3 .
2
6
(3.17)
cuya gráfica es
p HtL
m
t*
M
t*
*
Figura 3.2: Gráfica del polinomio mayorizante p(t) = δ − t + 2δ t2 + 6δ t3
En donde M y m representan el máximo y el mínimo de la función p(t) respectivamente, analicemos a (3.17).
p0 (t) =
p00 (t) =
1
−1 + δt + δt2 ⇒ p0 (0) = −1 < 0.
2
δ + δt > 0, ∀δ > 0.
Entonces existe un único mínimo t̂ tal que p0 (t̂) = 0. Luego
r
√
−δ ± δ 2 + 2δ
2
0
p (t̂) = 0 ⇔ t̂ =
= −1 ± 1 + .
δ
δ
Tomando la raíz positiva se sigue
r
2
1+ .
δ
t̂ = −1 +
Notemos que haciendo
∆ = 1/δ,
t̂ = −1 +
y
p(t̂) =
se sigue
√
(3.18)
1 + 2∆.
1
1
1
(1 − ∆t̂ + t̂2 + t̂3 ).
∆
2
6
(3.19)
Apliquemos la condición de convergencia a (3.19). Sea p(t̂) < 0, luego
p(t̂) =
=
=
1
1
1
(1 − ∆t̂ + t̂2 + t̂3 ).
∆
2
6
√
√
1
(4 − 1 + 2∆ + ∆(3 − 2 1 + 2∆)) < 0.
3∆
1√
2 √
1 4
( +∆−
1 + 2∆ − ∆ 1 + 2∆) < 0.
∆ 3
3
3
(3.20)
Recordemos que ∆ > 0, luego (3.20) será cierto si y solo si
1√
2 √
4
+∆−
1 + 2∆ − ∆ 1 + 2∆ < 0.
3
3
3
(3.21)
3.4. LA α-TEORÍA DE SMALE
49
De (3.21) se sigue
4 + 3∆
(4 + 3∆)2
16 + 24∆ + 9∆2
<
<
<
√
√
√
3
1 + 2∆ + ∆ 1 + 2∆ = 1 + 2∆(1 + 2∆) = (1 + 2∆) 2 .
(1 + 2∆)3 .
1 + 6∆ + 12∆2 + 8∆3 .
Luego
8∆3 + 3∆2 − 18∆ − 15 > 0 ⇔ ∆ ≈ 1.66032.
(3.22)
Sustituyendo (3.22) en (3.18) se sigue
δ<
1
.
∆
(3.23)
Sustituyendo (3.23) en (3.16)
e
1
1
<
⇔e<
≈ 0.3759.
1−e
∆
1+∆
Notemos que la condición e ≤ 0.3759 también nos garantiza tres cosas:
1. La ecuación de Kepler tiene solución: E ∗ .
2. El polinomio mayorizante p(t) = δ − t + 12 δt2 + 16 δt3 tiene dos soluciones reales:
t∗ y t∗∗ .
3. E ∗ está localizada en el intervalo [M − t∗ , M + t∗ ] y es la única solución en
(M − t∗∗ , M + t∗∗ ).
Por último, el método de Newton-Raphson definido por (3.13), iniciando en E0 =
M , converge a E ∗ .
3.4.
La α-teoría de Smale
Teorema 11. Si e ≤ 0.3594, entonces la ecuación de Kepler tiene solución. Dicha
solución está localizada en el intervalo (3.11) y es única en (3.12) donde t∗ y t∗∗
son las raíces de la función mayorizante
φ(t) = δ − t +
γt2
.
1 − γt
Con δ definido en 3.16 y
γ = sup(
k≥2
1
δ k−1
)
.
k!
Además, el método de Newton-Raphson, definido por (3.13), iniciando en E0 =
M , converge a dicha solución.
Demostración. Tomemos a E0 = M en el teorema de la α-teoría de Smale. Luego
se deben cumplir las siguientes condiciones:
i) f 0 (E0 ) 6= 0.
ii) β(E0 , f ) =
iii)
(k)(E0 )
1 f
k! f 0 (E0 )
f (E0 )
f 0 (E0 )
.
≤ γ k−1 ,
√
iv) α = βγ ≤ 3 − 2 2.
k ≥ 2.
50
CAPÍTULO 3. EL MÉTODO DE NEWTON APLICADO A LA EK
Calculemos los parámetros β, γ y α.
Notemos que
f 0 (E) = 1 − e cos E
00
f (E) = e sen E
f 000 (E) = e cos E
|f 0 (E0 )| ≥ 1 − e.
⇒
⇒
⇒
..
.
|f k (E0 )| ≤ e,
|f 00 (E0 )| ≤ e.
|f 000 (E0 )| ≤ e.
k ≥ 2.
Así
β(E0 , f )
=
γ(E0 , f )
=
α
f (E0 )
e
≤
.
0
f (E0 )
1−e
1
1
h
i k−1
1 f (k) (E0 ) k−1
e
≤
, k ≥ 2.
k! f 0 (E0 )
k!(1 − e)
"
# 1
e k 1 k−1
√
= βγ ≤
≤ 3 − 2 2.
1 − e k!
Consideremos a (3.24)
Sea
"
e k 1
α≤
1 − e k!
1
# k−1
√
≤ α0 ≤ 3 − 2 2.
(3.24)
(3.25)
Luego, de (3.25) se sigue
e k 1
1 − e k!
e k
1−e
e 1−e
Ahora, sea
≤ α0k−1 .
≤ α0k−1 k!.
1
≤ (α0k−1 k!) k .
1
δk = (α0k−1 k!) k ,
(3.26)
k ≥ 2.
(3.27)
Necesitamos conocer el mínimo valor de δk .
De (3.27) se sigue
1
δk+1 = [α0k (k + 1)!] k+1 .
y
δkk = (α0k−1 k!),
k ≥ 2.
Por tanto
δk+1
δk
1
h
i k+1
α0k (k + 1)!
=
h
i k1
α0k−1 k!
=
=
α0
k
1
1
k+1
k+1
− k−1
−k
1
k
k!
(k + 1) k+1 .
1
h α (k + 1)k i k(k+1)
0
,
k!
k ≥ 2.
(3.28)
Ahora utilizaremos (3.28) para hallar el mínimo de δk . Lo haremos por inducción.
Si k = 2, luego
h 9α i 16
h 9(3 − 2√2) i 16
δ3
0
=
=
= 0,772 . . . < 1.
δ2
2
2
Entonces δ3 < δ2 .
3.5. LA α-TEORÍA DE WANG-ZHAO
51
Para k = 3 se sigue
1
1
h 64α i 12
h 64(3 − 2√2) i 12
δ4
0
=
=
= 1,83 . . . > 1.
δ3
9
9
Por tanto δ4 > δ3
Luego, si k ≥ 3, entonces
k+1
k+2
k+1 !
k
=
k + 2 k+1
k+1
k+1
> 1.
k!
Por tanto δk+1 > δk , ∀k ≥ 3.
Así, el mínimo corresponde a k = 3, luego
1
δ3 = [6α02 ] 3 = 0.5610688.
Conocido el ínfimo de δk , inmediatamente de (3.26) podemos conocer el mínimo
valor de e. Así
e
δ3
≤ δ3 ⇔ e ≤ (1 − e)δ3 ⇔ e(1 + δ3 ) ≤ δ3 ⇔ e ≤
≈ 0.3594.
1−e
1 + δ3
Notemos que la condición e ≤ 0.3594. otra vez nos garantiza tres cosas:
1. La ecuación de Kepler tiene solución: E ∗ .
2. La función mayorizante φ(t) = δ − t +
δ 2 t2
1−δt
tiene soluciones reales: t∗ y t∗∗ .
3. E ∗ está localizada en el intervalo [M − t∗ , M + t∗ ] y es la única solución en
(M − t∗∗ , M + t∗∗ ).
Por último, el método de Newton-Raphson definido por (3.13), iniciando en E0 =
M , converge a E ∗ .
3.5.
La α-teoría de Wang-Zhao
Como hemos visto, la α-teoría de Smale es una técnica muy conocida para estudiar la convergencia semilocal del método de Newton-Raphson, esto es, establece
sobre un punto inicial x0 y una función f ciertas condiciones que permiten al método
de Newton-Raphson converger.
Recordemos que las condiciones impuestas por la α-teoría son:
i) f 0 (x0 ) 6= 0.
ii)
iii)
f (x0 )
f 0 (x0 )
≤ β.
(k)
(x0 )
1 f
k! f 0 (x0 )
≤ γ k−1 ,
k ≥ 2.
√
iv) α = βγ ≤ 3 − 2 2.
También recordemos que que los resultados de la convergencia son probados a
partir de de la siguiente función mayorizante
φS (t) = β − t +
X
k≥2
γ k−1 tk = β − t +
γt2
.
1 − γt
52
CAPÍTULO 3. EL MÉTODO DE NEWTON APLICADO A LA EK
Wang y Zhao,[87], consideraron que la condición iv) es muy restrictiva y demostraron que la convergencia del método de Newton-Raphson se puede obtener,
además de las dos primeras condiciones, a partir de las condiciones del tipo
1 f (k) (x0 )
≤ γk ,
k! f 0 (x0 )
k ≥ 2,
y la función mayorizante
φW (t) = β − t +
X
γk tk .
(3.29)
k≥2
Notemos que γk ≤ γ k−1 , para k ≥ 2. Luego φW (t) ≤ φS (t), para t ≥ 0. En
consecuencia φS (t) mayoriza a φW (t), por tanto φS (t) = 0 implica que φW (t) = 0,
pero no lo contrario.
El trabajo de Wang y Zhao tiene un gran significado teórico, pues los mismos pueden ser aplicados a situaciones donde la α-teoría de Smale falla. En [34] encontramos
un ejemplo que ilustra éste caso.
A continuación presentamos un teorema en el que se aplica la α-teoía de WangZhao a la ecuación de Kepler.
Teorema 12. Si e ≤ 0.3678, entonces la ecuación de Kepler tiene solución. Dicha
solución está localizada en el intervalo (3.11) y es única en (3.12) donde t∗ y t∗∗
son las raíces de la función mayorizante
φ(t) = δ exp(t) − (1 + δ)t,
con δ =
e
.
1−e
Además, el método de Newton-Raphson, definido por (3.13), iniciando en E0 =
M , converge a dicha solución.
Demostración. Tomemos a E0 = M en el teorema de la α-teoría de Wang-Zhao.
Luego se deben cumplir las siguientes condiciones:
i) f 0 (E0 ) 6= 0.
ii) β(E0 , f ) =
iii)
(k)
(E0 )
1 f
k! f 0 (E0 )
f (E0 )
f 0 (E0 )
.
≤ γk ,
k ≥ 2.
Para ello calcularemos los parámetros β y γ.
Observar que
f 0 (E) = 1 − e cos E
f 00 (E) = e sen E
⇒
⇒
|f 0 (E0 )| ≥ 1 − e.
|f 00 (E0 )| ≤ e.
f 000 (E) = e cos E
⇒
..
.
|f 000 (E0 )| ≤ e.
|f k (E0 )| ≤ e,
k ≥ 2.
Así
β(E0 , f ) =
1 f (k) (E0 )
k! f 0 (E0 )
≤
f (E0 )
e
, por tanto β = δ.
≤
f 0 (E0 )
1−e
δ
1 e = γk , por lo que γk = .
k! 1 − e
k!
(3.30)
(3.31)
3.5. LA α-TEORÍA DE WANG-ZHAO
53
Sustituyendo (3.30) y (3.31) en (3.29) se sigue
X
X 1
δ−t+
γk tk = δ − t +
δtk .
k!
k≥2
k≥2
=
δ−t+δ
X tk
k≥2
=
=
k!
.
δ − t + δ[exp(t) − 1 − t].
δ exp(t) − (1 + δ)t = p(t).
(3.32)
Cuya gráfica es
p HtL
m
Figura 3.3: Gráfica del polinomio mayorizante p(t) = δ exp(t) − (1 + δ)t
En donde m también representa el mínimo de la función p(t), analicemos a (3.32)
p0 (t) =
p00 (t) =
δ[exp(t)] − (1 + δ) ⇒ p0 (0) = δ − 1 − δ = −1 < 0.
δ[exp(t)] ⇒ f 00 (t) > 0, ∀t > 0.
Luego, existe un único mínimo t̂ tal que p0 (t̂) = 0. Notar que
p0 (t̂) = δ[exp(t̂)] − (1 + β) = 0.
Por tanto
δ[exp(t̂)] = 1 + δ ⇔ exp(t̂) =
1+δ
1
⇔ exp(t̂) = 1 + .
δ
δ
Luego
1
t̂ = ln(1 + ).
(3.33)
δ
Ahora analicemos la condición de convergencia de p(t̂). Sea p(t̂) < 0, luego
p(t̂) = δ[exp(t̂)] − (1 + δ)t̂ < 0.
Sustituyendo (3.33) en (3.34) se sigue
h
1
1 i
− (1 + δ) ln 1 +
< 0.
p(t̂) = δ exp ln 1 +
δ
δ
1
1
− (1 + δ) ln 1 +
< 0.
= δ 1+
δ
δ
1
= (1 + δ) − (1 + δ) ln 1 +
< 0.
δ
i
h
1
< 0.
= (1 + δ) 1 − ln 1 +
δ
Recordemos que (1 + δ) > 0, luego (3.35) será cierto si y sólo si
1
1 − ln 1 +
< 0.
δ
(3.34)
(3.35)
(3.36)
54
CAPÍTULO 3. EL MÉTODO DE NEWTON APLICADO A LA EK
De (3.36) sigue
1
1
1
1 < ln 1 +
⇔ exp(1) < 1 + ⇔ exp(1) − 1 < .
δ
δ
δ
Luego
δ=
1
.
exp(1) − 1
(3.37)
Sustituyendo (3.30) en (3.37)
e
1
1
<
⇔ e exp(1) − e < 1 − e ⇔ e <
≈ 0.3678.
1−e
exp(1) − 1
exp(1)
Notemos que la condición e ≤ 0.3678. también nos garantiza tres cosas:
1. La ecuación de Kepler tiene solución: E ∗ .
2. La función mayorizante φ(t) = δ exp(t) − (1 + δ)t tiene soluciones reales: t∗ y
t∗∗ .
3. E ∗ está localizada en el intervalo [M − t∗ , M + t∗ ] y es la única solución en
(M − t∗∗ , M + t∗∗ ).
Por último, el método de Newton-Raphson definido por (3.13), iniciando en E0 =
M , converge a E ∗ .
3.6.
Ejemplos numéricos.
En esta sección describiremos el comportamiento de los radios de existencia, t∗ ,
y de los radios de unicidad, t∗∗ , bajo las diferentes teorías estudiadas. Así, t∗K , t∗G ,
t∗S and t∗W −Z , serán los radios de existencia obtenidos bajos las condiciones de las
teorás de Kantorovich, Gutiérrez, Smale y wang-Zhao respectivamente. Asimismo,
∗∗ ∗∗
∗∗
t∗∗
K , tG , tS and tW −Z serán los radios de unicidad.
Condición
Kantorovich
Gutiérrez
α-teoría de Smale
α-teoría de Wang-Zhao
t∗
√
1− 1−2δ 2
δ
t∗∗
√
1+ 1−2δ 2
δ
Menor raíz√positiva de p(t)
3
3 2
3
Mayor raíz√positiva de p(t)
3
3 2
3
Menor raíz positiva de φ(t)
Mayor raíz positiva de φ(t)
(1+δ )−
(1+δ ) −8δ
4δ 2
(1+δ )+
(1+δ ) −8δ
4δ 2
Cuadro 3.1: Radios de existencia, t∗ , y de unicidad, t∗∗ , en función del parámetro
δ.
En concreto, véase el Cuadro 3.1, si tomamos E0 = M e introducimos el parámee
tro δ = 1−e
, siendo e la excentricidad de la elipse, podemos ver en qué condiciones
se asegura la existencia y unicidad de solución para la ecuación de Kepler.
Condición
Kantorovich
Gutiérrez
α-teoría de Smale
α-teoría de Wang-Zhao
Función mayorizante
p(t) = 12 δt2 − t + δ
p(t) = δ − t + 21 δt2 + 16 δt3
γt2
φ(t) = δ − t + 1−γt
, γ = supk≥2 (δ/k!)1/(k−1)
φ(t) = δ exp(t) − (1 + δ)t
e
e ≤ 0.4142
e ≤ 0.3759
e ≤ 0.3594
e ≤ 0.3678
Cuadro 3.2: Funciones mayorizantes en función del parámetro δ y valores de e para
los cuales existe solución
Comparando los dominios de existencia y unicidad de solución obtenidos según
las distintas técnicas, véase el Cuadro 3.2. Se observa que, bajo las condiciones
3.6. EJEMPLOS NUMÉRICOS
55
de Cauchy-Kantorovich, la ecuación de Kepler posee el mayor rango de solución
(e ≤ 0.4142).
La comparación, véase nuevamente el Cuadro 3.2, también nos permite verificar
que bajo las condiciones del teorema de Gutiérrez, la ecuación de Kepler posee un
rango de solución, (e < 0.3759), mayor que bajo las condiciones de la α-teoría de
Wang-Zhao, (e < 0.3678), y de la α-teoría de Smale (e ≤ 0.3594).
t∗K
0.269
[-0.24, 0.29]
0.079
[2.08, 2.24]
Casos
Mercurio
Hungaria
t∗G
0.268
[-0.24, 0.29]
0.079
[2.08, 2.24]
t∗S
0.267
[-0.24, 0.29]
0.079
[2.08, 2.24]
t∗W −Z
0.263
[-0.24, 0.28]
0.079
[2.08, 2.24]
Cuadro 3.3: Dominios de existencia de solución, según las teorías en dos casos reales.
Aplicando los resultados obtenidos a dos casos reales, en concreto, se analizan los
caso del planeta Mercurio, cuya e = 0.205 y M = 0.0067π, y del asteroide Hungaria,
para el cual e = 0.073 y M = 0.69π, e comprueba que los dominios de existencia de
solución, véase Cuadro 3.3, para las diferentes técnicas aplicadas, son prácticamente
iguales.
Casos
Mercurio
Hungaria
t∗∗
K
7.459
(-7.43, 7.48)
25.09
(-22.9, 27.2)
t∗∗
G
3.363
(-3.34, 3.38)
7.271
(-5.10, 9.43)
t∗∗
S
3.739
(-3.719, 3.761)
12.659
(-10.4, 14.8)
t∗∗
W −Z
7.330
(-7.31, 7.35)
79.166
(-77.0, 81.3)
Cuadro 3.4: Dominios de unicidad de solución, según las teorías en dos casos reales.
En cuanto a los dominios de unicidad de solución, consúltese el cuadro 3.4, se verifica que bajo las condiciones de la Gutiérrez y de Kantorovich, el planeta Mercurio
posee el menor y mayor dominio de unicidad respectivamente. Asimismo, para las
condiciones de Gutiérrez y la α-teoría de Wang-Zhao, el asteroide Hungaria posee
el menor y mayor dominio de unicidad respectivamente.
Finalmente, hacemos un estudio comparativo de cómo se comportan los radios
de existencia y unicidad de solución para la ecuación de Kepler, obtenidos a partir
de los diferentes resultados de convergencia semilocal estudiados. Analizamos su
comportamiento en función de la excentricidad e.
e
0,05
0,1
0,15
0,2
0,25
0,3
0,35
t∗K
0.0527047
0.111806
0.179307
0.258343
0.354249
0.477412
0.653407
t∗G
0.052706
0.111832
0.179483
0.259118
0.357119
0.487869
0.702381
t∗S
0.0530554
0.113400
0.183295
0.266465
0.369312
0.505545
0.724562
t∗W −Z
0.052706
0.111833
0.179491
0.259171
0.357403
0.489402
0.716639
Cuadro 3.5: Dominios de existencia.
Entre el dominio de existencia y la excentricidad, consúltese el cuadro 3.5, existe
una relación directamente proporcional.
Para una misma excentricidad, véase nuevamente el cuadro 3.5, los dominios
de existencia que representan cada una de las teorías estudiadas son prácticamente
iguales.
56
CAPÍTULO 3. EL MÉTODO DE NEWTON APLICADO A LA EK
e
0,05
0,1
0,15
0,2
0,25
0,3
0,35
t∗∗
K
37.9473
17.8882
11.154
7.74166
5.64575
4.18925
3.06088
t∗∗
G
9.25181
5.93227
4.40664
3.45089
2.75074
2.17266
1.60847
t∗∗
S
3.33209
2.80848
2.45821
2.14796
1.87743
1.62167
1.31745
t∗∗
W −Z
4.49976
3.57715
2.99359
2.54264
2.15329
1.78134
1.34972
Cuadro 3.6: Dominios de unicidad.
Entre el dominio de unicidad y la excentricidad, véase el cuadro 3.6, existe una
relación inversamente proporcional.
Con la misma excentricidad, consúltese nuevamente el cuadro 3.6, en cada teoría
se obtienen dominios de unicidad completamente diferentes.
Bibliografía
[1] J. C. Adams: On Newton’s solution of Kepler’s problem. Monthly Notices of
Royal Astronomical Society, Vol. 43, (1882) pp. 43–49.
[2] S. Amat, S. Busquier, J. M. Gutiérrez, Geometric constructions of iterative
functions to solve nonlinear equations, Journal of Computational and Applied
Mathematics, 157 (2003) 197–205.
[3] S. Amat, S. Busquier, D. El Kebir, J. Molina, A fast Chebyshev’s method for
quadratic equations, Applied Mathematics and Computation, 148 (2004) 461–
474.
[4] I. K. Argyros, Newton methods. Nova Science Publisher, Inc, New York, 2004.
[5] A. Aubanell. A. Benseny y A. Delshams, Útiles básicos de cálculo numérico,
Editorial Labor, S. A, Barcelona, España, 1993.
[6] D. K. R. Babajee and M. Z. Dauhoo, An analysis of the properties of the variants
of Newton’s method wiht third order convergence, Applied Mathematics and
Computation, 183, Issue 1 (2006) 659–684.
[7] R. G. Bartle, Introducción al análisis matemático, Editorial Limusa, S. A, México. 1980.
[8] A. Ben-Israel, Newton’s Method with modified funtions, Contemporary Mathematics, 204 (1997) 39–50.
[9] R. Burden and D. Faires, Análisis Numérico, Grupo Editorial Iberoamérica,
España, 1985.
[10] B. Carnahan and H. A. Luther, Applied Numerical Method, John Wiley and
Sons, New York, 1969.
[11] J. D. Cassini: Nouvelle manière géometrique et directe de trauver les apogées,
les excentricités, et les anomalies du mouvement des planètes. Memoires de l’
Académie Royale des Science, Vol. 10, (1669) pp. 488–491.
[12] A. L. Cauchy, Leçons sur le Calcul Differentiel, Sur la détermination approximative des racines d’une équation algébrique ou transcendante, París, 1829.
[13] S. C. Chapra and R. P. Canale, Numerical methods for engineers, McGrau-Hill,
1998.
[14] J. Chavarriga, I. A. García, J. Giné, Manual de métodos numéricos, Ediciones
de la Universidad de Lleida, 1998.
[15] A. M. Cohen, Análisis Numérico, Editora Reverté, S.A, 1977.
[16] D. Conte y C. De Boor, Análisis Numérico elemental, McGrau-Hill. Inc, USA,
1972.
[17] J. M. A. Danby and T. M. Burkardt: The solution of Kepler equation I. Celestial
Mechanics, Vol. 31, (1983) pp. 95–107.
57
58
BIBLIOGRAFÍA
[18] J. P. Dedieu and M. H. Kim, Newton’s method for analytic system of equations
with constant rank derivatives, Journal of Complexity, 18 (2002) 187–209.
[19] G. C. Donovan, A. R. Miller and T. J. Moreland, Pathological functions for
Newton’s method, American Mathematical Monthly, 100 (1993) 53–58.
[20] N. L. De la Caille, Sur les éléments de la théorie du soleil, Premier Mémoire,
Mémoires de l’Académie Royale des Sciences, A2 (1750) 166–178.
[21] J. M. Díaz y F. B. Trujillo, Introducción a los métodos numéricos para la resolución de ecuaciones, Servicio de publicaciones de la Universidad de Cádiz,
1998.
[22] P. Díez, A note on the convergence of the Secant Method for simple and multiple
roots, Applied Mathematics Letters, 16 (2003) 1211–1215.
[23] J. A. Ezquerro, J. M. Gutiérrez, M. A. Hernández y M. A. Salanova, El método de Halley: Posiblemente, el método más redescubierto del mundo,Margarita
Mathematica, Servicio de Publicaciones de la Universidad de la Rioja, Logroño,
2001.
[24] J. A. Ezquerro, Construcción de procesos iterativos mediante aceleración del
método de Newton, Tesis Doctoral, Servicio de Publicaciones de la Universidad
de la Rioja, Logroño, 1996.
[25] W. F. Ford and J. A. Pennline, Accelerate convergence in Newton’s method,
SIAM Review, 38 (1996) 658–659.
[26] J. S. Frame, A variation of Newton’s method. American Mathematical Monthly,
51 (1944) 36–38.
[27] C. E. Froberg, Introduction to numerical analysis, Addison-Wesley, Second edition, 1970.
[28] F. García y A. Nevot, Métodos numéricos en forma de ejercicios resueltos,
UPCU Departamento Publicaciones, Madrid, 1997.
[29] B. García, I. Higueras y T. Roldán, Análisis Matemático y Métodos Numéricos,
Universidad Pública de Navarra, Campus de Arrosadia, Pamplona, España,
2005.
[30] M. Gasca, Cálculo Numérico. Resolución de ecuaciones y sistemas, Editora
Librería Central, Zaragoza, 1987.
[31] E. Gaughan, Introducción al análisis, Editorial Alhambra S. A, Madrid, 1972.
[32] W. Gautschi, Numerical Analysis. An introduction, Birkhäuser Boston, USA,
1997.
[33] J. Gerlach, Accelerated convergence in Newton’s Method, SIAM Review, 36
(1994) 272–276.
[34] J. M. Gutiérrez, M. A. Hernández y M. Amparo Salanova, α-theory for nonlinear
Fredholm integral equations, Grazer Mathematische Berrichte, 346 (2004) 187–
196.
[35] J. M. Gutiérrez, A new semilocal convergence theorem for Newton’s method,
Journal of Computational and Applied Mathematics, 79 (1997) 131–145.
[36] J. M. Gutiérrez, El método de Newton en espacios de Banach, Tesis doctoral,
Universidad de La Rioja, Servicio de Publicaciones, Logroño, 1995.
[37] J. M. Gutiérrez y M. A. Hernández, A family of Chebyshev-Halley type method
in Banach spaces, Austral. Math. Soc. 55 (1997) 113–130.
BIBLIOGRAFÍA
59
[38] M. Grau: Eficiencia computacional de métodos iterativos con multiprescisión,
Comunicación particular.
[39] M. Grau and J. M. Gutiérez: Some family of zero-finder methods derive from
Obreshkov’s techiques, Comunicación particular.
[40] M. A. Hernández y M. A. Salanova, La convexidad en la resolución de ecuaciones escalares no lineales, Servicio de Publicaciones de la Universidad de la
Rioja, Logroño, 1996.
[41] F. H. Hildebrand, Introduction to Numerical Analysis, Dover Publications, Inc,
New York, 1974.
[42] P. Horton, No Fooling! Newton’s Method Can Be Fooled, Mathematics Magazine, 80 (2007) 383–387.
[43] J. A. Infante y J. M. Rey, Métodos numéricos. Teoría, problemas y prácticas
con MATLAB, Ediciones Pirámide, tercera edición, Madrid, 2007.
[44] L. V. Kantorovich, On Newton’s method for functional equations, Dokl. Akad.
Nauk, SSRR 59 (1948) 1237–1240.
[45] L. V. Kantorovich, The majorant principle and Newton’s method. Dokl. Akad.
Nauk, SSRR 76 (1951) 17–20.
[46] L. V. Kantorovich and G. P. Akilov, Functional Analysis, Pergamom, Oxford,
(1982).
[47] A. Kharab and R. B. Guen, An introduction to numerical methods. A MATLAB
approach, Chapman and Hall/ CRC, Florida, 2002.
[48] D. Kincaid, Análisis Numérico, Addison-Wesley Iberoamericana, 1991.
[49] E. Kobal, Notice concerned with the calculation of roots of numerical equations,
Monatsh. Math. 02 (2002) 331–332.
[50] R. J. Knill, A modified Babylonian algorithm, Amer. Math. Monthly, 99 (1997)
734–737.
[51] T. Levi-Civita: Sopra la equazione di Kepler. Astronomische Nachrichten, Vol.
164, (1904) pp. 313–314.
[52] O. M. López, Métodos iterativos de resolución de ecuaciones, Editorial Alhambra, S. A, Madrid, 1986.
[53] R. Lozada, Análisis Matemático, Ediciones Pirámide, Madrid, 1978.
[54] I. Martín. y V. M. Pérez, Cálculo numérico para computación en ciencia e
ingeniería. MATLAB, Editora Síntesis S.A, Madrid, 1998.
[55] V. Muto, Curso de métodos numéricos, Servicio editorial de la Universidad del
Pais Vasco, 1998.
[56] S. Nakamura, Análisis numérico y visualización gráfica con MATLAB, PrenticeHill Inc, A Simon y Schuster Company, Mexico, 1997.
[57] C. Neuhauser, Matemática para ciencias, Pearson Educación, S. A, Madrid,
2004.
[58] I. Newton, Sir Isaac Newton Mathematical Principles of Ntural Philosophy and
his System of the World, University of California Press, Berkeley, 1934.
[59] A. Newmaier, Introduction to numerical analysis, Cambridge University Press,
UK, 2001.
60
BIBLIOGRAFÍA
[60] J. M. Ortega and W. C. Rheinbolt, Iterative Solution of Nonlinear Equations
in Several Variables, SIAM, Philadelphia, 2000.
[61] M. A. Ostrowski, Solution of Equations and Sistems of Equations, Academic
Press, New York, 1966.
[62] M. A. Ostrowski, Solution of Equations in Euclidean and Banach Spaces, Academic Press, New York, 1976.
[63] A. Y. Özban, Some new variants of Newton’s method, Applied Mathematics
Letters, 17 (2004) 667–682.
[64] J. R. Pastor, P. Callejas y C. Trejo, Análisis Matemático, Editora Kapeluz,
Argentina, 1969.
[65] M. Pal, Numerical analysis for scientists and engineers, Alpha Science International Ltd, United Kingdom, 2007.
[66] A. Quarteroni y F. Saleri, Cálculo científico con MATLAB y Octave, SpringerVerlag, Roma, 2006.
[67] V. Ramírez, D. Barrera, M. Pasadas y P. González, Cálculo numérico con Mathematica, Editora Ariel, Barcelona, 2001.
[68] A. Ralston, Introducción al análisis numérico, Editora Limusa, México, 1978.
[69] F. J. Rodríguez, Cálculo y Métodos Numéricos. Teoría, Algoritmos y Problemas resueltos, Universidad Pontificia de Comillas, Colección Ingeniería, Madrid,
España, 2003.
[70] T. R. Scavo and J. B. Thoo, On the geometry of Halley’s method, American
Mathematical Monthly, 102 (2002) 417–426.
[71] F. Scheid, Análisis Numérico, McGrau-Hill, México, 1998.
[72] E. Schröder, On infinitely many algorithms for solving equations, Math. Ann.
02 (1870) 317–365.
[73] R. E. Scraton, Métodos numéricos básicos, McGrau-Hill, México, 1987.
[74] J. N. Sharma, Numerical methods for engineers and scientists, Alpha Science
International LTD, Second edition, 2007.
[75] W. T. Shaw, Complex analysis with Mathematica, Cambridge University Press,
United Kingdom, 2006.
[76] S. Smale, The fundamental theory for solving equations, The international congress of mathematicians, Providence, USA, 1987.
[77] S. Smale, Newton’s method estimates from data at one point, The Merging of
Disciplines: New Directions in Pure Applied and Computational Mathematics,
R. Ewing, K. Gross and C. Martin (eds.), pp 185–196, Springer-Verlag, USA,
1986.
[78] M. Spivac, Calculus. Cálculo infinitesimal, Editora Reverté, S. A, Segunda edición, Barcelona, 1992.
[79] G. W. Steward, Afternotes on numerical analysis, SIAM, Philadelphia, 1996.
[80] K. Stumpff: On the application of Lie-series to problems of celestial mechanics.
National Aeronautics and Space Administration. Tecnical notes. USA. 1986.
[81] E. Süli and D. Mayers, An introduction to numerical analysis, Cambridge University Press, UK, 2003.
BIBLIOGRAFÍA
61
[82] J. F. Traub, Iterative methods for the solution of equations, Prentice -Hall,
Englewood Cliffs, N.J, 1964.
[83] N. Ujeviéc, An iterative method for solving nonlinear equations, Journal of
Computational and Applied Mathematics, 2 (2006) 1–9.
[84] J. L. Varona, Graphic and numerical comparisons between iterative methods,
Math. Intelligencer, 24 (2002) 37–46.
[85] J. L. Varona, Representación gráfica de fractales mediante un programa de cálculo numérico simbólico, La Gaceta de la RSME, 6 (2003) 214–230.
[86] O. Vaarmann, High order iterative methods for decomposition-coordination problems, Technological and economic development of economy, XII (2006) 56–61.
[87] D. Wang y F. Zhao, The Theory of Smale’s Point Estimation and its Applications, Journal of Computational and Applied Mathematics, 60 (1995) 253–269.
[88] X. H. Wang, Convergence of Newton’s method and uniqueness of the solution
of equations in Banach space, IMA J. Numer. Anal. 20 (2000) 123–134.
[89] J. Wallis: Problematis Kepleriani per cycloidem solutio. Opera Mathematica,
Vol.1, (1695) pp. 540 − −541.
[90] S. Weerakoon and T. G. I. Fernando, A variant of Newton’s method with accelerated third-order convergence, Applied Mathematics Letters, 13 (2000) 87–93.
[91] S. Wolfram, The Mathematica Book, Cambridge University Press, U. K, 1996.
[92] C. Woodford and C. Phillips, Numerical methods with worked examples,
Chapman-Hall, U. K, 1997.
[93] D. T. Whiteside, The mathematical papers of Isaac Newton, Cambridge University Press. 06 (1974) 308–323.
[94] T. Yamamoto, Historical development in convergence analysis for Newton’s and
Newton-like methods, Journal of Computational and Applied Mathematics, 124
(2000) 1–23.
[95] D. M. Young. and R. G. Todd, A Survey of Numerical Mathematics, Dover
Publications, Inc, New York, 1973.
[96] T. J. Ypma, Historical Developmente of Newton-Raphson Method, SIAM Review, 37 (1965) 531–551.
[97] Zhen Shi-Ming, Point estimates for Halley’s iteration, Acta Mathematicae Aplicate Sinica, 14 (1991) 381–383.
[98] http://www.uv.es/diazj/cn_tema2.pdf
[99] http://www.wikipedia.org/wiki/Metodo_de_Newton.html
[100] http://www.uam.es/personalpdi/ciencias/barcelo/cnumerico.html
[101] http://www.neoparaiso.com/logo/metodo-newton.html
[102] http://www.numericalmethods.eng.usf.edu/mws/gen/03n/e/mws.pdf
[103] http://www.descartes.cnice.mecd.es/materialesdidacticos.html
[104] http://www.cidse.itcr.ac.cr/revistamate/HERRAmInternet/ecuaexcl/lnode5.html
[105] http://www.docentes.uacj.mx/gtapia/AN/Unidad21/Newton.html
[106] http://www.numbers.computation.free.fr/Constant/Algoritms/newton.html
62
BIBLIOGRAFÍA
[107] http://www.allege.com/artigos/newtoncas.pdf
[108] http://www.pgrafica.webideas4a11.com/newton_raphson.html
[109] http://www.mathword.wolfram.com/NewtonMethod.html
[110] http://www.ugrad.math.ubc.ca/coursedoc/math100/notes/approx/newton.html
[111] http://www.sosmath.com/calculus/diff/der07/der07.html
[112] http://www.dailnet.unirioja.es/servlet/articulo?codigo=2159507
[113] http://www.mathumn.edu/~garrett/qr/Newton.html
[114] http://www.dedekind.mit.edu/18.013A/HTML/chapter13/section01.html
[115] http://www.ies.co.jp/math/java/cal/roota/roota.html
[116] www.alepho.clarku.edu/~djoyce/newton/method.html
[117] http://www.Shodor.org/UNChen/math/newton/index.html
[118] http://www.reserch.microsotf.com/~minka/papers/newton.html
[119] http:/www.planemath.org/encyclopedia/NewtonRaphsonMethod.html
[120] http://www.math.fullerton.edu/mathews/n2003/Newton’sMethodMod.html
[121] http://www.math.heldermann.de/JAA/JAA09/jaa0919.html
[122] http://numbers.computation.free.fr/Constants/Algorithms/Newton.html
View publication stats
BIBLIOGRAFÍA
63
Este libro se termino de imprimir en el mes de mayo del año 2009 en los talleres
gráficos de ServiCentro
C/ Progreso, Nagua, República Dominicana.
Descargar