* Método de Newton-Raphson. OBJETIVO. Este método consiste de proporcionar un Xi inicial de aproximación a la raíz analítica r en seguida se evalúa la función en Xi obteniendo se f(Xi) se traza una recta tangente que intercepta en Xi+1al eje de las X. A este punto se le llama raíz nueva de aproximación a la r. Algoritmo: 1. Dada una función f(X)=0 Obtener la Primera y Segunda derivada. 2. Elegir un valor inicial X0. Este valor inicial debe cumplir con el criterio de convergencia: 3. Obtener una nueva aproximación evaluando la formula general del método: Xn+1=Xn - f(Xn)/ f ´(Xn) 4. Evaluar la aproximación relativa | (Xn+1 - Xn) / Xn+1 | < Tolerancia No. (Falso) Repetir el paso 3 y 4 Si . (Verdadero) Entonces Xn+1 Es la Raíz Si existe una función f(x)=0 y un intervalo [a,b], tenemos una raiz y xo una aproximación de , se extrae de la llamada Serie de Taylor (tomando hasta la 2ª potencia) : Despejando , se tiene: Siguiendo esto como una sucesión, se tiene: Tenemos la fórmula de Newton-Raphson. Además, existe un estudio de la convergencia del método, en donde G(x) se acota, teniendo la fórmula de convergencia como: Cabe señalar que el método de Newton-Raphson es convergente en forma cuadrática, es decir, que el número de cifras decimales correctas se duplica aproximadamente en cada iteración, o el error es aproximadamente proporcional al cuadrado del error anterior. La ventaja de este método es que, al ser un método iterativo, éste entrega una sucesión , resoluciones aproximadas, convergiendo más rápidamente al valor buscado y se usan menos operaciones aritméticas. Mejor respuesta - Elegida por la comunidad El método de Newton es un método que se usa para encontrar aproximaciones numéricas de ceros de funciones. ¿Qué quiere decir eso? Pues que tenemos una función f(x) y queremos encontrar una solución aproximada de la ecuación f(x) = 0. Por ejemplo, como no tenemos manera de encontrar la solución exacta de Log (x) - sin (x) = 0, buscamos una solución aproximada usando este método. Como funciona: Tenemos una primera aproximación, a la que llamaremos x0. El valor de esta aproximación se suele calcular en la práctica con otros métodos numéricos (normalmente el método de la bisección). En caso de no tener ninguna aproximación del valor que queremos calcular y no querer usar otros métodos... puedes probar el método de Newton igualmente y cruzar los dedos, "seguramente" funcionará. A partir de esta primera aproximación, calculamos otra mejor con la siguiente fórmula: x1 = x0 - f (x0) / f ' (x0) (f ' es la derivada de f). E iteramos: x2 = x1 - f (x1) / f ' (x1), x3 = x2 - f (x2) / f ' (x2), etc. El método (si la aproximación inicial era buena) se va acercando cada vez más a la solución real. Cuando tienes una aproximación suficientemente buena (en la práctica, cuando los valores que estás calculando tienen "suficientes" dígitos iguales), paras. Por que se escoge esa fórmula? Hay varias maneras de ver el motivo de esa fórmula. La más sencilla es usar la serie de Taylor: Si f es suficientemente regular, el teorema de Taylor dice que f (x) es aproximadamente f (x0 ) + f ' (x0) (x - x0) si x está cerca de x0. Supongamos que esta aproximación fuera exacta: f (x) = f (x0) + f ' (x0) (x - x0). Queremos encontrar un valor x1 tal que f (x1) = 0. Así, substituyendo: f (x1) = 0 = f (x0) + f' (x0) (x1 - x0) De donde sale la fórmula de antes. Comentarios adicionales: - El método de Newton funciona mal cuando el cero que buscamos también es cero de la derivada de f. - Hay una generalización de este método si la función f depende de más variables. La idea es la misma pero en la fórmula tienes que cambiar la derivada que está dividiendo por la inversa de la matriz jacobiana. - En este método hemos tomado solo el desarrollo de Taylor hasta orden 1. Podríamos hacer un método tomando más términos, y obtendríamos otros métodos de calcular ceros.