Metodos Modificados N-R

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 37

Universidad nacional de Piura

“AÑO DE LA UNIVERSALIZACIÓN DE LA SALUD”

RESPONSABLES:
ERICK ESTIWARD JACINTO RUMICHE
ALDANA RUIZ SANDRO FABRIZIO
CRUZ MALCA INGRI
CÓRDOVA CÓRDOVA MARIA ESMERITA
NAMUCHE SERNAQUE FELIPE ANDHERSON

TEMA:
ESTUDIO DE LOS METODOS MODIFICADOS DE NEWTON

RAPHSON (METODO DE HALLEY)


CURSO:
MÉTODOS NUMÉRICOS
DOCENTE:
CASTILLO BURGOS NESTOR MANUEL

FACULTAD/ ESCUELA:
Ingeniería Industrial / Ingeniería Industrial

CICLO:
VII
Universidad nacional de Piura

AGRADECIMIENTO
Agradecemos primero a Dios, por
permitirnos seguir con nuestros
estudios universitarios a pesar de las
dificultades que se han presentado, a
muestras familias; las cuales siempre
nos apoyan en todo momento
A la facultad de Ingeniería Industrial,
a todos los docentes de nuestra
facultad los cuales han tenido que
adoptarse de una forma rápida a la
enseñanza online para que podamos
desarrollar nuestro ciclo con la menor
de los inconvenientes, nuestra
admiración y respeto por todo el
esfuerzo y entrega que han mostrado
para poder seguir impartiendo los
conocimientos que nos ayudaran a
cumplir nuestra meta de ser
profesionales y poder afrontar los
problemas de la sociedad con el
aporte de soluciones.
Y a cada uno de los integrantes de
este grupo por cooperar para poder
hacer un buen trabajo.
Universidad nacional de Piura

DEDICATORIA

Dedicamos este esmerado trabajo

especialmente a Dios que me otorgo

salud y sabiduría para hacerlo de la

mejor manera.

A nuestros padres por su ejemplo y

amor que fueron pilares importantes

para llegar a estas alturas de nuestras

carreras ya que supieron inculcarnos su

perseverancia y dedicación para

cumplir cualquier objetivo que nos

propongo.
Universidad nacional de Piura
Universidad nacional de Piura

INTRODUCCIÓN

La idea de resolver una ecuación usando algún algoritmo o mediante la adición de un


término corrector ha sido empleada por muchas culturas, por ejemplo, en la antigua
Grecia y Babilonia se emplearon métodos parecidos a los utilizados por Newton para
aproximar la solución de radicales. Fue en 1671 que Newton dio a conocer un tratado en
el cual procede a aproximar la solución de una ecuación calculando explícitamente una
sucesión polinómica, para luego calcular la estimación final por una serie de sumas en
vez del método iterativo que conocemos ahora. Luego la segunda formulación del
método de Newton se debe a Joseph Raphson quien lo presento en 1690, para que luego
en 1740 Thomas Simpson describa una tercera versión del método de Newton. Mas es
Lagrange que en 1798 introduce el método de Newton-Raphson con la simbología que
empleamos actualmente. Este método es uno de los métodos más utilizado para
encontrar las raíces de ecuaciones no lineales, y a partir de él han surgido numerosas
modificaciones tratando de mejorar sus características. En estas modificaciones se busca
aumentar el orden, mejorar la rapidez de convergencia (métodos aceleradores de la
convergencia), tratar de eliminar el uso de derivadas, aplicar el método para obtener
raíces múltiples, utilizar más de un punto anterior en cada iteración (métodos
multipunto), mejorar las cuencas de atracción (regiones que convergen a cada raíz,
considerando para ello ecuaciones polinómicas sencillas),es por ello que se presenta el
siguiente trabajo ,para conocer y entender mejor estas modificaciones.
Universidad nacional de Piura

CONCEPTOS RELACIONADOS CON LOS METODOS ITERATIVOS DE


RESOLUCION DE ECUACIONES.

Orden de convergencia.
En análisis numérico, el orden de convergencia es una medida de la velocidad con la
cual una sucesión converge a su límite. Este concepto es muy importante desde el punto
de vista práctico si necesitamos trabajar con la sucesión de sucesivas aproximaciones de
un método iterativo.
Supongamos que la sucesión de números reales {xn} n ∈N converge a α y sea εn = xn −
α para cada n > 0, el error en cada iteración. Si existen dos constantes positivas A > 0 y
R > 0 tales que

entonces se dice que la sucesión converge a α con orden de convergencia R y el número


A se llama constante asintótica del error.
Siendo εn = xn −α el error en la n-esima iteración obtenida a partir de la sucesión {xn},
se tiene que para un n suficientemente grande podemos poner

lo cual se puede escribir en la forma


 Si R = 1, se dice que la convergencia es lineal.
 Si 1 < R < 2 se dice que la convergencia es superlineal.
 Si R = 2, se dice que la convergencia es cuadrática.
 Si 2 < R < 3 se dice que la convergencia es supercuadrática.
 Si R = 3, se dice que la convergencia es cubica.
y así sucesivamente.
Cuanto mayor sea el orden de convergencia, o para el mismo orden, cuanto menor sea
la constante asintótica, mayor será la rapidez con que la sucesión de aproximaciones
converge a la raíz buscada.
Errores
En el campo del análisis numérico dentro de las matemáticas, o en el campo de las
ciencias y la ingeniería en general, el termino error está relacionado con la duda o
Universidad nacional de Piura

incertidumbre de los resultados o los datos de partida, sin que ello signifique que los
resultados estén equivocados. Es decir, no se pone en duda la fiabilidad del método,
sino que lo que analiza el error es el grado de incertidumbre de los valores numéricos.
A la hora de analizar el grado de confianza de un método o algoritmo, es cuando
adquiere mayor relevancia el estudio de los errores que pueden afectar a los cálculos,
operaciones que intervienen en el algoritmo, y así ver cómo estos errores pueden afectar
a los resultados.
Se ha de tener en cuenta que los errores pueden estar generados por varios motivos, y
así, según la fuente que los origina habrá distintos tipos de errores:
Error inherente: Es el error de los datos de entrada, puede ser debido a un error en la
medición, o provenir de errores en cálculos previos.
Error por truncamiento o error de discretización: Es el error que aparece al transformar
un procedimiento infinito en uno finito. Al hablar de una iteración, el error por
truncamiento se entiende como el error por no seguir iterando y aproximando a la
solución de manera indefinida.
Error por redondeo: Se origina debido a la imposibilidad de tomar todas las cifras que
resultan de manera exacta, debido a que se tiene que aproximar el ´ultimo decimal que
queremos considerar en la solución resultante.
Error humano y/o de máquina: Es el error producido por la intervención humana, puede
ser por una mala interpretación de los datos, o por programas mal diseñados o
configurados.
Considérese que para todos los tipos de errores habrá un valor verdadero de manera que
se tiene:
valor verdadero = valor aproximado + error
En los métodos numéricos una de las partes más importantes es el estudio de los errores,
y en particular, de la relación entre el error que se comete entre la parte aproximada
calculada y la verdadera solución. Se distinguen dos tipos de errores.
Error absoluto (Ea): Viene dado por la expresión Ea = |α − x*|, siendo α la solución
exacta y x* la solución obtenida en la aproximación (valor aproximado).
Error relativo (Er): Viene dado por la expresión Er = Ea |α|. Se suele representar de
manera porcentual, dado que de esta forma se aprecia más fácilmente el error cometido.

Índices de Eficiencia
La eficiencia de un método iterativo está relacionada con el tiempo que se requiere para
obtener la solución del problema en cuestión. Este tiempo depende de la cantidad de
operaciones aritméticas que se tengan que realizar, es decir, un algoritmo será más
eficiente cuentas menos operaciones se tengan que realizar para obtener la solución
(considerando una tolerancia prefijada).
Universidad nacional de Piura

Definición
(Índice de eficiencia, [5]): Para un método de orden p > 1 en el que cada iteración
necesita r unidades de trabajo (en nuestro caso r evaluaciones de la función o sus
derivadas), se define el ´índice de eficiencia del método por:

Consideremos un ejemplo para aclarar mejor los conceptos. Supongamos que tenemos
un método A de orden p > 1 que utiliza r unidades de trabajo en cada iteración (el
tiempo de cálculo es proporcional a r) y otro método B de orden p 2 que necesita 2r
unidades de trabajo por iteración.
Cuando realizamos r unidades de trabajo con el primer método, es decir, una iteración,
el número de cifras exactas se multiplica por p. Entonces si realizamos otra iteración,
tendríamos un total de 2r unidades de trabajo y el número de cifras exactas se
multiplicaría de nuevo por p. En total, el número de cifras exactas queda multiplicado
por p^2. Por tanto, vemos que los dos métodos son equivalentes en cuanto a eficiencia
computacional.
Teniendo en cuenta la definición de índice de eficiencia tenemos que en general es:

Cuanto mayor sea el índice de eficiencia de un método, mejor es el método.


Es importante resaltar que para obtener unos buenos índices de eficiencia se deben
comenzar las iteraciones en puntos iniciales x0 cercanos a la raíz buscada, para que el
procedimiento sea convergente. Por tanto, la convergencia y la eficiencia están
relacionadas entre sí. Mayor será la eficiencia del método cuanto más cerca esté el
punto inicial de la raíz.
Por otra parte, Kung y Traub [11] conjeturaron que un método multipaso iterativo que
necesita n evaluaciones en cada paso puede alcanzar como mucho un máximo orden de
convergencia igual a 2n-1. A los métodos que alcanzan dicho orden se les llama métodos
óptimos, ´estos son los más interesantes desde el punto de vista de la eficiencia
computacional y, por ello, se han ido desarrollando una gran multitud en los últimos
años. El índice de eficiencia de un método optimo es

cuyo límite cuando n → ∞ es 2, así que asumiendo la conjetura de Kung y Traub, el


índice de eficiencia de cualquier método será menor que 2.
Orden de convergencia computacional
Cuando no sea posible hallar el orden de convergencia de un método, para conocer el
comportamiento real del mismo en cuanto a la rapidez de convergencia, se puede
Universidad nacional de Piura

utilizar el llamado orden de convergencia computacional. Es una aproximación al orden


de convergencia teórico del método.
Definición. Sea α la raíz de una ecuación f(x) = 0 y supongamos que xk+1, xk y xk−1 son
tres iteraciones consecutivas que aproximan el valor de α. Se define el orden de
convergencia computacional de la siguiente forma [14]:

Pero, como la mayoría de las ocasiones desconocemos el valor exacto de α, que es la


raíz que queremos calcular, en la práctica se suele utilizar la aproximación introducida
por Cordero y Torregrosa en [4]
Universidad nacional de Piura

BREVE DESCRIPCIÓN DE ALGUNOS MÉTODOS CLÁSICOS PARA


APROXIMAR RAÍCES.
COMPORTAMIENTO EN EL CASO DE RAÍCES MÚLTIPLES
Método de Newton-Raphson
Sin duda alguna, el método de Newton es el método de aproximación de raíces más
estudiado y usado para resolver ecuaciones. Se trata de un método de intervalo abierto,
ya que solo requiere un valor inicial, cercano a la raíz, para obtener un valor más
aproximado a la raíz de la ecuación f(x) = 0.
Teorema Sea α ∈ [a, b] un cero de la función f. Suponiendo que f admite derivada hasta
el segundo orden y es continua en [a, b], siendo f’≠ 0, entonces existe un δ > 0 tal que la
sucesión definida por:

converge hacia α para cualquier valor inicial x0 ∈ [α − δ, α + δ]

Representación gráfica del procedimiento de obtención de xn partir de xn−1 en el método


de Newton.
Para estimar el valor inicial x0 se puede utilizar otro método más sencillo como, por
ejemplo, el método de Bisección. Después se aproxima la función por la recta tangente
en el punto (x0, f(x0)), se corta esta recta con el eje OX y se despeja para hallar el valor
x1. Este valor será, generalmente, una aproximación mejor a la raíz de la función que el
x0. Seguidamente se procede de forma análoga y se aplican tantas iteraciones como
sean necesarias para lograr una exactitud dentro de la tolerancia especificada.
Universidad nacional de Piura

Existen algunas condiciones suficientes que garantizan la convergencia de la sucesión


de valores generadas por el método de Newton, como, por ejemplo, la Regla de Fourier
[3]:
Teorema (Regla de Fourier). Sea f: [a, b] → R continua y dos veces continuamente
diferenciable en [a, b] y tal que verifica
1. f(a)f(b) < 0
2. f´ (x) ≠0, ∀x ∈ [a, b]
3. f´´(x) ≠0, ∀x ∈ [a, b]
Entonces, el método de Newton converge si tomamos x0 = a o x0 = b de tal forma que f
´(x0)f´´(x0) > 0.
En el caso de que esto no ocurra deberemos contraer el intervalo o coger un punto más
próximo a la raíz. Disminuiremos la amplitud del intervalo hasta que se verifique la
condición.
Es importante que f´(x0) ≠ 0 porque si no, el método no se puede aplicar.
Geométricamente significa que la recta tangente a la curva y = f(x) en el punto (x0,
f(x0)) es horizontal y por lo tanto no intercepta al eje OX en ningún punto.
El orden de convergencia de este método es cuadrático, con lo que el índice de
eficiencia es ε(2, 2) = 21/2 = 1,4142. Pero si la raíz buscada es de multiplicidad
algebraica mayor que uno (doble, triple, etc.), el método de Newton-Raphson pierde su
convergencia cuadrática y pasa a ser lineal.
Algoritmo para el Método de Newton-Raphson:
1. Para hallar una raíz de f(x) = 0, los pasos a seguir son:
2. Analizar la función f(x) de la cual se quiere obtener su raíz y hallar su derivada f
´(x). Establecer un punto de inicio x0, tal que f´(x0) ≠ 0, para comenzar las
iteraciones.
3. Si f´(x0) = 0, finalizar, pues habrá división por cero. Si no, continuar.
4. Si f´(x0) = 0 entonces la raíz es x0, finalizar e ir al paso 6. Si no, -calcular x1
mediante la expresión: x1 = x0 − f(x0) /f´ (x0) -Hacer x0 igual a x1.
5. Repetir paso 3 hasta que |f(x0)| ≤ δ (o bien otro criterio de parada teniendo en
cuenta el error relativo, o el número de iteraciones, etc.)
6. Mostrar x0
Universidad nacional de Piura

Método de Steffensen
Este segundo método, el método de Steffensen, en realidad podría considerarse como
una variante del método de Newton. Surge con el fin de mejorarlo eliminando el cálculo
de la derivada de ´este, haciendo con ello los cálculos más fáciles, sobre todo en el caso
de funciones cuyas primeras derivadas sean complicadas.
Para poder deducir el método de Steffensen de forma que quede expresado mediante
una fórmula matemática partimos del método de Newton

Ahora sustituimos f´ (xn) por g(xn) siendo

Entonces, nos queda:

lo cual se puede escribir en la forma:

Nótese que para llegar a la fórmula matemática del método de Steffensen simplemente
hay que sustituir la derivada f´(xn) que aparece en el método de Newton por la función
g(xn) anterior. Obsérvese que el valor g(xn) es una aproximación de la derivada,
calculada a partir de la definición de derivada, tomando como tamaño de paso h = f(xn).
Recordemos que la definición de derivada de una función f en un punto x está definida
por el límite:

Donde:
Universidad nacional de Piura

expresado utilizando la definición de diferencia progresiva. Con ello conseguimos


librarnos del cálculo de la derivada de la función, que en determinados casos puede
dificultar bastante las operaciones.
Una desventaja en este caso es que se necesita realizar una evaluación doble de la
función ya que hay que calcular: f(xn) y f(xn + f(xn)), es decir, hay que evaluar dos veces
la función. Esto es una desventaja si la función a evaluar es complicada ya que
incrementa el coste computacional. Pero, en cualquier caso, esta desventaja se ve
compensada puesto que a cambio no hay que calcular la primera derivada, que, siendo
la función complicada, se espera que también lo sea. El índice de eficiencia es igual que
el del método de Newton, ε(2, 2) = 21/2 aprox. 1,4142.
La principal ventaja es la convergencia cuadrática, como en el método de Newton, y que
este método está libre de derivadas. Solo hay que procurar que el valor inicial x0 sea lo
suficientemente cercano a la raíz buscada para lograr que el método converja a dicha
raíz.
Algoritmo para el Método de Steffensen:
Para hallar una raíz de f(x) = 0, los pasos a seguir son:
1. Estudiar la función f(x). Y si se puede, dibujar la gráfica, ya que ayuda a la hora
de establecer un punto inicial.
2. Establecer un punto de inicio x0 para comenzar las iteraciones, próximo al valor
de la raíz buscada. Establecer una tolerancia numérica máxima ε o un número
máximo de iteraciones n Máx.
3. Si f(x0) = 0, la raíz buscada es x0, finalizar, si no, - Calcular x1 mediante la
fórmula:

Comprobar si |x1 − x0| ≤ ε o no iter ≥ n Máx., y mostrar x1. Si no se cumple lo


anterior hacer x1 = x0 y repetir paso 3 con hasta que se alcance la tolerancia o se
supere el número de iteraciones máximo establecido.
Universidad nacional de Piura

Método de Halley
La función de iteración de Halley para aproximar las raíces de una función de una
sola variable tiene una larga historia que se remonta a 1694. Este método se conoce
con frecuencia como el método de las hipérbolas tangentes, y puede ser descrito de
manera sencilla de la siguiente manera:
Dada una función f(x) y un valor inicial x0 lo suficientemente próximo a la raíz de la
función, consiste en la construcción de una hipérbola que es tangente a la gráfica de
f(x) en el punto x0 hasta el segundo orden. El punto en que la hipérbola tangente
corta al eje de las abscisas, será nuestra primera estimación x1. Una vez obtenida
esta, volvemos a hacer otra vez el mismo proceso, pero en lugar de partir del valor
x0, ahora partimos del ultimo valor estimado x1, y así procederemos sucesivamente.
Evidentemente, cuanto mayor número de estimaciones, mayor precisión
obtendremos en nuestro resultado, es decir, tendremos un menor error en relación al
valor real α, el cuál debe estar dentro de los límites establecidos por el método.
Todo esto lo podemos observar en la figura siguiente, donde para obtener la
solución de la función f(x) = 0, es decir, el valor de la raíz α, partimos de un valor
inicial x0, y vamos realizando sucesivas iteraciones, obteniendo los valores x1, x2, x3,
. . . , donde cuantas más iteraciones se realicen, más próximo a la solución α será
nuestro valor estimado.

Representación gráfica del método de Halley


La proximidad a la raíz de f(x) del valor inicial x0 dependerá de la naturaleza
intrínseca de la función, ya que esta puede presentar distintos puntos de inflexión o
pendientes muy pequeñas, lo que hace que aumenten las probabilidades de que el
algoritmo diverja.
Pero veamos cómo se obtiene geométricamente el método de Halley. Como hemos
dicho, este puede obtenerse aproximando una función por medio de hipérbolas. Para
aproximar la solución de una ecuación f(x) = 0, a partir de un valor inicial x0,
vamos a considerar una hipérbola de la forma:
Universidad nacional de Piura

a la que imponemos que cumpla las siguientes condiciones de colocación:

Este tipo de curvas, denominadas osculatrices, coinciden con f(x) en x0 hasta la


segunda derivada. En consecuencia, estas hipérbolas aproximan mejor a una curva
que la recta tangente, donde la coincidencia sólo es hasta la primera derivada. Esta
mejor aproximación se ve reflejada en una convergencia más rápida para el método
de Halley que para el de Newton: el primero tiene orden tres mientras que el
segundo tiene orden dos. De forma breve, se puede decir que el orden de
convergencia mide la velocidad con la que una sucesión se aproxima a su límite: a
mayor orden, mayor velocidad. Para que la hipérbola cumpla las condiciones
requeridas, sus coeficientes a, b y c deben satisfacer las siguientes ecuaciones:

de manera que al resolver el sistema anterior se obtienen las soluciones:

Una vez encontrada la hipérbola osculatriz, tomamos como nueva aproximación su


intersección con el eje de abscisas, es decir el punto tal que y(x1) = 0. Dada la forma
de la hipérbola, se tiene que tras despejar el valor x1 en la ecuación anterior resulta
ser:
Universidad nacional de Piura

Donde

Debido a esta interpretación geométrica, el método de Halley es llamado a veces el


método de las hipérbolas tangentes [16], [17].
Resumiendo, la función de iteración que utiliza el método de Halley es:

El orden de convergencia de este método es cúbico si el valor inicial es lo


suficientemente cercano a la raíz, pero, por otro lado, necesita una evaluación más
que el método de Newton. El índice de eficiencia para este método es ε(3, 3) = 31/3
aprox. 1,4422, que es un poco mayor que el de Newton y Steffensen.
La siguiente formulación alternativa muestra la similitud entre el método de Halley
y el método de Newton, donde la expresión f(xn)/f´(xn) sólo se calcula una vez, y es
particularmente útil cuando se puede simplificar f´´(xn)/f´(xn):

Observamos en la expresión que cuando la segunda derivada es muy cercana a cero,


el ´ultimo término se comporta de manera parecida al último término de la fórmula
de Newton. Es decir, en esa situación el método de Halley se comportará de manera
parecida al método de Newton.
Método de Chebyshev
El método de Chebyshev es un conocido método iterativo para aproximar las raíces
de una ecuación f(x) = 0, su expresión clásica es

Donde
Universidad nacional de Piura

Al igual que el método de Halley, el método de Chebyshev tiene un orden de


convergencia cúbico, y también necesita tres evaluaciones, por tanto, el índice de
eficiencia para este método es el mismo que el del método de Halley ε(3, 3) = 31/3
1,4422
Este método, junto con sus mejoras, aplicaciones y modificaciones ha llamado la
atención de muchos investigadores. Por ejemplo, desde el punto de vista histórico,
podemos encontrar una forma equivalente para escribir el método iterativo conocida
como fórmula de Schroder (véase [2], [18]):

El método de Chebyshev puede deducirse de diferentes maneras [8], utilizando


interpolación cuadrática inversa, mediante el método de las parábolas tangentes, etc.
Veamos como ejemplo una forma clásica de construcción de métodos iterativos, que
consiste en la aproximación de la función inversa de f(x). Esta forma se conoce
como interpolación cuadrática inversa.
Dada la función y = f(x), llamaremos x = φ(y) a la función inversa de f (se supone
que se dan las condiciones en un intervalo para la existencia de dicha función
inversa). Haciendo el desarrollo en series de Taylor, en torno a un punto, digamos
y0, entonces tenemos

Encontrar la raíz α de la ecuación f(x) = 0, es lo mismo que encontrar la imagen del


cero por medio de la función φ, es decir calcular φ(0). Así, si x0 es un valor próximo
a α y f(x0) = y0, entonces,

De aquí podemos deducir una nueva aproximación a α, que denotamos x1:

Ahora calculamos φ´ (y) y φ´´ (y) para sustituirlo. Sabemos que x = φ(y),
y´ = f´(x) e y´´ = f´´(x), de modo que, por el teorema de la función inversa,
Universidad nacional de Piura

Sustituyendo tras evaluarlas en los puntos adecuados se obtiene

Repitiendo el mismo proceso para el punto x1, conseguimos la nueva aproximación


x2, y por recurrencia obtenemos la expresión, que representa el algoritmo iterativo
del método de Chebyshev.

Método de Jarratt
A partir del trabajo de Traub [20], Jarratt [9] desarrolló el suyo partiendo de la
siguiente expresión

Para deducir las propiedades Jarratt desarrolla ϕ(x) como una serie de potencias en u
= f(x)/f0 (x) y la compara con una secuencia básica de métodos iterativos. Dicha
secuencia es

donde Yj cumple la siguiente ecuación de recurrencia

con Y1(x) = 1
Universidad nacional de Piura

Los primeros términos Ep se ven en la siguiente tabla:

Primeros términos de Ep(x).


Donde

Para expresarla como una serie de potencias en u, se necesitan los desarrollos de


w2(x) y w 2 2 (x)/u.
Se tiene

De lo cual se deduce

Y con ello se puede calcula

Sustituyendo los desarrollos anteriores se tiene


Universidad nacional de Piura

Y finalmente comparando ϕ(x) con E5 se obtiene

Para que ϕ(x) tenga cuarto orden, los coeficientes de u, u 2 y u 3 han de ser cero, por
lo que se obtiene el siguiente sistema

del que resultan los siguientes valores para los parámetros

Por tanto, se obtiene el siguiente método iterativo para raíces simples que presenta un
orden de convergencia cuatro para los valores
Universidad nacional de Piura

Donde

Se puede ver que el método de Jarratt es optimo según la conjetura de Kung-Traub [11],
ya que necesita tres evaluaciones y tiene una convergencia de orden cuatro, por tanto, el
índice de eficiencia de este método es ε(4, 3) = 4 1/3 aprox. 1,5874.
Pero en el caso de raíces múltiples pierde el cuarto orden de convergencia, el error en
este caso pasa a ser lineal según la siguiente expresión

donde, como es habitual, m corresponde al orden de multiplicidad de la raíz.

Limitaciones de estos métodos


Recordemos qué significa el orden de multiplicidad de una raíz. Dada una función f(x),
si f(α) = 0 y además se cumple que f´ (α) = ... = f m−1)(α) = 0 pero f m) (α) ≠0, entonces se
dice que α es una raíz de f(x) de orden de multiplicidad m.
Las raíces múltiples ofrecen ciertas dificultades cuando tratamos de aproximarlas con
los métodos numéricos:
 El hecho de que la función no cambie de signo en las raíces con multiplicidad
par impide el uso de los métodos que utilizan intervalos.
 Otro posible problema se relaciona con el hecho de que no solo f(x), sino
también f´ (x) se aproxima a cero. Este problema afecta por ejemplo al método
de Newton-Raphson, el cual contiene la primera derivada en el denominador de
la función de iteración. Esto provocaría una división entre valores próximos a
cero cuando la sucesión converge a un punto muy cercano a la raíz. Una forma
simple de evitar estos problemas, la cual ha sido demostrada teóricamente por
Ralston y Rabinovitz [15], se basa en el hecho de que f(x) siempre alcanza un
valor igual a cero antes que f´(x). Por lo tanto, si se compara f(x) con cero dentro
del programa, entonces los cálculos se pueden terminar antes de que f´ (x) tome
el valor cero
 Pero el principal problema es que presentan una convergencia muy lenta y, por
ello, aparecen modificaciones de estos métodos para conseguir el resultado
deseado con una velocidad razonable.
Universidad nacional de Piura

MÉTODOS MODIFICADOS PARA APROXIMAR RAÍCES CON


MULTIPLICIDAD
Modificaciones del método de Newton Raphson
El método de Newton también se puede utilizar para encontrar las raíces múltiples de
ecuaciones no lineales, con las limitaciones señaladas anteriormente. Para tratar de
superar dichas limitaciones Ralston y Rabinowitz [15] consideraron ciertas
modificaciones, como son las siguientes:
Incluir en la fórmula de Newton-Raphson la multiplicidad de la raíz en la siguiente
forma. Si α es una raíz de multiplicidad m de f(x), entonces considerando la función
f(x)1/m, es decir, la raíz m-ésima de f(x), α será raíz de esta función con multiplicidad 1.
Si se aplica el método de Newton a está función resulta el método iterativo:

siendo necesario conocer m, la multiplicidad de la raíz buscada.


La convergencia de este método para hallar la raíz de multiplicidad m es dos (véase
[15], p. 355). En este caso tendríamos que conocer la multiplicidad, pero como está en
general no se conoce a priori, es preferible considerar un método que sea independiente
de la multiplicidad.
La otra alternativa propuesta por Ralston y Rabinowitz es la de definir una nueva
función u(x), que es el cociente de la función cuya raíz queremos calcular, y su derivada

Aplicando el método de Newton para esta función podemos deducir la fórmula de


recurrencia de la siguiente forma. Siendo

el método de Newton para u(x) se expresa como sigue


Universidad nacional de Piura

Esta fórmula ya aparecía en el trabajo de Schróder [18], pero se conoce como método de
Newton-Raphson modificado:

La principal desventaja de esta alternativa sería lo costoso que pudiera ser hallar u(x) y
u´ (x) si f(x) no es fácilmente derivable.
MODIFICACIONES DEL MÉTODO DE HALLEY
En este apartado vamos a ver cómo se puede aplicar el método de Halley para la
obtención de raíces múltiples, para lo que consideraremos algunas posibles
modificaciones o transformaciones del mismo.
El método de Halley necesita de las segundas derivadas para su puesta en práctica, lo
que en ocasiones puede añadir dificultad al cálculo. Por esta razón queremos dar a
conocer algunas variantes del método de Halley libre de la segunda derivada para la
búsqueda de raíces múltiples. El método de Halley cúbicamente convergente para raíces
simples, vimos que se puede escribir como

Donde

Para quitar la segunda derivada del método de Halley, Ezquerro y Hernández [6], [7]
sustituyen la segunda derivada utilizando la fórmula

siendo yn un valor cercano a xn.


De esta manera se sustituye Lf (xn) por una aproximación donde intervienen valores de
la función y de su primera derivada, y se obtiene la clase de métodos libres de la
segunda derivada basados en el método de Halley dada por
Universidad nacional de Piura

donde θ ∈ (0, 1] es un parámetro, y


Universidad nacional de Piura

Siendo yn = xn − θf(xn)/f´(xn), donde θ es un parámetro real distinto de cero,


considerando la expansión de Taylor de f(yn) en torno a xn resulta

lo que implica

Ahora, a partir de la expresión anterior podemos obtener la aproximación

donde θ ∈ R, θ ≠ 0

PRIMERA MODIFICACIÓN

En primer lugar, se generaliza la ecuación anterior para raíces múltiples y se considera

el siguiente algoritmo de iteración

donde β, γ y θ son parámetros que se determinan para que los métodos tengan tercer

orden de convergencia para el caso de raíces múltiples.


Universidad nacional de Piura

Siendo

se obtiene la primera familia uniparamétrica de métodos iterativos de Halley para raíces

múltiples, que viene dada por

2m
donde θ es un parámetro real con θ ≠0, m, . Nosotros vamos a considerar el caso
2m+1

en que θ = 1, que es al que llamaremos primera modificación del método de Halley para

raíces múltiples y que abreviaremos por PMH. Para este valor se obtiene el método

Siendo

y que satisface la ecuación de error


Universidad nacional de Piura

donde, para simplificar, hemos puesto

siendo m la multiplicidad de la raíz buscada. A la vista de la ecuación del error vemos

que el método presenta convergencia de tercer orden para m > 1.

SEGUNDA MODIFICACIÓN

De forma similar, podemos generalizar la ecuación en para raíces múltiples

considerando la siguiente iteración

Si

se obtiene otra familia modificada del método de Halley libre de la segunda derivada

donde θ es un parámetro real al que se exige que θ ≠ 0, m.


Universidad nacional de Piura

Nosotros vamos a considerar el caso en que θ = 1, que es el que llamaremos segunda

modificación del método de Halley para raíces múltiples y denotaremos para abreviar

por SMH. El método que resulta se escribe

Siendo

, y el cual satisface la ecuación de error

de donde se sigue que este método también posee convergencia cúbica.


Universidad nacional de Piura

ALGUNAS APLICACIONES

APLICACIONES DEL MÉTODO DE NEWTON-RAPHSON

Son muy variadas las aplicaciones del método de Newton. Este método se puede usar

para aproximar las soluciones complejas de una ecuación polinomial de grado n ≥ 2.

Otra aplicación para destacar está en la solución de problemas de flujos de potencia en

ingeniería eléctrica. También se encuentran aplicaciones mecánicas en la solución de

ecuaciones que determinan la posición en la dinámica de un mecanismo o sistema.

El Problema del Flujo de Potencia.

El problema consiste en determinar la magnitud y el ángulo del voltaje en cada barra de

la red de potencia, que se muestra en la figura, bajo las condiciones especificadas.

Datos de línea: Y12=4-5j pu, Y23=4-10j pu. θ1=0, V1=1.0 pu, V2=1.0 pu.

Datos del sistema de tres barras.

Las ecuaciones para establecer el balance de potencia nodal están dadas por:
Universidad nacional de Piura

en donde θkm=θk-θm, r= (θ2, θ3, V3) t y

Aplicando el algoritmo del método de newton con r (0) = (0.1,0.1,1.0) t, se obtiene en la

quinta iteración la solución del problema:

r (5) = (0.13497080; -0.00094814;0.88186783) t


Universidad nacional de Piura

Aplicaciones del método de Halley

Aplicación del método de Halley para la obtención de raíces complejas

el método de Halley se puede utilizar para la obtención de raíces complejas mediante la

aplicación de la siguiente expresión del método:

Se interpreta como en el caso general, utilizando la hipérbola compleja:

Se interpreta como en el caso general, utilizando la hipérbola compleja:

Resolviendo estas ecuaciones llegamos a:


donde fk, f´k y f´´ k denotan los valores en zk. Sustituyendo estos valores en el cero de
h(z), nos da la expresión compleja del método de Halley (5.0.1). Este cero es único
debido a que la hipérbola (5.0.2) es una transformación de Mobius (o fractal lineal) que
se escriben de manera general en la forma

La transformación Mobius de (5.0.2) asigna: c a ∞, zk a fk y zk+1 a 0. Por lo tanto,


podemos escribirla como
Universidad nacional de Piura

Esta ecuación permite asignar a cualquier línea o círculo que pasa por c una línea; cada
línea o círculo entra en un círculo. En particular, el círculo ω : |ω| = |fk| corresponde a:

Podemos resumir todo en el siguiente teorema


Sea f una función analítica, y sea zk = xk + iyk un punto donde f(zk),f0(zk)yf00(zk) no
son cero. Sea h la transformación Mobius:

cuyo nivel establecido Ck = [z : |h(z)| = |f(zk)|] es el círculo oscilador de Sk = [z : |f(z)| = |


f(zk)|] en zk. La siguiente iteración:

converge a la única raíz de h


Para determinar la dirección del método de Halley, cabe recordar que este método para
una función f(z) es el mismo que el método de Newton aplicado a la función:
Universidad nacional de Piura

Que es una línea (bisectriz del segmento [c,zk+1]) si la relación en la ecuación anterior

es 1, y es un círculo Ck si la relación es otra. La curva del conjunto de nivel es:

en el sentido de que Hf(z) = Ng(z) para todo z. Como observamos en la siguiente figura,

el método de Halley tiene lugar a lo largo de ∇|g|(xk,yk).

Método de Halley para raíces complejas

donde el gradiente de |g| es, mediante la ecuación anterior

por lo que la dirección del método de Halley es diferente de la del método de Newton.
Se puede demostrar que el método de Halley complejo para una función f es una
sucesión de iteraciones de Halley reales de |f| en planos verticales que contienen pares
de iteraciones adyacentes (zk,zk+1).
Universidad nacional de Piura

En el ejemplo a estudiar (cuya gracia aparece en la Figura 8.16), por lo general, tal y
como vemos en la tabla de resultados obtenidos, todos los métodos funcionan bastante
bien y con rapidez. Hay que señalar que a medida que aumenta el orden de
convergencia del método iterativo utilizado, el número de aproximaciones para obtener
la raíz se va reduciendo poco poco, de modo que el método que mejor funciona en este
caso es el método de Kou, debido a que en la zona donde hemos tomado los valores
iniciales la función de iteración de dicho método es bastante más plana que la del
método de Halley, tal y como se puede ver comparando las Figuras (8.17) y (8.18).
Universidad nacional de Piura
Universidad nacional de Piura

Se trata de un ejemplo difícil, puesto tal y como se puede ver en la grafica de la función
representada en la Figura 8.19, para valores a la izquierda de la raíz, la función es
prácticamente plana, es decir, constante, mientras que a su derecha tiene una pendiente
muy elevada, lo que va a hacer que los métodos que vamos a aplicar presenten muchas
dificultades para llegar a la solución. Para que los métodos lleguen a converger tenemos
que tomar valores muy próximos a la raíz, y aún así, para los valores x0 = 3,5 y x0 = 3,3
el método de Kou no llega a converger. Esto se debe a que, tal y como se puede
observar en la grafica de la Figura 8.21, para esos valores y para valores mayores a
estos, la función de iteración es prácticamente paralela a la diagonal, pero por encima de
ella, lo que hace que en cada iteración nos alejemos más de la raíz. Por lo demás, los
métodos funcionan bastante bien, siendo probablemente el método de Jarrat el que
mejor funciona.
Universidad nacional de Piura

Cuadro 8.7: Ejemplo 7: ex2+7x−30 −1 (tolerancia: 10−8, raíz: 3)

También podría gustarte