Final Libro Mnedo Digital
Final Libro Mnedo Digital
Final Libro Mnedo Digital
3.5
3
2.5
2
1.5
1
0.5
0
0 50 100 150
t (días)
ISBN: 978-628-7509-20-7
DOI: https://doi.org/10.22267/lib.udn.026
Primera Edición
Febrero de 2022
San Juan de Pasto, Nariño, Colombia
Índice general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Índice de figuras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
Índice de tablas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
Abreviaturas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
Prefacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
I Preliminares
1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
5.3.4 Comparación entre los métodos de paso único y paso múltiple . . . . . . . . . . . . . 111
5.4 Problemas propuestos 112
5.4.1 Problemas de práctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
5.4.2 Proyecto avanzado MPML . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
Apéndices
A Apéndice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
A.1 Interpolación 135
A.2 Ecuaciones de diferencias 137
A.3 Implementaciones 140
Referencias
Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
Índice alfabético
Índice alfabético . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
Índice de figuras
Catalina M. Rúa A.
San Juan de Pasto, noviembre de 2020.
I
Preliminares
1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
Uno de los mayores avances en la historia de los MNEDO fue la obra de 1895
del matemático alemán Carl Runge. A diferencia de los métodos de Adams,
los métodos que propone Runge son de paso único, siendo ası́ que estos pue-
den usar para obtener la aproximación final, a ella misma y a la aproximación
en el instante inmediatamente anterior. Los métodos definidos en ese momen-
to fueron el método del punto medio y el método del trapecio. A partir de
los aportes de Adams y de Runge, los matemáticos Karl Heun y Martin Kut-
ta desarrollaron alrededor de 1900 los famosos métodos de Runge-Kutta. En
particular, el aporte de Heun fue elevar el orden de estos métodos al desarrollar
un método de cuarto orden, esto se traduce en obtener aproximaciones en las
cuales al reducir el tamaño de paso el error disminuye más rápidamete. Segui-
damente, de las manos de Nystrom y Moulton, se produjeron mayores avances
en el análisis numérico con el desarrollo de métodos de Runge-Kutta de quinto
orden y los métodos de predictor-corrector, lo cual puede ser visto en [8].
A pesar de que en la antigüedad el uso de estos métodos conllevaba a reali-
zar una gran cantidad de cálculos manualmente, en la actualidad se hicieron
grandes avances teóricos y numéricos que se han visto impulsados con el uso
de computadores cada vez más potentes. Hoy en dı́a existen diferentes herra-
mientas computacionales matemáticas utilizadas en las ciencias aplicadas y la
ingenierı́a, que incorporan MNEDO programados con diferentes estructuras de
datos y de forma eficiente. El uso de estos programas en algunas aplicaciones
no retorna el resultado esperado por el investigador, lo cual puede suceder al
no tener en cuenta las propiedades particulares de los métodos numéricos im-
plementados en el software. Por tal motivo, conocer la región de estabilidad,
orden de convergencia y otras propiedades de los métodos es importante en la
interpretación final de resultados y con esto garantizar desde el punto de vis-
ta del análisis numérico que las aproximaciones obtenidas son correctas. Esta
situación justifica en gran medida la importancia de realizar un estudio teórico
para MNEDO enfocado en propiedades teóricas y computacionales.
En este libro se presenta la base teórica de los MNEDO clásicos y de algunos
de los métodos de orden superior más usados con el fin de tener un referente
conceptual y destacar las propiedades más relevantes inherentes a la consti-
tución de los MNEDO. En base a esto, se desea llevar al lector a realizar la
implementación computacional de los métodos estudiados y su posible aplica-
ción en modelos matemáticos al analizar numéricamente el modelo que
describe la dinámica de infección del VIH/SIDA presentado en [23].
Este modelo consiste de un sistema no lineal de EDO que no cuenta con una
solución analı́tica y claramente ilustra la importancia de cada uno de los tópicos
tratados en este texto.
En resumen, en la primera parte de este libro se presentan nociones básicas
acerca de EDO, ası́ como también una introducción a la solución numérica de
EDO, particularmente se estudia el método de Euler. Por otro lado, la segunda
Introducción 21
Al trabajar con SEDOP es conveniente utilizar una notación vectorial por ser
más manejable y compacta. Sean
¨ ˛ ¨ ˛
y1 f1 px, yq
˚y2 ‹ ˚ f2 px, yq‹
y“˚ y f x, y ˚ . ‹,
˝ ... ‚ p q “
‹
˝ .. ‚
yn fn px, yq
entonces el sistema (2.2) se puede escribir como
y1 “ fpx, yq. (2.9)
Es importante resaltar que se tomó como convención marcar en negrita las va-
riables que denotan vectores.
Al igual que para una EDO, es posible determinar una solución particular para
un SEDOP de n ecuaciones por medio de condiciones iniciales de la forma
ypx0 q “ y00 , y1 px0 q “ y10 , . . . , ypn´1q px0 q “ yn0´1 , (2.10)
donde x0 , y00 , . . . , yn0´1 son variables reales. Nótese que si en (2.10) se hace el
cambio de variable (2.4), se tiene que
y1 px0 q “ y00 , y2 px0 q “ y10 , . . . , yn px0 q “ yn0´1 ,
lo cual en notación vectorial se expresará por
ypx0 q “ y0 . (2.11)
Un SEDOP como (2.9) sujeto a la condición inicial (2.11) define un proble-
ma de Cauchy. Investigar métodos para solucionar numéricamente este tipo de
problemas es el objetivo principal en esta investigación.
Definición 2.3. Un SEDOP sujeto a una condición inicial, de la forma
#
y1 pxq “ fpx, ypxqq,
(2.12)
ypx0 q “ y0 ,
donde f : ra, bsˆ Rn Ñ Rn y x P ra, bs, se conoce como un problema de Cauchy.
26 Teorı́a general de ecuaciones diferenciales
d pF pxq, F pyqq ď α, 0 ď α ă 1.
de donde
L
d pφ pyq, φ pzqq ďd py, zq. (2.17)
K
Dado que K ą L, de la expresión (2.17), se concluye que φ es una contracción.
Por lo tanto, por el Teorema 2.2, existe una única función y P E que satisface
que φ pyq “ y, y en consecuencia es la única solución al problema de Cauchy.
Sean
¨ ˛ ¨ ˛ ¨ ˛
y1 a11 pxq a12 pxq . . . a1n pxq b1 pxq
˚y2 ‹
‹ , Apxq “ ˚a21.pxq a22.pxq
˚ . . . a2n pxq‹ ˚b2 pxq‹
˚ . ‹,
y“˚ .
˝ .. ‚ ˝ .. .. .. ‹ y bp x q “ ˝ .. ‚
... . ‚
yn an1 pxq an2 pxq . . . ann pxq bn pxq
entonces el sistema (2.18) se puede escribir como
y1 pxq “ Apxqypxq ` bpxq. (2.19)
Cuando el sistema es homogéneo bpxq “ 0 y en este caso se tiene
y1 pxq “ Apxqypxq. (2.20)
La solución de una EDO de la forma y1 “ λ y con λ P R es y “ ceλ x con c
constante. Sin embargo, aunque al comparar esta EDO con la que se presenta
en la ecuación (2.20) se observa una similitud, es importante recordar que A es
una matriz y por tanto se debe tener un cuidado especial en la solución de este
sistema.
El siguiente teorema se conoce como principio de superposición para sistemas
lineales y se encuentra en [35]. Este resultado será usado para encontrar una
solución general de (2.20).
Teorema 2.4. Sean y1 , y2 , ..., yk un conjunto de vectores solución del sistema
homogéneo (2.20) en un intervalo ra, bs. Entonces la combinación lineal
y “ c1 y1 ` c2 y2 ` ... ` ck yk ,
donde ci , i “ 1 . . . k, son constantes escalares arbitrarias, es también una solución
en el intervalo.
Definición 2.7. Sean y1 , y2 , ..., yk un conjunto de vectores solución del siste-
ma homogéneo (2.20) en un intervalo ra, bs. Se dice que el conjunto es lineal-
mente dependiente en el intervalo si existen constantes c1 , c2 , ..., ck , no todas
cero, tales que para todo x P ra, bs se cumple que
c1 y1 ` c2 y2 ` ... ` ck yk “ 0.
Si el conjunto de vectores no es linealmente dependiente en el intervalo, se dice
que es linealmente independiente.
Para determinar si un conjunto de vectores es linealmente dependiente o
independiente, se puede usar la Definición 2.7. Sin embargo en la práctica el
Wronskiano define un criterio que permite determinar fácilmente la depen-
dencia lineal de un conjunto de vectores.
Definición 2.8. Sean y1 , y2 , ..., yn , un conjunto de vectores en Rn definidos
como en (2.7). Entonces el Wronskiano de este conjunto es el determinante de
la matriz obtenida a partir de estos vectores y se denota por
Wpy1 , y2 , ..., yn q “ detpy1 , y2 , ..., yn q.
30 Teorı́a general de ecuaciones diferenciales
„ „ „ „
1 ´ 1 1 ´ 1 1 ´1
y12 pxq “ y2 pxq “ e´x “ e´x .
´4 1 ´4 1 2 ´2
Luego para verificar que y1 pxq y y2 pxq son linealmente independientes se cal-
cula el Wronskiano dado por
ˇ 3x ˇ
´x ˇ
ˇ e e
Wpy1 , y2 q “ det py1 , y2 q “ ˇˇ ˇ “ 4e2x .
´2e3x 2e´x ˇ
Como Wpy1 , y2 q “ 4e2x ‰ 0 para todo x P R, por el Teorema 2.5, y1 y y2 son
linealmente independientes y por tanto forman un conjunto fundamental de
soluciones. Finalmente, del Teorema 2.6 se concluye que la solución general
del sistema es
„ „ „
3x 1 ´x 1 c1 e3x ` c2 e´x
ypxq “ c1 e ` c2 e “ .
´2 2 ´2c1 e3x ` 2c2 e´x
Los vectores solución del Ejemplo 2.3 son dados en el enunciado. Sin embargo,
no se presenta el método con el que fueron determinados. Una introducción para
encontrar la solución analı́tica a SEDOP con coeficientes constantes se realiza
en la siguiente sección. En adelante, no se verificará en los ejemplos que se
tiene un conjunto fundamental de soluciones pero se recomienda al lector que
debe hacerlo.
Adicional a estos dos casos, los valores propios podrı́an ser complejos. Este
caso puede ser visto con mayor detalle en los capı́tulos de solución de EDO de
orden superior con coeficientes constantes en [6, 18] y [35].
Ejemplo 2.4. Encontrar la solución general del SEDOP homogéneo
$
1
&y1 pxq “ y1 pxq ´ y2 pxq
’
y12 pxq “ ´4y1 pxq ` y2 pxq, (2.24)
’
%y p0q “ 0, y p0q “ 1.
1 2
Teorı́a general de ecuaciones diferenciales 33
Los vectores solución obtenidos en este ejemplo son los que se encontraron en
el Ejemplo 2.3.
34 Teorı́a general de ecuaciones diferenciales
0 0 . . . λn
la matriz exponencial es
» fi
eλ1 x 0 . . . 0
— 0 eλ2 x . . . 0 ffi
Dx
e “ — .. .
— ffi
– . .
.. . .
. . .. ffifl
0 0 . . . eλn x
La simplicidad de calcular la exponencial para una matriz diagonalizable es de
utilidad usando la forma canónica de Jordan para el cálculo de eAx .
Teorema 2.10. Sea J la forma canónica de Jordan de una matriz A,
J “ C´1 AC. Entonces A “ CJC´1 y
eAx “ CeJx C´1 .
El Teorema 2.10 dice que para calcular eAx en realidad solo se necesita calcular
eJx . Calcular eJx es más sencillo, pues la matriz J es diagonal o diagonal por
bloques de Jordan.
36 Teorı́a general de ecuaciones diferenciales
Los métodos para la solución de sistemas de EDO presentados son para siste-
mas con coeficientes constantes, lo cual no sucede en la mayorı́a de modelos
matemáticos y además, la dificultad para determinar valores propios aumenta
con el orden de la matriz evidenciando la necesidad de encontrar aproximacio-
nes para el problema de Cauchy. En esta sección se presenta una introducción
a la solución numérica de EDO. Primero se incluyen métodos numéricos para
solucionar el problema de Cauchy en los reales y luego en Rn . Estos métodos
se presentarán de una forma más profunda en los siguientes capı́tulos.
Los métodos numéricos que se estudiaron son métodos iterativos aritméticos
que aproximan la solución al problema de Cauchy
#
y1 pxq “ f px, ypxqq,
(2.30)
ypx0 q “ y0 .
Con estos métodos no se encuentra una aproximación continua a la solución
ypxq, sino que se obtienen aproximaciones en un conjunto discreto de
puntos a “ x0 , x1 , x2 , . . . , xn “ b del intervalo ra, bs. Este proceso se conoce como
discretización. Las discretizaciones numéricas se aplican a menudo en la apro-
ximación de soluciones de ecuaciones diferenciales en las que no es posible
encontrar una solución analı́tica. Con estas discretizaciones se espera que la
aproximación encontrada sea lo más cercana posible a la solución exacta y a un
bajo costo computacional.
A continuación se introduce el método de Euler. Este método es el más básico
de las técnicas de aproximación para resolver problemas de Cauchy y sirve
como base para entender algunos métodos numéricos más complejos.
diferentes formas para deducir el método de Euler, entre las cuales están: el uso
de series de Taylor, la idea geométrica de aproximación por rectas tangentes,
aproximaciones a una integral y la aplicación del teorema de valor medio. En
esta sección se presentará la deducción mediante series de Taylor, la aproxima-
ción de una integral y geométricamente mediante rectas tangentes.
1 pxk`1 ´ xk q2 2
ypxk`1 q “ ypxk q ` pxk`1 ´ xk qy pxk q ` y pςk q,
2!
para algún número ςk P pxk , xk`1 q. Como h “ xk`1 ´ xk , se tiene
1 h2 2
ypxk`1 q “ ypxk q ` hy pxk q ` y pςk q. (2.31)
2!
Eliminando el último término de (2.31), se deduce el método de Euler
#
y0 “ ypx0 q,
(2.32)
yk`1 “ yk ` h f pxk , yk q,
donde f : ra, bs ˆ R Ñ R, h “ b´n a , y xk`1 “ xk ` h, 0 ď k ď n ´ 1.
El término que se ha truncado en la serie de Taylor para deducir el método
de Euler está relacionado con el error local de discretización, αk , que es
el error cometido en el cálculo ypxk`1 q entre xk y xk`1 . Es decir, que para
el método de Euler
1
αk`1 “ hy2 pςk q,
2
para ςk en el intervalo pxk , kk`1 q.
Si M es una cota superior para y2 pxq, con x P ra, bs, entonces el error local
de discretización satisface que αk ď Mh{2 y se dice que el método de Euler
es de orden uno. En el siguiente capı́tulo se presentarán métodos de mayor
orden, los métodos de Taylor, los cuales se obtienen truncando la serie de
Taylor con mayor número de términos.
40 Teorı́a general de ecuaciones diferenciales
Ejemplo 2.7. Usar el método de Euler con h “ 0.02 para aproximar el valor
de yp0.1q, si #
y1 pxq “ ´4y ` e´2x ,
(2.33)
yp0q “ 1,
con solución exacta ypxq “ 12 pe´4x ` e´2x q y yp0.1q “ 0.74452.
Solución. Usando la fórmula de integración del método de Euler (2.32) y la
condición iniciales yp0q “ 1 se tiene el siguiente proceso iterativo
x0 “ 0.00, y0 “ 1. ´ ¯
` e´2x0 2 0.00
` ˘ ´ p q
x1 “ 0.02, y1 “ y0 ` h ´4y0 “ 1 ` 0.02 ´4 p1q ` e “ 0.94.
´ ¯
x2 “ 0.04, y2 “ y1 ` h ´4y1 ` e´2x1 “ 0.94 ` 0.02 ´4 p0.94q ` e´2p0.02q “ 0.88401.
` ˘
con solución exacta upxq “ 12 p3ex ´ e3x q, vpxq “ 12 p3ex ´ 3e3x q y up1q “ ´5.96534,
vp1q “ ´26.05088.
Solución. Si se hace
„ „ „
upxq vpxq up0q
y“ , fpx, yq “ y y0 “ ,
vpxq 4vpxq ´ 3upxq vp0q
el sistema (2.35) describe la forma vectorial del problema de Cauchy (2.12),
donde en este caso f : r0, 1s ˆ R2 Ñ R2 y x P r0, 1s.
Aplicando el método de Euler a este problema con h “ 1{16 y tx0 “ 0,
x1 “ 1{16, x2 “ 1{8, ¨ ¨ ¨ , x16 “ 1u se tiene
„ „
upx0 q 1 vpx0 q
y1 “ y0 ` hfpx0 , y0 q “ `
vpx0 q 16 4vpx0 q ´ 3upx0 q
„ „
1 0
“ ` 0.0625
0 ´3
„ „
1 u1
“ “ « yp0.0625q,
´0.1875 v1
„ „
u1 1 v1
y2 “ y1 ` hfpx1 , y1 q “ `
v1 16 4v1 ´ 3u1
„ „
1 ´0.1875
“ ` 0.0625
´0.1875 ´3.75
„
0.98828
“ « yp0.125q.
´0.42187
Este proceso se repite hasta llegar al extremo final del intervalo de integra-
ción. Los resultados de las aproximaciones numéricas a yp1q “ rup1q, vp1qsT ,
con diferentes tamaños de paso, se resumen en la Tabla 2.2. Se observa que al
reducir el tamaño de paso h a la mitad, el error también se reduce a la mitad,
por lo tanto el error es proporcional al tamaño de paso h.
Teorı́a general de ecuaciones diferenciales 43
Tanto los métodos de paso único como los métodos de paso múltiple que se
presentarán más adelante se pueden generalizar para resolver SEDOP de mane-
ra similar a como se ha hecho con el método de Euler. Al trabajar con sistemas
de EDO, tanto las aproximaciones numéricas como los diferentes tipos de erro-
res obtenidos son vectores. Para realizar el análisis del error y en general el
comportamiento de las soluciones numéricas es conveniente conocer un valor
numérico del vector por este motivo se debe usar una norma vectorial. Según
se presenta en [4] y [11], para las comparaciones numéricas del error de los
MNEDO es conveniente usar la norma infinito
}v}8 “ máx |vi |, (2.36)
0ăiďm
donde vi , para 0 ă i ď m, son las entradas del vector v de dimensión m. En este
trabajo se usa la norma infinito.
Lema 2.2. Si s y x son números reales positivos, tai uki“0 es una sucesión que
satisface a0 ě ´x{s y
ai`1 ď p1 ` sqai ` x, para i “ 0, 1, . . . , k, (2.37)
entonces
pi`1qs
´ x¯ x
ai`1 ď e a0 ` ´ .
s s
Demostración. Para un centro fijo i, la desigualdad (2.37) implica que
ai`1 ď p1 ` sq ai ` x
ď p1 ` sq rp1 ` sq ai´1 ` xs ` x
ď p1 ` sq tp1 ` sq rp1 ` sq ai´2 ` xs ` xu ` x
..
.
” ı
i`1 2 i
ď p1 ` sq a0 ` 1 ` p1 ` sq ` p1 ` sq ` ¨ ¨ ¨ ` p1 ` sq x.
Pero
i
ÿ
2 i
1 ` p1 ` sq ` p1 ` sq ` ¨ ¨ ¨ ` p1 ` sq “ p1 ` sq j
j “0
es una serie geométrica de razón p1 ` sq y su suma es
1 ´ p1 ` sq i ` 1 1 ” i`1
ı
“ p1 ` sq ´ 1 .
1 ´ p1 ` sq s
Por tanto,
i`1 p1 ` sqi`1 ´ 1 i`1
´ x¯ x
ai`1 ď p1 ` sq a0 ` x “ p1 ` sq a0 ` ´
s s s
y de acuerdo con el Lema 2.1, con z “ 1 ` s, dada
pi`1qs
´ x¯ x
ai`1 ď e a0 ` ´ .
s s
aplicar el método de Euler para aproximar yp1q. Además, con h “ 0.2, encontrar
el error y la cota del error para cada xk .
46 Teorı́a general de ecuaciones diferenciales
en este capı́tulo son válidas tanto para métodos implı́citos como para métodos
explı́citos, por lo tanto por simplicidad se enuncian estos resultados en el
contexto de métodos explı́citos.
La forma general de los MPU explı́citos con h fijo que se considera es
#
y0 “ ypx0 q,
(3.2)
yk`1 “ yk ` hφ pxk , yk , hq.
Los métodos de Runge Kutta forman una importante familia de MPU. La prin-
cipal caracterı́stica de estos métodos, al compararlos con los de Taylor, es que
ayudan a evitar el cálculo y la evaluación de la derivada de fpx, yq incluso con
alta orden. Un ejemplo de estos métodos es el método Euler (2.32). Estos méto-
dos surgen en 1895 por la idea de Runge de generalizar el método de Euler, te-
niendo en cuenta una serie de evaluaciones en la función fpx, yq para aproximar
sus sucesivas derivadas en un solo paso. Otras contribuciones fueron hechas por
Heun y Kutta alrededor de 1900. Este último caracterizó por completo el con-
junto de métodos de Runge Kutta de orden 4, y propuso los primeros métodos
de orden 5, más información histórica se presenta en [8].
Definición 3.7. Un método de Runge Kutta explı́cito de R estados, es un
MPU en el cual el número de estados hace referencia al número de evaluaciones
de fpx, yq que deben hacerse en cada paso. Estos métodos tienen la forma
#
y0 “ ypx0 q,
yk`1 “ yk ` hφ pxk , yk , hq,
donde
R
ÿ
φ px, y, hq “ cr kr ,
r “1
60 Métodos de paso único
con
k1 px, yq “ fpx, yq
k2 px, yq “ fpx ` ha2 , y ` hb21 k1 q
k3 px, yq “ fpx ` ha3 , y ` hb31 k1 ` hb32 k2 q (3.17)
..
. ´ řr´1 ¯
kr px, yq “ f x ` har , y ` h s“1 brs ks , 2 ď r ď R,
y los parámetros ar , brs y cr satisfacen las relaciones
R
ÿ ´1
rÿ
cr “ 1 y ar “ brs , 2 ď r ď R. (3.18)
r “1 s“1
Los métodos de Euler mejorado (3.23) y Euler modificado (3.24) también pue-
den ser aplicados para resolver SEDOP.
Usando la técnica presentada en el Ejemplo 3.1 se pueden obtener métodos de
alto orden, para lo cual se debe de considerar un mayor número de estados. Se
presentan a continuación algunos de los métodos de Runge Kutta clásicos.
Método de Runge Kutta de orden tres con tres estados (RK33)
$
’
’
’ y0 “ ypx0 q,
’ h
&yk`1 “ yk ` 6 pk1 ` 4k2 ` k3 q,
’
’
k1 “ fpxk , yk q (3.25)
k2 “ fpxk ` 2h , yk ` 2h k1 q
’
’
’
’
’
’
%k “ fpx ` h, y ´ hk ` 2hk q.
3 k k 1 2
Al observar los métodos (3.25), (3.26) y los deducidos en el Ejemplo 3.1, podrı́a
suponerse que si se considera un método de R etapas siempre se puede obtener
un método que alcance orden R. Sin embargo, en general esto es falso. Butcher
demostró que no existe un método de cinco etapas de orden cinco y demostró
el siguiente resultado, el cual se presenta en [9] y [15].
Teorema 3.2. Sea p˚ pRq el mayor orden que se puede alcanzar mediante un
método de Runge Kutta de R estados, entonces
p˚ pRq “ R, R “ 1, 2, 3, 4,
p˚ p5q “ 4,
p˚ p6q “ 5,
p˚ p7q “ 6, (3.28)
p˚ p8q “ 6,
p˚ p9q “ 7,
p˚ pRq “ R ´ 2 R “ 10, 11, . . . .
Para el caso en el que todos los valores propios de M sean diferentes, sin perdida
de generalidad, una de las ecuaciones del sistema tiene la forma simple
y1 pxq “ λ ypxq. (3.31)
Por lo tanto, para obtener información aceptable del comportamiento de la
solución de (3.29) se puede estudiar el comportamiento de (3.31). La solución
numérica por el método de Euler para (3.31) es
yk “ p1 ` λ hqk y0 . (3.32)
Se desea que esta solución presente el mismo comportamiento que la solución
analı́tica y “ y0 epnhλ q , donde λ puede ser real o complejo.
64 Métodos de paso único
Si λ ă 0, entonces
lı́m ypxk q “ lı́m y0 eλ kh “ 0.
kÑ8 kÑ8
4i
3i
RK56
RK44
2i RK33
RK22
i
Euler
−i
−2i
−3i
−4i
−6 −5 −4 −3 −2 −1 0 1
Figura 3.1: Región de estabilidad absoluta para los métodos de Runge Kutta.
66 Métodos de paso único
que si se aplica este método para resolver el problema de Cauchy (2.12) solo
se dispone de una condición inicial y0 , pero el método exige que además de la
condición inicial se debe conocer el valor de y1 . Por lo tanto, es necesario usar
diferentes técnicas para aproximar los valores iniciales necesarios para utilizar
un MPML, ver [31].
En forma general un MPML de N pasos se escribe como
N
ÿ N
ÿ
α j yk` j “ h β j fk ` j , (4.1)
j “0 j “0
1 h3 “ 3 ‰
ypxk ` hq ´ ypxk ´ hq “ 2hy pxk q ` y pξ1 q ` y3 pξ2 q .
3
Métodos de paso múltiple 71
1 h3
ypxk ` hq ´ ypxk ´ hq ď 2hy pxk q ` 2M . (4.4)
3
Para valores de h pequeños, el término que contiene h3 en (4.4) que se refiere
al error local, se puede omitir de lo cual se obtiene
yk`1 ´ yk´1 “ 2hfk .
Este método se conoce como método del punto medio y puede ser escrito en la
forma general (4.1) mediante la sustitución de k por k ` 1, de lo cual se obtiene
#
y0 “ ypx0 q, y1 conocido,
(4.5)
yk`2 “ yk ` 2hfk`1 .
Otra técnica que permite obtener MPML a partir de las series de Taylor consiste
en considerar la forma general (4.1) y mediante series de Taylor obtener expre-
siones que permitan calcular los coeficientes α j y β j para j “ 0, 1, . . . , N. Por
ejemplo, para deducir un MPML de un paso se considera la forma general
yk`1 ` α0 yk “ hpβ1 fk`1 ` β0 fk q.
Suponiendo que se conoce la solución exacta del problema de Cauchy (2.12),
ypxq, y dado que y1 pxq “ fpx, yq se cumple que
“ ‰
ypxk ` hq ` α0 ypxk q « h β1 y1 pxk ` hq ` β0 y1 pxk q . (4.6)
Expandiendo en series de Taylor ypxk ` hq y y1 pxk ` hq en torno a xk se tiene
1h2 2 h3 3 h4 p4q
ypxk ` hq “ ypxk q ` hy pxk q ` y pxk q ` y pxk q ` y pξ1 q, (4.7)
2! 3! 3!
1 1 2h2 3 h3 p4q
y pxk ` hq “ y pxk q ` hy pxk q ` y pxk q ` y pξ2 q, (4.8)
2! 3!
donde xk ă ξ1 ă xk`1 y xk ă ξ2 ă xk`1 .
Cuando la cuarta derivada de y esta acotada en ra, bs y h es pequeño, el error
local se puede omitir. Luego sustituyendo (4.7) y (4.8) en (4.6) y agrupando
términos, se obtiene la expresión
C0 ypxk q ` C1 hy1 pxk q ` C2 h2 y2 pxk q ` C3 h3 y3 pxk q « 0, (4.9)
72 Métodos de paso múltiple
donde
1 1 1
C0 “ 1 ` α0 , C1 “ 1 ´ β1 ´ β0 , C2 “ ´ β1 , C3 “ ´ β1 . (4.10)
2 6 2
Para que se cumpla la expresión (4.9) se debe hacer que los coeficientes de esta
expresión se anulen, es decir que C0 “ 0, C1 “ 0, C2 “ 0 y C3 “ 0. Por lo tanto, de
las tres primeras expresiones en (4.10) se concluye que α0 “ ´1 y β0 “ β1 “ 12 .
1
De donde C3 toma el valor de 12 . De lo anterior se obtiene el MPML conocido
como el método del trapecio implı́cito. Este método se presentó en la ecuación
(2.40) del Capı́tulo 2 como un ejemplo de métodos implı́citos.
#
y0 “ ypx0 q,
(4.11)
yk`1 “ yk ` h2 pfk`1 ` fk q.
y son sumatorias cuyos términos son valores de la función fpx, ypxqq multipli-
cados por pesos w convenientemente elegidos, es decir
ż xk` j ż xk` j j
ÿ
fpx, ypxqqdx « Ppxqdx « wk`i fpxk`i , ypxk`i qq.
xk xk i“k
es decir
ż xk` j j
ÿ
fpx, ypxqqdx “ wk`i fpxk`i , ypxk`i qq
xk i“k
j
ż xk` j ź
1
` px ´ xk`i qfp j`1q pς pxqqdx,
pn ` 1q! xk i“k
h3 2
ż xk`1
h
fpx, ypxqqdx “ rfpxk , ypxk qq ` fpxk`1 , ypxk`1 qqs ´ f pς q. (4.16)
xk 2 12
La expresión (4.16) se conoce como la regla del trapecio para aproximar
integrales.
Ası́
ż2
yk`1 “ yk ` rufk ` p1 ´ uqfk´1 s hdu
1
«˜ ¸ ˜ ¸ff2
u2 u2
“ yk ` h fk ` u ´
2 2
ˆ ˙ 1
3 1
“ yk ` h fk ´ fk´1 .
2 2
De aquı́ se obtiene la fórmula explı́cita de Adams Bashforth de 2
pasos (AB2)
h
yk`1 “ yk ` p3fk ´ fk´1 q.
2
Este método puede ser escrito en la forma general (4.1) mediante la sustitución
de k por k ` 1, de lo cual se obtiene
#
y0 “ ypx0 q, y1 conocido,
(4.21)
yk`2 “ yk`1 ` h2 p3fk`1 ´ fk q.
Luego
ż 2„
upu ´ 1q pu ´ 1qpu ´ 2q
yk`1 “ yk ` fk`1 ´ upu ´ 2qfk ` fk´1 hdu
1 2 2
«˜ ¸ ˜ ¸ ˜ ¸ff2
u3 u2 u3 u 3 3u 2
“ yk ` h ´ fk`1 ´ ´ u2 fk ` ´ `u
6 4 3 6 4
1
h
“ yk ` p5fk`1 ` 8fk ´ fk´1 q.
12
De donde se obtiene la fórmula implı́cita del método de Adams Moulton de
2 pasos (AM2)
h
yk`1 “ yk ` p5fk`1 ` 8fk ´ fk´1 q.
12
Este método puede ser escrito en la forma general (4.1) mediante la sustitución
de k por k ` 1, de lo cual se obtiene
#
y0 “ ypx0 q, y1 conocido,
h (4.23)
yk`2 “ yk`1 ` 12 p5fk`2 ` 8fk`1 ´ fk q.
1 1 j2 h2 p3q
2 j p´1 h p´1 p pq
y pxk ` jhq “ y pxk q ` jhy pxk q ` y pxk q ` ¨ ¨ ¨ ` y pxk q ` ¨ ¨ ¨
2! p p ´ 1q!
(4.29)
Remplazando (4.28) y (4.29) en (4.27), y agrupando términos se tiene la
expresión
hτk “ C0 ypxk q ` C1 hy1 pxk q ` C2 h2 y2 pxk q ` ¨ ¨ ¨ ` C p h p yp pq pxk q ` ¨ ¨ ¨ ,
donde los coeficientes constantes Ci son
N
ÿ
C0 “ α j,
j “0
ÿ N n
ÿ
C1 “ jα j ´ β j,
j “0 j “0
N 2 n
ÿ j α j
ÿ
C2 “ ´ jβ j ,
j “0
2! j “0
..
.
N N
ÿ j pα j ÿ j p´1 β j
Cp “ ´ .
j “0
p! j“0
p p ´ 1 q !
sido generadas por la aplicación de (4.1) pero con diferentes valores de inicio
y0 , y1 , . . . , yN ´1 y p
y0 , p
y1 , . . . , p
yN ´1 , respectivamente, se tiene que
y0 } , }y1 ´ p
yk`N } ď K máx t}y0 ´ p
}yk`N ´ p yk´1 }u ,
y1 } , . . . , }yN ´1 ´ p
para h que tiende a 0.
A pesar de que la Definición 4.5 permite entender intuitivamente la idea de
estabilidad en el sentido en que pequeñas perturbaciones en las condiciones
iniciales dan lugar a pequeñas perturbaciones en los datos de salida, es muy
tedioso usar esta definición para verificar la estabilidad de un MPML. Por es-
ta razón se estudian técnicas alternativas más sencillas que permiten verificar
la estabilidad de un MPML. Antes de empezar es necesario definir algunos
conceptos, los cuales se enuncian para el caso escalar.
Definición 4.6. Dado el MPML,
N
ÿ N
ÿ
α j yk` j “ h β j f k` j ,
j “0 j “0
n
ÿ
σ pzq “ β jz j,
j“0
con αN “ 1.
Usando la Definición 4.6, se presentan a continuación algunos teoremas que
permiten verificar fácilmente la consistencia y estabilidad para un MPML.
Teorema 4.1. El MPML (4.1) es consistente si y solo si
0 “ ρ p1q “ α0 ` α1 ` ¨ ¨ ¨ ` αn “ C0 ,
es decir C0 “ 0.
Por otro lado
N
ÿ N
ÿ
1
ρ p1q “ jα j y σ p1q “ β j.
j “0 j “0
Métodos de paso múltiple 81
Por lo tanto usando la condición del Teorema 4.1, ρ 1 p1q “ σ p1q, se tiene
N
ÿ N
ÿ
1
0 “ ρ p1q ´ σ p1q “ jα j ´ β j “ C1 .
j“0 j “0
Se concluye que si se cumplen las hipótesis del Teorema 4.1, se tiene que C0 “ 0
y C1 “ 1, de donde el MPML es consistente.
Ejemplo 4.2. Considere el problema de Cauchy
#
y1 pxq “ 0,
(4.30)
ypx0 q “ 0,
cuya solución exacta es ypxq “ 0. Analice las condiciones de convergencia al
aplicar a este SEDOP el MPML (4.1) .
Solución. Aplicando el MPML (4.1) al SEDOP (4.30), se tiene la ecuación en
diferencias homogénea
ÿN
α j yn` j “ 0. (4.31)
j“0
La expresión (4.31) es una ecuación de diferencias homogénea (ver Apéndice
A.2), por lo tanto para encontrar la solución de esta ecuación se deben conside-
rar las raı́ces del polinomio
N
ÿ
ρn pzq “ α jz j,
j “0
es claro que el método no será convergente si alguna de las raı́ces z1 tiene módu-
lo mayor que uno. Si se considera el caso en el que las raı́ces del polinomio ρ pzq
tienen multiplicidad m ą 1 de manera similar al caso anterior, se concluye del
Apéndice A.2, la solución de (4.31) tiene la forma
yk “ d1,1 ` d1,2 k ` ¨ ¨ ¨ ` d1,m1 kpk ´ 1qpk ´ 2q ¨ ¨ ¨ pk ´ m1 ` 2q hr1k `
“ ‰
tiene módulo mayor que 1 y toda raı́z con módulo 1 tiene multiplicidad 1.
La Definición 4.7 usualmente se conoce como condición de la raı́z y ofrece
una técnica sencilla para verificar la estabilidad de un MPML.
Observación 4.2. El Teorema 4.1 establece que para que un MPML sea con-
sistente, se debe cumplir que el primer polinomio caracterı́stico del método,
ρ pzq, siempre tiene que tener la raı́z z “ 1. Esta raı́z se denomina raı́z principal
y será de suma importancia en el estudio de la estabilidad absoluta para MPML,
en adelante esta raı́z será denotada por z1 .
Observación 4.3. Si se considera un MPU consistente, se tiene que el po-
linomio caracterı́stico para este método es de grado 1 y la única raı́z de este
polinomio es z “ 1. Por lo tanto, por la Definición 4.7 de estabilidad, si un MPU
es consistente entonces es estable. Es decir que para verificar que un MPU es
estable basta verificar que el método sea consistente.
Teorema 4.2. La consistencia y estabilidad del MPML (4.1) son condiciones
necesarias y suficientes para que el método sea convergente.
La demostración del Teorema 4.2 puede ser consultada en [9].
Métodos de paso múltiple 83
La estabilidad absoluta de los MPML al igual que en el caso de MPU tiene que
ver con el problema de elegir un tamaño de paso adecuado. Aunque la teorı́a
asegura buenos resultados para tamaños de paso que sean próximos a cero, en
la práctica tomar tamaños de paso pequeños genera errores de redondeo. Por
lo tanto, en este capı́tulo se presentan algunas técnicas que permiten calcular
tamaños de paso para MPML que aseguren buenas aproximaciones numéricas.
Análogo al estudio de estabilidad para los MPU en (3.31), la estabilidad abso-
luta para los MPML se estudia en un problema de Cauchy escalar de la forma
es decir
N
ÿ N
ÿ
α j yk` j ´ λ h β j yk` j “ 0. (4.34)
j“0 j“0
Por el Apéndice A.2, la solución general de (4.36) es una sucesión ten u, donde
cada término es de la forma
ÿN
ek “ Arki ` ψ,
i“0
řN
donde zi es una raı́z del polinomio j“0 pα j ´ hβ j qz j para i “ 0, 1, . . . , N. Note
que las raı́ces zi ‰ 1, ya que si zi “ 1 se tiene que
N
ÿ
pα j ´ hβ j q “ 0,
j“0
N
ÿ
π pz, hq “ ρ pzq ´ hσ pzq “ pα j ´ hβ j qz j “ 0, (4.39)
j “0
donde h “ λ h.
0,8i
0,6i
0,4i
0,2i
−0,2i
−0,4i
−0,6i
−0,8i
−i
−1 −0.8 −0.6 −0.4 −0.2 0
Problema 4.3. Usando la regla del trapecio en (4.16), deducir el método AB3
en (4.24).
Problema 4.4. Analizar la consistencia de los métodos AB2 y AM2, respec-
tivamente en (4.21) y (4.23).
Problema 4.5. Realizar lo propuesto en el Problema 3.1 aplicando el método
de AB2.
5 Validación de implementaciones . . . . . . . . . . . . . . . 91
5.1 Problemas para estudio numérico
5.2 Métodos de paso único
5.3 Métodos de paso múltiple
5.4 Problemas propuestos
Algunos de los problemas con los que se han realizado las pruebas numéricas
son para EDO reales e imaginarias y otros para SEDOP, esto con el fin de
verificar las propiedades teóricas de los métodos en cada caso. A continuación
se presentan los problemas que se usarán para verificar las implementaciones
realizadas en Matlab, ver [17].
Problema 5.1. #
y1 pxq “ ´ypxq ` 2 cospxq,
yp0q “ 1, x P r0, 1s .
Problema 5.4. #
y1 pxq “ ypxq2 ` 1,
yp0q “ 0, x P r0, 1.2s .
Con solución exacta ypxq “ tanpxq y yp1.2q “ 2.5721.
Problema 5.5. #
y1 pxq “ p´1 ` 2iqypxq,
yp0q “ 1, x P r0, 20s .
Con solución exacta ypxq “ ep´1`2iqx y yp20q “ ´1.3746 ˆ 10´9 ` 1.5357 ˆ
10´9 i.
Problema 5.6.
$
1
&u pxq “ upxq ´ 2vpxq ` 4 cospxq ´ 2 senpxq
’
v1 pxq “ 3upxq ´ 4vpxq ` 5 cospxq ´ 5 senpxq,
’
%up0q “ 1, vp0q “ 2, x P r0, 1s.
Con solución exacta upxq “ senpxq ` cospxq, vpxq “ 2 cospxq y up1q “ 1.3818,
vp1q “ 1.0806.
Problema 5.7. $
1
&u pxq “ ´2upxq ` vpxq
’
v1 pxq “ upxq ´ 2vpxq,
’
%up0q “ 0, vp0q “ 2, x P r0, 20s.
Con solución exacta upxq “ e´x ´ e´3x , vpxq “ e´x ` e´3x y up20q “ 2.0611 ˆ
10´9 , vp20q “ 2.0611 ˆ 10´9 .
En las pruebas numéricas se calculará el error global de discretización, el cual
en el caso escalar es ek “ |ypxk q ´ yk |, es decir la diferencia entre la solución
exacta y la solución aproximada. En el caso vectorial el error global es
ek “ }ypxk q ´ yk }8 , donde se considera la norma infinito (2.36). Para calcular el
orden de convergencia p se usa la expresión
˜ ¸
epk,hq
p “ log2 ,
epk,h{2q
donde epk,hq denota el error global en xk obtenido con tamaño de paso h.
Cada uno de los problemas 5.1 - 5.5, fueron seleccionadas con la idea de explo-
rar ciertas propiedades como son el comportamiento de la solución numérica
en EDO lineales, no-lineales, reales y complejas. Por otro lado, a fin de tener
soluciones exactas en el caso de SEDOP se tienen los problemas 5.6 y 5.7,
Validación de implementaciones 93
5.2.1 Convergencia
Las tablas 5.1, 5.2 y 5.3 corresponden a los errores y ordenes estimados en la so-
lución de los problemas 5.1, 5.2 y 5.6, respectivamente, mediante la aplicación
de algunos MPU. En los tres problemas se determinó una solución numérica
para cada uno de los métodos considerados usando un tamaño de paso inicial
de h “ 2´1 y posteriormente para encontrar una nueva aproximación se redujo
este tamaño de paso a la mitad. En estas tablas se puede observar que el error
está bajando con el orden esperado para cada método.
Adicionalmente, de los resultados en las tablas 5.1, 5.2 y 5.3, también se con-
cluye que el método RK56 genera los resultados más precisos. Sin embargo,
los errores para h “ 2´5 se encuentran cerca a la precisión de maquina en cada
aproximación y por tal motivo, para este método no es conveniente usar valores
de tamaños de paso muy pequeños. En contraste, el método de Euler es el de
menor precisión e incluso, se debe continuar reduciendo el valor del tamaño
de paso para que el error sea adecuado. Esto también puede generar problemas
numéricos.
94 Validación de implementaciones
−2
−4
−6
Log(EG)
−8
−10
−12
−14
−16
−4 −3.5 −3 −2.5 −2 −1.5 −1 −0.5 0
Log(h)
Se resalta que el método de Euler tuvo una reducción del error desde un orden
de 10´1 hasta 10´4 , lo cual es una variación pobre al compararla con la de los
96 Validación de implementaciones
otros métodos de orden superior para los que el error llega a reducirse entre
una precisión de 10´8 y 10´5 . Además, se puede concluir que efectivamente
los métodos de Taylor 2 y RK22 tienen el mismo orden, dado que las rectas
azul y verde respectivamente relacionadas con los resultados de estos métodos,
son paralelas. Incluso al comparar estos dos métodos, Taylor 2 produce un error
menor que RK22, esto se debe a que el cálculo en las derivadas parciales para el
método de Taylor 2 se realizó de forma analı́tica. En la Figura 5.1, debido a las
escalas logarı́tmicas en ambos ejes, también es posible relacionar la pendiente
de las rectas con el orden de convergencia, entre mayor inclinación mayor es el
orden del método.
De la Figura 5.1, también se observa que para el método RK56 no es reco-
mendable usar un tamaño de paso tan pequeño, ya que para tamaños de paso
menores que h “ 2´8 la precisión finita del computador hace que se produzcan
errores de redondeo que afectan significativamente al error global de discretiza-
ción. De manera similar para el método RK44 no se producen buenos resultados
para tamaños de paso menores que 2´11 . Los valores de aproximaciones obte-
nidas con estos dos métodos, luego de pasar el cero computacional de 10´16 ya
no son confiables y deben ser descartados.
En las implementaciones de los métodos la elección de tamaños de paso dema-
siado pequeños no siempre produce buenos resultados, por tal motivo se evi-
dencia en la práctica la importancia que tiene el estudio de estabilidad absoluta
para los MPU.
error fue 0.67. Con esta simulación, se verifica numéricamente que para obtener
buenas aproximaciones numéricas se deben tomar tamaños de paso dentro de
la región de estabilidad.
h=0.392 h=0.488
60
50
40
Error
30
20
10
0
0 2 4 6 8 10 12 14 16 18 20
x
´2 ă ´15h ă 0 ñ 0 ă h ă 0.1334.
´2.51 ă ´15h ă 0 ñ 0 ă h ă 0.1673.
En la Figura 5.3 se presenta en color rojo la solución exacta del Problema 5.3,
junto con dos soluciones numéricas, de color azul, obtenidas de aplicar el méto-
do de Euler con tamaños de paso h1E “ 0.1428 y h2E “ 0.1307, que están fuera
y dentro del intervalo de estabilidad absoluta, respectivamente. Se verifica que
para h1E los resultados numéricos son inaceptables ya que la diferencia máxima
entre la solución numérica y la solución exacta es del orden de 108 . Mientras
que para h2E , aunque al inicio hay oscilaciones se tiene que la diferencia máxi-
ma entre la solución numérica es de 1 unidad y esta diferencia disminuye con-
forme avanza el proceso de integración. A pesar de que h2E se encuentra dentro
del intervalo de estabilidad, es muy cercano al valor extremo de este intervalo
lo que justifica la inestabilidad inicial presente en la Figura 5.3 (b).
98 Validación de implementaciones
8
x 10
1.5
0.5
0
y
−0.5
−1
−1.5
0 5 10 15 20
x
(a) Euler, h1E “ 0.1428.
0.5
0
y
−0.5
−1
0 5 10 15 20
x
(b) Euler, h2E “ 0.1307.
Figura 5.3: Estabilidad absoluta método de Euler con h crı́tico, Problema 5.3.
Para mejorar los resultados obtenidos usando h2E , la Figura 5.4 muestra los re-
sultados de aplicar el método de Euler con tamaños de paso h3E y h4E , los cuales
están dentro del intervalo de estabilidad absoluta y son de menor magnitud que
h2E . En esta figura, se hace un acercamiento en la región que se presenta la di-
ferencia máxima entre la solución exacta y la solución numérica. Se concluye
que para h4E “ 0.0667, el cual se encuentra en la mitad del intervalo p0, 0.1334q,
la aproximación se acerca en forma más suave a la solución exacta, como se
observa en la Figura 5.4 (b). Aunque h3E “ 0.1000 también aproxima con
buena precisión la solución, por lo obtenido en la Figura 5.4 (a), se observa
que al ser un valor de paso más cercano al extremo derecho del intervalo de
estabilidad para x pequeño la convergencia se da de forma oscilante.
Validación de implementaciones 99
0.5
y
0
−0.5
0 5 10 15 20
x
0.6
0.4
0.2
0
y
−0.2
−0.4
−0.6
0 0.5 1 1.5 2
x
0.5
y
−0.5
0 5 10 15 20
x
0.8
0.6
0.4
y
0.2
−0.2
0 0.5 1 1.5 2
x
0
y
−1
−2
0 5 10 15 20
x
(a) RK33, h1RK33 “ 0.1709.
1
0.8 Solución numérica Runge Kutta 3
Solución exacta
0.6
0.4
0.2
0
−0.2
−0.4
−0.6
−0.8
−1
0 2 4 6 8 10 12 14 16 18 20
Figura 5.5: Estabilidad absoluta método RK33, valores de h crı́ticos, Problema 5.3.
1
0.8
0.6
0.4
y
0.2
0
−0.2
−0.4
0 5 10 15 20
x
0.5
0.4
0.3
0.2
y
0.1
0
−0.1
−0.2
0 0.5 1 1.5 2
x
0.8
0.6
0.4
y
0.2
−0.2
0 5 10 15 20
x
0.4
0.3
0.2
y
0.1
−0.1
0 0.5 1 1.5 2
x
´2 ă λ1 h ă 0 ñ ´2 ă ´h ă 0 ñ 0 ă h ă 2,
´2 ă λ2 h ă 0 ñ ´2 ă ´3h ă 0 ñ 0 ă h ă 0.6667.
Las figuras 5.7 y 5.8 incluyen las soluciones exactas del sistema del Proble-
ma 5.7 en rojo. En las figuras 5.7 y 5.8 también se presentan las soluciones
numéricas para cada una de componentes vectoriales (u-azul, v-verde) obteni-
das de aplicar los métodos de Euler y RK33, respectivamente. En estas figuras
se han utilizado diferentes tamaños de paso, dentro y fuera de los intervalos de
estabilidad absoluta para las aproximaciones numéricas.
Estas simulaciones numéricas permiten observar que tanto para el método de
Euler como para RK33 el valor propio λ “ ´3 es el que determina el intervalo
de estabilidad absoluta para el Problema 5.7. Esto era de esperarse ya que al
observar, por ejemplo para el método de Euler, el tamaño de paso debı́a cumplir
dos condiciones:
0 ă h ă 2 y 0 ă h ă 0.6667,
donde la condición con mayor restricción era la asociada con el valor propio
λ “ ´3. Es decir que para garantizar la estabilidad absoluta para los métodos
de Euler y RK33, respectivamente el tamaño de paso debe pertenecer a los
intervalos p0, 0.6667q y p0, 0.8366q.
Validación de implementaciones 103
4 4
2x 10 1.5x 10
1.5 1
1 0.5
0.5 0
u
v
0 −0.5
−0.5 −1
−1 −1.5
−1.5 −2
0 5 10 15 20 0 5 10 15 20
x x
1.5 1
1
0.5
0.5
u
0
0
−0.5 −0.5
−1 −1
0 5 10 15 20 0 5 10 15 20
x x
0.4
1.5
0.3
1
u
0.2
0.5
0.1
0 0
0 5 10 15 20 0 5 10 15 20
x x
8 8
3x 10 1x 10
2 0
1 −1
u
v
0 −2
−1 −3
0 5 10 15 20 0 5 10 15 20
x x
1.5
1
1
0.5
u
0.5
0
0
−0.5 −0.5
0 5 10 15 20 0 5 10 15 20
x x
0.8
0.6
0.1
0.4
0.2
0 0
0 2 4 6 8 10 12 14 16 18 20 0 5 10 15 20
x x
Dado que los intervalos de estabilidad absoluta son mayores para los métodos
implı́citos que para los explı́citos, es interesante estudiar este comportamiento
y ası́ se incluye la simulación numérica de un método implı́cito, se recomienda
ver [9] y [21].
Aplicando el método de Euler implı́cito (2.39) al Problema 5.3 se tiene que
yk`1 “ yk ´ 15hyk`1 .
Luego despejando yk`1 , se obtiene la expresión
yk
yk`1 “ ,
1 ` 15h
que es una fórmula explı́cita para aproximar el Problema 5.3.
En la Figura 5.9 se observa que para los valores de h1E “ 0.1428 y h2E “ 0.1307,
que están fuera y dentro de las regiones de estabilidad del método de Euler en el
mismo problema, el método de Euler implı́cito ofrece buenos resultados. Esto
se debe a que las regiones de estabilidad absoluta para los métodos implı́citos es
mayor que en los métodos explı́citos. Sin embargo, en la práctica los métodos
implı́citos no son de uso común porque no siempre se puede despejar el valor de
yk`1 , por lo cual para obtener un valor de yk`1 de una ecuación implı́cita se debe
usar métodos numéricos para resolver ecuaciones como el método de Newton,
ver [32]. Esto puede aportar errores numéricos y una dificultad adicional en la
solución de los SEDOP.
Solución numérica Euler implícito Solución exacta
0.8
0.6
0.4
y
0.2
−0.2
0 2 4 6 8 10 12 14 16 18 20
x
0.8
0.6
0.4
y
0.2
−0.2
0 2 4 6 8 10 12 14 16 18 20
x
−6
−8
−10
−12
−14
−16
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5
CPU en segundos
5.3.1 Convergencia
Para verificar numéricamente la convergencia se ha considerado los problemas
5.1, 5.2 y 5.6 partiendo de un tamaño de paso inicial h “ 2´3 y reduciendo
este valor a la mitad en cada aproximación. Sobre la aproximación numérica
obtenida para estos problemas, en las tablas 5.4, 5.5 y 5.6, se puede observar que
el error está bajando con el orden esperado para cada método, sin embargo si
se consideran tamaños de paso demasiado pequeños pueden generarse grandes
errores de redondeo que afectan a la solución numérica.
108 Validación de implementaciones
−4
−6
Log(EG)
−8
−10
−12
−14
40
30
20
10
0
−10
−200 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8
CPU en segundos
Tabla 5.7: Valores iniciales AB4 con Euler y RK44, Problema 5.2.
En esta sección se estudian métodos en los cuales se controla en cada paso los
errores mediante la variación del tamaño de paso. Los métodos que tienen esta
propiedad se conocen como métodos adaptativos, ver [29].
En la práctica con frecuencia se presentan problemas para los cuales la solución
que se quiere aproximar es suave en algunas regiones, por lo tanto para evitar
costos computacionales en estas regiones no es necesario usar tamaños de paso
tan pequeños para obtener buenos resultados. Este tipo de problemas da origen
a los métodos adaptativos, los cuales eligen el tamaño de paso de acuerdo al
problema tratado. En esta investigación se ha implementado el método de Run-
ge Kutta Fehlberg, el cual es una combinación de los métodos RK44 y RK45
capaz de variar el tamaño de paso a fin de que el error se mantenga en una
tolerancia predefinida.
yphq “ ypxq ` h p g p pxq ` h p`1 g p`1 pxq ` . . . ` hN gN pxq ` hpN `1q GpN `1q px, hq,
(6.1)
con g j px0 q “ 0 para j “ p, p ` 1, . . ., válidas para todo x P pa, bq y para todo
h ą 0.
Nótese que las funciones g j son independientes del valor de h y que GN `1 px, hq
es un residuo.
Aplicando la expansión asintótica del Teorema (6.1.1), se puede escribir una
expresión para el error global de discretización ası́
» fi
N
ÿ
ek “ ypxk q ´ ypk,hq “ ´ – h j g j pxq ` hN `1 GN `1 px, hqfl . (6.2)
j“ p
La expresión (6.2) será usada para obtener una aproximación numérica al error
global de discretización. El proceso es el siguiente.
Para un paso de integración h se calcula la solución numérica yph,kq y para el
mismo xk se obtiene la solución numérica yph{2,kq . Luego para h lo suficiente-
mente pequeño se tiene que
epk,hq “ ypxk q ´ ypk,hq « ´g p pxqh p , (6.3)
ˆ ˙p
h
epk,h{2q “ ypxk q ´ ypk,h{2q « ´g p pxq . (6.4)
2
Restando (6.3) y (6.4), se tiene
„ ˆ ˙ p ˆ ˙p
p h h
ypk,hq ´ ypk,h{2q « g p pxq h ´ “ g p px q p2 p ´ 1q. (6.5)
2 2
Por lo tanto
ypk,hq ´ ypk,h{2q
g p pxqph{2q p « . (6.6)
2p ´ 1
Sustituyendo (6.6) en (6.4), se tiene una expresión para aproximar el error
global de discretización
ypk,hq ´ ypk,h{2q
epk,h{2q « ´ .
2p ´ 1
Resultados numéricos 115
n n n n δn
τk`1 « K pδ hq “ δ pKh q « δ τk`1 « pyk`1 ´ yk`1 q.
h
La aproximación del error local τk`1 debe de estar acotada por la tolerancia
fijada ε, por tanto
δn
τk`1 « pyk`1 ´ yk`1 q ď ε,
h
118 Resultados numéricos
es decir
˜ ¸1
n
εh
δď ˇ
ˇy
ˇ .
k `1 ´ y k `1
ˇ
Se calculó una cota para el factor δ , la cual es para el método de Runge Kutta
Fehlberg. Según [7], la elección común del factor δ es
˜ ¸1{4
εh
δ “ 0.84 ˇˇ ˇ .
yk`1 ´ yk`1 ˇ
2.5
1.5
y
0.5
0
0 0.2 0.4 0.6 0.8 1 1.2
x
xk hk yk Error ek
0.25 0.25 0.25534 7.11008 ˆ 10´8
0.5 0.25 0.54630 1.21433 ˆ 10´6
0.75 0.25 0.93160 9.42345 ˆ 10´6
0.872 0.122 1.19008 1.28408 ˆ 10´5
0.967 0.095 1.45125 1.70797 ˆ 10´5
1.041 0.074 1.70959 2.19929 ˆ 10´5
1.100 0.059 1.96845 2.76557 ˆ 10´5
1.149 0.048 2.23063 3.41606 ˆ 10´5
1.190 0.040 2.49801 4.16013 ˆ 10´5
1.2 0.009 2.57219 4.37629 ˆ 10´5
Se cree que la salida de las partı́culas virales hace que la membrana de la célula
TCD4` se torne más permeable lo cual permite la entrada excesiva de diferen-
tes sustancias que provocan la muerte de la célula. Como las células TCD4`
son esenciales para el correcto funcionamiento del sistema inmunológico, la
muerte de estas por acción del VIH deja al sistema inmune incapaz de reaccio-
nar de forma eficiente frente a diferentes enfermedades infecciosas, esta etapa
de la enfermedad se conoce como SIDA.
Sin embargo, a fin de tener un modelo más acorde con la realidad, se cambia el
término
´ que controla
¯ el aumento de células T sanas pT por el término logı́stico
T `αI
pT 1 ´ TM , donde TM es el número máximo de células T sanas en el or-
ganismo y α es un valor constante. De aquı́, al modificar el modelo (6.13), se
obtiene el modelo de interés
$ ´ ¯
1 T `αI
&T pt q “ s ` pT 1 ´ TM ´ dT ´ kV T
’
’
I 1 pt q “ kV T ´ cI (6.14)
’
%V 1 pt q “ NcI ´ uV.
’
Este nuevo modelo es más realista pues existen limites biológicos para la pro-
ducción de células T , sin esta sustitución puede pasar que el número de células
T crezca indefinidamente, lo cual no acompaña a la realidad.
La constante α, la cual se introdujo en esta investigación, permite que este
modelo sea versátil con la literatura dado que algunas investigaciones ignoran
el efecto de la población de células infectadas en el término logı́stico al ser
muy pequeño, del orden de 10´4 a 10´5 , en este caso se toma α “ 0 o en caso
contrario α “ 1.
1000 250
200
800
700 150
600
500 100
400
50
300
200 0
0 100 200 300 400 500 600 700 0 100 200 300 400 500 600 700
t (días) t (días)
5000
4500
4000
Población virus libre
3500
3000
2500
2000
1500
1000
500
0
0 100 200 300 400 500 600 700
t (días)
Figura 6.3: Comparación entre la solución numérica del método RK44 y [12].
126 Resultados numéricos
750 50
45
800
700
600
Población virus libre
500
400
300
200
100
0 100 200 300 400 500
t (días)
Figura 6.4: Comparación entre la solución numérica del método RK44 y [25].
1000 600
700
400
600
500 300
400
300 200
200
100
100
0 0
0 50 100 150 0 50 100 150
t (días) t (días)
3.5
3
2.5
2
1.5
1
0.5
0
0 50 100 150
t (días)
Para este mismo caso, la Tabla 6.7 presenta las aproximaciones numéricas a T
para determinados periodos de tiempo usando diferentes métodos con el mismo
tamaño de paso h “ 0.1. La diferencia entre las soluciones numéricas de cada
método parece no ser significativa.
t Euler RK22 RK33 RK44 RK56 RK44-AB4
10 999.867020 999.780968 999.777113 999.777011 999.777008 999.778740
30 31.119532 34.396355 34.509947 34.513049 34.513111 34.634371
50 146.393706 149.122702 149.268031 149.271438 149.271512 149.484933
70 135.912513 133.152404 133.036372 133.033476 133.033414 132.868112
90 120.987027 122.140415 122.180238 122.181294 122.181316 122.238010
110 135.659506 134.967235 134.954927 134.954559 134.954551 134.937244
130 125.985445 126.291317 126.292036 126.292084 126.292084 126.292926
150 130.439863 130.330041 130.332391 130.332441 130.332442 130.336054
Si se aplica el método de Euler con tamaño de paso h “ 0.01 se obtiene que para
el dı́a 19 el número de células T sanas es de 242.114808, por lo tanto con este
tamaño de paso el método de Euler ofrece buenos resultados. Este fenómeno
se debe a que la solución exacta del modelo presenta un cambio brusco en el
periodo de tiempo p15, 22q tal y como se muestra en la Figura 6.5, por lo tanto
se deberı́a usar un tamaño de paso más pequeño en este intervalo.
0.2
0.18
0.16
0.14
0.12
h
0.1
0.08
0.06
0.04
0.02
0
0 10 20 30 40 50 60 70 80 90 100 110 120 130 140 150
x
Figura 6.6: Variación del tamaño de paso modelo VIH/SIDA, método RKF.
Por otro lado, de estos resultados también se concluye que como es esperado,
el tratamiento retrasa el crecimiento en las poblaciones de virus libres y célu-
las infectadas, haciendo que no alcancen niveles tan altos lo cual muestra la
efectividad.
130 Resultados numéricos
500
400
300
200
100
0
0 50 100 150
t (días)
3.5
3
2.5
2
1.5
1
0.5
0
0 50 100 150
t (días)
Figura 6.7: Solución numérica para modelo VIH/SIDA con estrategia de control,
tratamiento con 0 %, 10 %, 50 % y 70 % de eficiencia, método RK44.
Resultados numéricos 131
A.1 Interpolación
yk “ zk . (A.9)
Remplazando (A.9) en (A.8) se tiene
N
ÿ
k
z α jz j. (A.10)
j “0
zk ρN pzq,
A.3 Implementaciones
1 % M étodo de E u l e r
2 %
3 % P a r á m e t r o s de e n t r a d a
4 % a : E x t r e m o i n i c i a l d e l i n t e r v a l o de i n t e g r a c i ó n .
5 % b : E x t r e m o f i n a l d e l i n t e r v a l o de i n t e g r a c i ó n .
6 % n : N úmero de d i v i s i o n e s d e l i n t e r v a l o de i n t e g r a c i ó n
7 % y0 : C o n d i c i ó n i n i c i a l .
8 % f : F u n c i ó n p r o b l e m a de Cauchy y ’= f ( x , y ) . E s t a
9 % f u n c i ó n s e d e f i n e en un a r c h i v o e x t e r n o .
10 % Salida
11 % x : V e c t o r de p u n t o s d e l i n t e r v a l o [ a , b ] p a r a l a
12 % d i s c r e t i z a c i ó n .
13 % y : V e c t o r s o l u c i ó n n u m é r i c a p a r a l o s p u n t o s x
14 % considerados .
15
16 f u n c t i o n [ x , y ] = E u l e r ( a , b , n , y0 )
17
24 for k = 1: n
25 x ( k +1) = x ( k ) + h ;
26 y ( k +1) = y ( k ) + h∗ f ( x ( k ) , y ( k ) ) ;
27 end
28 end
Apéndice 141
1 % M étodo de Runge K u t t a 44
2 %
3 % P a r á m e t r o s de e n t r a d a
4 % a : E x t r e m o i n i c i a l d e l i n t e r v a l o de i n t e g r a c i ó n .
5 % b : E x t r e m o f i n a l d e l i n t e r v a l o de i n t e g r a c i ó n .
6 % n : N úmero de d i v i s i o n e s d e l i n t e r v a l o de i n t e g r a c i ó n
7 % y0 : C o n d i c i ó n i n i c i a l .
8 % f : F u n c i ó n p r o b l e m a de Cauchy y ’= f ( x , y ) . E s t a
9 % f u n c i ó n s e d e f i n e en un a r c h i v o e x t e r n o .
10 %
11 % Salida
12 % x : V e c t o r de p u n t o s d e l i n t e r v a l o [ a , b ] p a r a l a
13 % d i s c r e t i z a c i ó n .
14 % y : V e c t o r s o l u c i ó n n u m é r i c a p a r a l o s p u n t o s x
15 % considerados .
16
17 f u n c t i o n [ x , y ] = R u n g e K u t t a 4 4 ( a , b , n , y0 )
18
23 y ( 1 ) = y0 ;
24 x (1) = a ;
25
26 for k = 1: n
27 x ( k +1) = x ( k ) + h ;
28 k1 = f ( x ( k ) , y ( k ) ) ;
29 k2 = f ( x ( k ) +h ∗ 0 . 5 , y ( k ) +h ∗ 0 . 5 ∗ k1 )
;
30 k3 = f ( x ( k ) +h ∗ 0 . 5 , y ( k ) +h ∗ 0 . 5 ∗ k2 )
;
31 k4 = f ( x ( k ) +h , y ( k ) +h ∗ k3 ) ;
32
33 y ( k + 1 ) = y ( k ) + h ∗ ( k1 + 2 . 0 ∗ k2
+ 2 . 0 ∗ k3+k4 ) / 6 . 0 ;
34 end
35
36 end
142 Apéndice
1 % M étodo de Adams B a s h f o r t h 2
2 %
3 % P a r á m e t r o s de e n t r a d a
4 % a : E x t r e m o i n i c i a l d e l i n t e r v a l o de i n t e g r a c i ó n .
5 % b : E x t r e m o f i n a l d e l i n t e r v a l o de i n t e g r a c i ó n .
6 % n : Numero de d i v i c i o n e s d e l i n t e r v a l o de i n t e g r a c i ó n
7 % y0 : C o n d i c i o n i n i c i a l .
8 % f : F u n c i ó n p r o b l e m a de Cauchy y ’= f ( x , y ) . E s t a
9 % f u n c i o n s e d e f i n e en un a r c h i v o e x t e r i o r .
10 %
11 % Salida
12 % x : V e c t o r de p u n t o s d e l i n t e r v a l o [ a , b ] p a r a l a
13 % d i s c r e t i z a c i ó n .
14 % y : V e c t o r s o l u c i ó n n u m é r i c a p a r a l o s p u n t o s x
15 % considerados .
16
17 f u n c t i o n [ x , y ] = A d a m s B a s h f o r t h 2 ( a , b , n , y0 )
18
23 y ( 1 ) = y0 ;
24 x (1) = a ;
25
26 % C á l c u l o de v a l o r e s i n i c i a l e s
27 x (2)= x (1) + h ;
28 y ( 2 ) = R u n g e K u t t a 3 3 ( a , x ( 2 ) , n , y0 )
29 % y ( 2 ) = g ( x ( 2 ) ) ; %V a l o r e x a c t o p a r a a n á l i s i s de e r r o r
30
31 for k = 2: n
32 x ( k +1) = x ( k ) + h ;
33 y ( k + 1 ) = y ( k ) + h / 2 ∗ ( 3 ∗ f ( x ( k ) , y ( k ) ) ´ f ( x ( k ´ 1) , y (
k ´ 1) ) ) ;
34 end
35
36 end
Apéndice 143
30 f u n c t i o n [ y , x ] = R u n g e K u t t a 4 4 S i s t e m a ( a , b , n , y1 , y2 , y3 )
31
36 y ( 1 , 1 ) = y1 ;
37 y ( 2 , 1 ) = y2 ;
38 y ( 3 , 1 ) = y3 ;
39 x (1) = a ;
40
41 for k = 1: n
42 x ( k +1) = x ( k ) + h ;
43
144 Apéndice
44 % C á l c u l o v e c t o r K1
45 k1 = f 1 ( x ( k ) , y ( 1 , k ) , y ( 2 , k ) , y (3 , k) ) ;
46 w1 = f 2 ( x ( k ) , y ( 1 , k ) , y ( 2 , k ) , y (3 , k) ) ;
47 z1 = f 3 ( x ( k ) , y ( 1 , k ) , y ( 2 , k ) , y (3 , k) ) ;
48 K1 = [ k1 ; w1 ; z1 ] ; % V e c t o r K1
49
50 % C á l c u l o v e c t o r K2
51 k2 = f 1 ( x ( k ) + 0 . 5 ∗ h , y ( 1 , k ) + 0 . 5 ∗ h ∗ k1 , y ( 2 , k ) + 0 . 5 ∗
h ∗ w1 , y ( 3 , k ) + 0 . 5 ∗ h ∗ z1 ) ;
52 w2 = f 2 ( x ( k ) + 0 . 5 ∗ h , y ( 1 , k ) + 0 . 5 ∗ h ∗ k1 , y ( 2 , k ) + 0 . 5 ∗
h ∗ w1 , y ( 3 , k ) + 0 . 5 ∗ h ∗ z1 ) ;
53 z2 = f 3 ( x ( k ) + 0 . 5 ∗ h , y ( 1 , k ) + 0 . 5 ∗ h ∗ k1 , y ( 2 , k ) + 0 . 5 ∗
h ∗ w1 , y ( 3 , k ) + 0 . 5 ∗ h ∗ z1 ) ;
54 K2 = [ k2 ; w2 ; z2 ] ; % V e c t o r K2
55
56 % C á l c u l o v e c t o r K3
57 k3 = f 1 ( x ( k ) + 0 . 5 ∗ h , y ( 1 , k ) + 0 . 5 ∗ h ∗ k2 , y ( 2 , k ) + 0 . 5 ∗
h ∗ w2 , y ( 3 , k ) + 0 . 5 ∗ h ∗ z2 ) ;
58 w3 = f 2 ( x ( k ) + 0 . 5 ∗ h , y ( 1 , k ) + 0 . 5 ∗ h ∗ k2 , y ( 2 , k ) + 0 . 5 ∗
h ∗ w2 , y ( 3 , k ) + 0 . 5 ∗ h ∗ z2 ) ;
59 z3 = f 3 ( x ( k ) + 0 . 5 ∗ h , y ( 1 , k ) + 0 . 5 ∗ h ∗ k2 , y ( 2 , k ) + 0 . 5 ∗
h ∗ w2 , y ( 3 , k ) + 0 . 5 ∗ h ∗ z2 ) ;
60 K3 = [ k3 ; w3 ; z3 ] ; % V e c t o r K3
61
62 % C á l c u l o v e c t o r K4
63 k4 = f 1 ( x ( k + 1 ) , y ( 1 , k ) +h ∗ k3 , y ( 2 , k ) +h ∗ w3 , y ( 3 , k )
+h ∗ z3 ) ;
64 w4 = f 2 ( x ( k + 1 ) , y ( 1 , k ) +h ∗ k3 , y ( 2 , k ) +h ∗ w3 , y ( 3 , k )
+h ∗ z3 ) ;
65 z4 = f 3 ( x ( k + 1 ) , y ( 1 , k ) +h ∗ k3 , y ( 2 , k ) +h ∗ w3 , y ( 3 , k )
+h ∗ z3 ) ;
66 K4 = [ k3 ; w3 ; z3 ] ; % V e c t o r K4
67
68 y ( : , k + 1 ) = y ( : , k ) + h ∗ ( K1 + 2 ∗ K2 + 2 ∗ K3 + K4 )
/6.0;
69 end
70
71 end
Referencias
Referencias
[1] Alpala, J. (2017). Soluciones numéricas para un modelo lineal y otro no-
lineal aplicados a la diabetes. Trabajo de grado, Universidad de Nariño,
Pasto, Colombia.
[2] Apostol, T. M. (1996). Análisis matemático, 2da ed. Barcelona: Editorial
Reverté.
[3] Akinfenwa, O. A., Jator, S. N., & Yao, N. M. (2013). Continuous block
backward differentiation formula for solving stiff ordinary differential
equations. Computers & Matematics with Applications , 65(7), 996-1005.
[4] Atkinson, K., Han, W., & Stewart, D. E. (2011). Numerical solution of
ordinary differential equations. New York: John Wiley & Sons.
[5] Bevilacqua, J. S., Rafikov. M., & Guedes, C. D. (2002). Modelagem em
biomatemática. São José do Rio Preto: USP.
[6] Braun, M. (1993). Differential equations and their applications, 4ta ed.
New York: Springer.
[7] Burden, R. L., Faires, J. D., & Burden, A. M. (2017). Análisis numérico,
10ma ed. México: Cengage Learning Editores.
[8] Butcher, J. C. (2000). Numerical methods for ordinary differential equa-
tions in the 20th century. Journal of Computational and Applied Mathe-
matics, 125(1), 1-29.
[9] Butcher, J. C. (1933). Numerical methods for ordinary differential equa-
tions. New York: John Wiley & Sons.
[10] Fatunla, S. O. (1982). Nonlinear multistep methods for initial value pro-
blems. Computers & Mathematics with Applications, 8(3), 231-239.
[11] Fatunla, S. O. (2014). Numerical methods for initial value problems in
ordinary differential equations. New York: Academic Press.
148 Referencias
[12] Grapiglia, G. N., Angelossi, K. H., & Rizzi, R. L. (2008). Modelos Ma-
temáticos da Dinámica do HIV. Anais da XXII Semana Académica da
Matemática. Cascavel: Universidade Estadual do Oeste do Paraná.
[13] Grossman, S. I., & Flores, G. (2019). Álgebra lineal, 8va ed. México:
McGraw-Hill Interamericana.
[14] Hairer, E., Nørsett, S. P., & Wanner, G. (1993). Solving ordinary diffe-
rential equations I. Nonstiff problems, 2da ed. New York: Springer-Verlag
Berlin Heidelberg.
[15] Lambert, J. D. (1973). Computational methods in ordinary differential
equations. New York: John Wiley & Sons.
[16] Loch, G. G. (2016). Sistemas rı́gidos associados a cadeias de decaimento
radioactivo. Tesis de Maestrı́a, IME-USP, São Paulo, Brasil.
[17] MATLAB. (2017). version 9.3.0.713579 (R2017a). Natick, Massachu-
setts: The MathWorks Inc.
[18] Nagle, R. K., Saff, E. B., & Snider, A. D. (2001). Ecuaciones diferenciales
y problemas con valores en la frontera. México: Pearson Educación.
[19] Ongun, M. Y. (2011). The Laplace adomian decomposition method for
solving a model for HIV infection of CD4+ T cells. Mathematical and
Computer Modelling, 53(5), 597-603.
[20] ONUSIDA. (2016). Programa Conjunto de las Naciones Unidas sobre el
VIH/SIDA. Disponible en http://www.unaids.org/es/dataanalysis
[21] Ordoñez, C. (2021). Estudio Numérico para la Aproximación de Sistemas
Rı́gidos. Trabajo de grado, Universidad de Nariño, Pasto.
[22] Perelson, A. S., Kirschner, D. E., & De Boer, R. (1993). Dynamics of HIV
infection of CD4+ T cells. Mathematical biosciences, 114(1), 81-125.
[23] Perelson, A. S., & Nelson, P. W. (1999). Mathematical analysis of HIV-1
dynamics in vivo. SIAM review, 41(1), 3-44.
[24] Perko, L. (2013). Differential equations and dynamical. New York: Sprin-
ger Science & Business Media.
[25] Ramı́rez, J. A., Estrada, J. L., De León, C. V., & Cano, M. V. (2016). Un
modelo matemático para el VIH/SIDA. Journal of Basic Sciences, 1(3).
[26] Roma, A. M., Bevilacqua, J. S. & Nós, R. L. (2021). Tratamento numérico
de equações diferenciais. Notas de aula, IME-USP, São Paulo, Brasil.
[27] Saldarriaga, O., & Giraldo, H. (2017). Álgebra lineal con el uso de Matlab.
Colombia: Editorial Universidad de Antioquia.
Referencias 149
[28] Sehnem, R., Quadros, R. S., & Buske, D. (2018). Método Numérico para
Solução de EDOs Rı́gidas na Modelagem de Reações Quı́micas. Revista
Mundi Engenharia, Tecnologia e Gest ao (ISSN: 2525-4782), 3(2). DOI:
10.21575/25254782rmetg2018vol3n2581.
[29] Sotolongo, A., & Jiménez, J. C. (2014). Construcción y estudio de códigos
adaptativos de linealización local para ecuaciones diferenciales ordina-
rias. Revista de Matemática: Teorı́a y Aplicaciones, 21(1), 21-53. DOI:
10.15517/RMTA.V21I1.14136.
[30] Spiegel, M. R. (1983). Ecuaciones diferenciales aplicadas. New York:
Prentice Hall.
[31] Süli, E. (2014). Numerical solution of ordinary differential equations. No-
tas de aula, Mathematical Institute, University of Oxford, Oxford, Ingla-
terra.
[32] Terán J., & Rúa-Alvarez, C. (2018). El método de Newton para raı́ces
complejas. Fractales en el problema de Cayley. Revista EIA, 15 (29), 97-
108.
[33] Valencia, E. (2019). Estudio numérico para ecuaciones diferenciales or-
dinarias rı́gidas utilizando ode45, ode23, ode15s y ode23s. Tesis de
maestrı́a, Universidad Pontifica Bolivariana, Medellı́n, Colombia.
[34] Yang, H., Nkeze, J., & Zhao, R. Y. (2012). Effects of HIV-1 protease on ce-
llular functions and their potential applications in antiretroviral therapy.
Cell & bioscience, 2(1),1.
[35] Zill, D. G. (2018). Ecuaciones diferenciales con aplicaciones de modela-
do, 11va ed. México: Cengage Learning Editores.
Índice alfabético
Índice alfabético