Final Libro Mnedo Digital

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 157

Estudio teórico y computacional

de métodos numéricos para


ecuaciones diferenciales ordinarias
Estudio teórico y computacional
de métodos numéricos para
ecuaciones diferenciales
ordinarias

x104 0% 10% 50% 70%


4.5
4
Población virus libre

3.5
3
2.5
2
1.5
1
0.5
0
0 50 100 150
t (días)

Catalina M. Rúa Álvarez


Christiam F. Pistala Ceballos

Departamento de Matemáticas y Estadı́stica


Universidad de Nariño
San Juan de Pasto
Rúa Álvarez, Catalina M.
Estudio teórico y computacional de métodos numéricos para ecuaciones diferenciales
ordinarias: Aplicaciones y algoritmos / Catalina Marı́a Rúa Álvarez, Christiam F. Pistala
Ceballos. –1a ed. - - San Juan de Pasto: Editorial Universidad de Nariño, 2022.
156p.:fig, tablas.
ISBN: 978-628-7509-19-1 Impreso
ISBN: 978-628-7509-20-7 Digital
1. Métodos numéricos (sistema EDO) 2. Modelo matemático 3. Ecuaciones diferenciales -
Problemas ejercicios 4. Análisis numérico.
515.352 R894 – SCDD-Ed 22 Biblioteca Alberto Quijano Guerrero

Estudio teórico y computacional de métodos numéricos para


ecuaciones diferenciales ordinarias

c Catalina Marı́a Rúa Álvarez
[email protected]

c Christiam F. Pistala Ceballos
[email protected]

c Editorial Universidad de Nariño

ISBN: 978-628-7509-20-7
DOI: https://doi.org/10.22267/lib.udn.026
Primera Edición

Diseño y diagramación: Catalina M. Rúa Álvarez


Grupo de investigación: Álgebra, Teorı́a de Números y Aplicaciones: ERM

Febrero de 2022
San Juan de Pasto, Nariño, Colombia

Prohibida la reproducción total o parcial, por cualquier


medio o con cualquier propósito, sin autorización escrita
de los Autores o de la Editorial Universidad de Nariño.
Índice general

Índice general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

Índice de figuras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

Índice de tablas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

Abreviaturas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

Prefacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

I Preliminares
1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

2 Teorı́a general de ecuaciones diferenciales . . . . . . . . . . . . . . . . . . 23


2.1 Ecuaciones diferenciales ordinarias 23
2.2 Sistemas de ecuaciones diferenciales ordinarias de primer orden 24
2.2.1 Existencia y unicidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2.2 Sistema lineal de EDO de primer orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.2.3 Solución de SEDOP con coeficientes constantes . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.2.4 Método matriz exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.3 Introducción a la solución numérica de EDO 38
2.3.1 Método de Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.3.2 Método de Euler para sistemas de EDO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.3.3 Una cota para el error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.3.4 Métodos implı́citos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
6 Índice general

2.4 Problemas propuestos 47


2.4.1 Problemas de práctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.4.2 Proyecto inicial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

II Métodos numéricos para EDO


3 Métodos de paso único . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.1 Forma general de los métodos de paso único 53
3.2 Consistencia, estabilidad y convergencia 54
3.3 Métodos de Taylor 58
3.4 Métodos de Runge Kutta 59
3.5 Estabilidad absoluta 62
3.5.1 Estabilidad método de Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.5.2 Estabilidad MPU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.6 Problemas propuestos 66
3.6.1 Problemas de práctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.6.2 Proyecto intermedio MPU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

4 Métodos de paso múltiple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69


4.1 Forma general de los métodos de paso múltiple lineales 69
4.2 Deducción por series de Taylor 70
4.3 Deducción por integración numérica 72
4.4 Métodos de Adams 75
4.5 Consistencia, convergencia y estabilidad 77
4.6 Estabilidad absoluta 83
4.7 Problemas propuestos 86
4.7.1 Problemas de práctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.7.2 Proyecto intermedio MPML . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

III Simulación numérica


5 Validación de implementaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.1 Problemas para estudio numérico 91
5.2 Métodos de paso único 92
5.2.1 Convergencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.2.2 Estabilidad absoluta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
5.2.3 Prueba de tiempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
5.3 Métodos de paso múltiple 107
5.3.1 Convergencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
5.3.2 Prueba de tiempos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
5.3.3 Valores iniciales Adams Bashforth . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
Índice general 7

5.3.4 Comparación entre los métodos de paso único y paso múltiple . . . . . . . . . . . . . 111
5.4 Problemas propuestos 112
5.4.1 Problemas de práctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
5.4.2 Proyecto avanzado MPML . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112

6 Resultados numéricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113


6.1 Adaptatividad y estimación para el error 113
6.1.1 Estimativa del error global de discretización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
6.1.2 Estimativa del error local de discretización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
6.1.3 Control del tamaño de paso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
6.1.4 Validación numérica del método de Runge Kutta Fehlberg . . . . . . . . . . . . . . . . . 118
6.2 Aplicación VIH/SIDA 119
6.2.1 Generalidades VIH/SIDA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
6.2.2 Formulación del modelo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
6.2.3 Modelo con estrategia de control . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
6.2.4 Simulaciones numéricas para el modelo VIH . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
6.2.5 Solución numérica del modelo con estrategia de control . . . . . . . . . . . . . . . . . . 129
6.3 Proyecto avanzado de aplicación 131

Apéndices
A Apéndice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
A.1 Interpolación 135
A.2 Ecuaciones de diferencias 137
A.3 Implementaciones 140

Referencias
Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147

Índice alfabético
Índice alfabético . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
Índice de figuras

2.1 Interpretación geométrica método de Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40


2.2 Circuito y marca pasos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

3.1 Región de estabilidad absoluta para los métodos de Runge Kutta . . . . . . . . . . . . . 65

4.1 Región de estabilidad absoluta AB2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86

5.1 Convergencia MPU, Problema 5.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95


5.2 Estabilidad absoluta Euler, Problema 5.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
5.3 Estabilidad absoluta método de Euler con h crı́tico, Problema 5.3 . . . . . . . . . . . . . . 98
5.4 Estabilidad absoluta método de Euler, h en la región de estabilidad . . . . . . . . . . . . 99
5.5 Estabilidad absoluta método RK33, valores de h crı́ticos, Problema 5.3 . . . . . . . . . 100
5.6 Estabilidad absoluta método RK33, h en la región de estabilidad . . . . . . . . . . . . . 101
5.7 Estabilidad absoluta método de Euler, Problema 5.7 . . . . . . . . . . . . . . . . . . . . . . . . 103
5.8 Estabilidad absoluta método RK33, Problema 5.7 . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
5.9 Estabilidad absoluta método de Euler implı́cito, Problema 5.3 . . . . . . . . . . . . . . . . 105
5.10 Prueba de tiempos MPU, Problema 5.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
5.11 Convergencia MPML, Problema 5.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
5.12 Prueba de tiempos MPML, Problema 5.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110

6.1 Solución exacta Problema 5.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118


6.2 Ciclo de vida del VIH . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
6.3 Comparación en la solución numérica del método RK44 y [12] . . . . . . . . . . . . . . . 125
6.4 Comparación en la solución numérica del método RK44 y [25] . . . . . . . . . . . . . . . 126
6.5 Solución numérica para modelo VIH/SIDA, método RK44 . . . . . . . . . . . . . . . . . . . . 127
6.6 Variación del tamaño de paso modelo VIH/SIDA, método RKF . . . . . . . . . . . . . . . . 129
6.7 Solución numérica para modelo VIH/SIDA con estrategia de control . . . . . . . . . . 130
Índice de tablas

2.1 Solución Ejemplo 2.7, método de Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41


2.2 Solución Ejemplo 2.8, método de Euler para diferentes tamaños de paso . . . . . . . 43
2.3 Cota para el error método de Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

3.1 Estabilidad absoluta para métodos de Runge-Kutta . . . . . . . . . . . . . . . . . . . . . . . . . . 65

5.1 Convergencia MPU, Problema 5.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94


5.2 Convergencia MPU, Problema 5.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
5.3 Convergencia MPU, Problema 5.6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
5.4 Convergencia MPM, Problema 5.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
5.5 Convergencia MPML, Problema 5.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
5.6 Convergencia MPML, Problema 5.6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
5.7 Valores iniciales AB4 con Euler y RK44, Problema 5.2 . . . . . . . . . . . . . . . . . . . . . . . . . 111

6.1 Solución numérica Problema 5.4, método RKF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119


6.2 Conteo de células T sanas y diagnóstico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
6.3 Parámetros del modelo VIH/SIDA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
6.4 Comparación numérica para T ptq . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
6.5 Comparación numérica para Iptq . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
6.6 Comparación numérica para V ptq . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
6.7 Solución numérica modelo VIH/SIDA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
6.8 Solución numérica modelo VIH/SIDA, falla Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
6.9 Solución numérica para modelo VIH/SIDA, eficiencia tratamiento . . . . . . . . . . . . . 129
Abreviaturas

EDO Ecuación diferencial ordinaria o Ecuaciones diferenciales ordinarias


SEDOP Sistema de ecuaciones diferenciales ordinarias de primer orden
MPU Métodos de paso único
MPM Métodos de paso múltiple
MPML Métodos de paso múltiple lineales
MNEDO Métodos numéricos para ecuaciones diferenciales ordinarias
RK22 Runge Kutta de orden dos con dos estados
RK33 Runge Kutta de orden tres con tres estados
RK44 Runge Kutta de orden cuatro con cuatro estados
RK56 Runge Kutta de orden cinco con seis estados
RKF Runge Kutta Fehlberg
AB2 Adams Bashforth de dos pasos
AB3 Adams Bashforth de tres pasos
AB4 Adams Bashforth de cuatro pasos
AM2 Adams Moulton de dos pasos
Prefacio

A partir del proyecto de investigación “Análisis teórico y computacional de


las propiedades de matrices para ciertas discretizaciones numéricas”, aproba-
do mediante el Acuerdo 051 de noviembre 20 de 2014 de la Vicerrectorı́a de
Investigaciones, Posgrados y Relaciones Internacionales de la Universidad de
Nariño (VIPRI), para el programa de Licenciatura en matemáticas del depar-
tamento de Matemáticas y Estadı́stica se impulsó la realización de la lı́nea de
investigación relacionada con el área de Álgebra Lineal Numérica, Métodos
Numéricos y sus Aplicaciones. Esta lı́nea de investigación se ha ido fortale-
ciendo con algunas de las actividades desarrolladas en este proyecto como:
El Seminario de Métodos Numéricos y Aplicaciones; las electivas en Álgebra
Lineal Numérica, Solución Numérica de Ecuaciones Diferenciales Ordinarias
y Parciales, Computación Cientı́fica, entre otras; además de tutorias y asesorı́as
de trabajos de grado en esta área de investigación.

La modelación matemática de una gran variedad de fenómenos en la naturaleza


se relaciona con ecuaciones diferenciales ordinarias, EDO. A pesar de encon-
trar en la teorı́a algunos métodos analı́ticos que resuelven diferentes clases de
EDO, la cantidad de familias de EDO que pueden ser resueltas analı́ticamen-
te es bastante restringida; por tanto, los métodos numéricos son una excelente
opción para encontrar aproximaciones discretas a la solución.

Ante la importancia en investigar métodos numéricos que aproximen modelos


matemáticos en EDO relacionados a la dinámica y comportamiento de aplica-
ciones en las ciencias y en la vida cotidiana, como uno de los resultados del
proyecto de investigación citado arriba se desarrolla el trabajo de grado titu-
lado “Estudio teórico y computacional de métodos numéricos para ecuaciones
diferenciales ordinarias” por el estudiante Christiam Fernando Pistala Ceballos
y asesorado por la profesora Catalina M. Rúa Alvarez. Este trabajo de grado
recibió calificación Laureada como consta en el Acuerdo 057 del 24 de ma-
yo de 2017 de la Facultad de Ciencias Exactas y Naturales, lo cual ayudó a
16 Prefacio

impulsar entre los estudiantes el interés por la lı́nea de investigación en Simu-


lación Computacional y Métodos Numéricos.
En este libro se pretende recoger los resultados más destacados en el trabajo de
grado citado, al presentar la base teórica de algunos métodos numéricos para
resolver sistemas de EDO sujetos a una condición inicial. Se distingue entre
métodos de paso único y métodos de paso múltiple explı́citos, entre los que se
destacan respectivamente la familia de métodos de Runge Kutta y la de Adams
Bashforth. Se analiza la deducción de estos y otros métodos, además se presen-
ta un estudio de propiedades teóricas como son la consistencia, convergencia y
estabilidad, entre otras, permitiendo determinar si la solución numérica obteni-
da cuenta con buena precisión.
Adicionalmente, con base a la teorı́a y a diferentes simulaciones numéricas
realizadas, se listan ventajas y desventajas al usar los diferentes métodos y se
comparan soluciones exactas con aproximaciones. Finalmente, se aplican algu-
nos de los métodos estudiados para determinar aproximaciones para un modelo
matemático que describe la dinámica de infección del VIH/SIDA. En este
modelo la aproximación numérica es indispensable dado que no posee una solu-
ción analı́tica y esto resalta la importancia de la investigación del tema principal
de este libro.

Catalina M. Rúa A.
San Juan de Pasto, noviembre de 2020.
I
Preliminares

1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

2 Teorı́a general de ecuaciones diferenciales . . . 23


2.1 Ecuaciones diferenciales ordinarias
2.2 Sistemas de ecuaciones diferenciales ordinarias de primer orden
2.3 Introducción a la solución numérica de EDO
2.4 Problemas propuestos
1. Introducción

Las ecuaciones diferenciales ordinarias, EDO, son usadas frecuentemente en


la descripción de diferentes fenómenos de la naturaleza desde sus orı́genes
en problemas de fı́sica y recientemente como herramienta indispensable en la
formulación matemática de modelos biológicos, quı́micos, de la ingenierı́a y la
economı́a. A pesar de que en la teorı́a se presentan algunos métodos analı́ticos
que resuelven diferentes clases de EDO, como puede verse en [6] y [35], la
cantidad de familias de EDO que pueden ser resueltas analı́ticamente es muy
restringida, por tanto los métodos numéricos son una excelente opción para
encontrar una solución aproximada a problemas de EDO con valor inicial.

Históricamente uno de los primeros métodos numéricos estudiados para la solu-


ción de ecuaciones diferenciales ordinarias, MNEDO, fue el método de Euler.
Este método fue desarrollado por Leonard Euler en 1768 y por su facilidad de
deducción y comprensión, a pesar de ser un método que aproxima con poca pre-
cisión, hoy en dı́a continua siendo usado como base para comprender métodos
de orden superior y en la solución numérica de modelos matemáticos básicos.

Hacia 1855 aparecen los métodos de Adams-Bashforth, los cuales fueron


creados por John C. Adams y solo hasta 1883 fueron publicados por
Francis Bashforth. Estos métodos resultan del uso de interpolación e integra-
ción numérica y calculan una aproximación aplicando en el método numérico
el valor de por lo menos dos aproximaciones en instantes anteriores al desea-
do, propiedad por la cual se caracterizaron como métodos de paso múltiple.
Siguiendo estas ideas, en 1926, Forest R. Moulton propuso los métodos de
Adams-Moulton que a diferencia de los anteriores tienen la propiedad de ser
implı́citos1 , lo cual permitió ampliar el número de problemas a ser resueltos
numéricamente. Para mayor detalle, ver [9] y [14].

1 Usan el valor desconocido que se desea aproximar en el método numérico, dependiendo


ası́ de la solución de una ecuación usualmente no lineal.
20 Introducción

Uno de los mayores avances en la historia de los MNEDO fue la obra de 1895
del matemático alemán Carl Runge. A diferencia de los métodos de Adams,
los métodos que propone Runge son de paso único, siendo ası́ que estos pue-
den usar para obtener la aproximación final, a ella misma y a la aproximación
en el instante inmediatamente anterior. Los métodos definidos en ese momen-
to fueron el método del punto medio y el método del trapecio. A partir de
los aportes de Adams y de Runge, los matemáticos Karl Heun y Martin Kut-
ta desarrollaron alrededor de 1900 los famosos métodos de Runge-Kutta. En
particular, el aporte de Heun fue elevar el orden de estos métodos al desarrollar
un método de cuarto orden, esto se traduce en obtener aproximaciones en las
cuales al reducir el tamaño de paso el error disminuye más rápidamete. Segui-
damente, de las manos de Nystrom y Moulton, se produjeron mayores avances
en el análisis numérico con el desarrollo de métodos de Runge-Kutta de quinto
orden y los métodos de predictor-corrector, lo cual puede ser visto en [8].
A pesar de que en la antigüedad el uso de estos métodos conllevaba a reali-
zar una gran cantidad de cálculos manualmente, en la actualidad se hicieron
grandes avances teóricos y numéricos que se han visto impulsados con el uso
de computadores cada vez más potentes. Hoy en dı́a existen diferentes herra-
mientas computacionales matemáticas utilizadas en las ciencias aplicadas y la
ingenierı́a, que incorporan MNEDO programados con diferentes estructuras de
datos y de forma eficiente. El uso de estos programas en algunas aplicaciones
no retorna el resultado esperado por el investigador, lo cual puede suceder al
no tener en cuenta las propiedades particulares de los métodos numéricos im-
plementados en el software. Por tal motivo, conocer la región de estabilidad,
orden de convergencia y otras propiedades de los métodos es importante en la
interpretación final de resultados y con esto garantizar desde el punto de vis-
ta del análisis numérico que las aproximaciones obtenidas son correctas. Esta
situación justifica en gran medida la importancia de realizar un estudio teórico
para MNEDO enfocado en propiedades teóricas y computacionales.
En este libro se presenta la base teórica de los MNEDO clásicos y de algunos
de los métodos de orden superior más usados con el fin de tener un referente
conceptual y destacar las propiedades más relevantes inherentes a la consti-
tución de los MNEDO. En base a esto, se desea llevar al lector a realizar la
implementación computacional de los métodos estudiados y su posible aplica-
ción en modelos matemáticos al analizar numéricamente el modelo que
describe la dinámica de infección del VIH/SIDA presentado en [23].
Este modelo consiste de un sistema no lineal de EDO que no cuenta con una
solución analı́tica y claramente ilustra la importancia de cada uno de los tópicos
tratados en este texto.
En resumen, en la primera parte de este libro se presentan nociones básicas
acerca de EDO, ası́ como también una introducción a la solución numérica de
EDO, particularmente se estudia el método de Euler. Por otro lado, la segunda
Introducción 21

parte está dedicada al estudio de las propiedades más relevantes inherentes a


los métodos de paso único como son consistencia, convergencia y estabilidad.
Aunque aquı́ también se dedica un espacio en el cual se desarrolla un estudio
para los métodos de paso múltiple, algunas técnicas empleadas para deducirlos
y las principales propiedades teóricas de ellos; particularmente se estudia la
familia de métodos de Adams Bashforth.
Para finalizar, en la tercera parte de este texto se validan las implementaciones
de algunos métodos realizados en el software Matlab, ver [17]. Además, para
resaltar la importancia que cobran los métodos estudiados en la vida real, se
estudia numéricamente un modelo que describe la dinámica del VIH/SIDA, el
cual consiste de un sistema de EDO no lineal que no posee solución analı́tica.
Por último se encuentran apéndices y los referentes bibliográficos en los cuales
se sustentó esta investigación.
2. Teorı́a general de ecuaciones diferenciales

A lo largo de este capı́tulo se presentan aspectos básicos en la teorı́a general


de ecuaciones diferenciales indispensables para el desarrollo de este trabajo,
tales como definiciones, teoremas y algunas propiedades básicas. Adicional a
esto, se exponen dos métodos analı́ticos para resolver sistemas de EDO y una
introducción a la solución numérica de EDO.

2.1 Ecuaciones diferenciales ordinarias

Muchos de los principios que rigen el comportamiento de diferentes fenómenos


en la naturaleza relacionan las razones de cambio según las cuales un fenómeno
acontece. En lenguaje matemático, las relaciones son ecuaciones y las razones
de cambio tienen que ver con derivadas. Las ecuaciones que involucran razones
de cambio se conocen como ecuaciones diferenciales.
Definición 2.1. Se llama ecuación diferencial ordinaria, EDO, a una ecua-
ción que relaciona la variable independiente x, la función incógnita y “ ypxq y
sus derivadas y1 , y2 , . . . , ypnq ; es decir, una ecuación de la forma
F px, y, y1 , y2 , . . . , ypnq q “ 0, (2.1)
dny
donde F es una función real con n ` 2 variables, x, y, y1 , . . . , ypnq , y ypnq “ dxn .
El orden de una EDO se obtiene del orden de la derivada más alta de la
ecuación, ası́ la EDO (2.1) es de orden n. Si la función incógnita y depende de
dos o más variables independientes, la ecuación diferencial se llama ecuación
diferencial parcial.
La solución de una EDO es una función y “ φ pxq definida en un intervalo ra, bs,
a, b P R, para la cual existen sus derivadas sucesivas, hasta el n-ésimo orden,
tal que al hacer la sustitución y “ φ pxq en la EDO, esta se convierte en una
identidad con respecto a x en el intervalo ra, bs.
En algunos casos la solución y “ φ pxq puede encontrarse usando métodos analı́ti-
cos, los cuales son producto de la integración. Algunos de estos métodos son:
24 Teorı́a general de ecuaciones diferenciales

separación de variables, variación de parámetros, sustitución, factor integran-


te, entre otros. La descripción detallada de estos métodos se puede ver en
[6, 18, 24] y [35]. Sin embargo, no siempre es posible determinar la solu-
ción analı́tica de una EDO usando estos métodos. Por tal motivo en la práctica
se suele usar métodos numéricos, que son menos restrictivos que los métodos
analı́ticos y permiten obtener una aproximación discreta a y “ φ pxq.

2.2 Sistemas de ecuaciones diferenciales ordinarias de primer


orden

Definición 2.2. Un sistema de EDO de primer orden, SEDOP, es


$
’ dy1

’ “ f1 px, y1 , y2 , . . . , yn q


’ dx
& dy2


“ f2 px, y1 , y2 , . . . , yn q
dx (2.2)
..
.





’ dy
% n “ fn px, y1 , y2 , . . . , yn q,


dx
donde cada fi px, y1 , y2 , . . . , yn q es una función escalar, i “ 1, . . . n.
Dado que sin importar el orden cualquier EDO puede ser escrita como un
SEDOP, los métodos analı́ticos y numéricos que se estudiarán posteriormente
estarán enfocados a resolver sistemas. Para reducir una EDO de orden superior
a un SEDOP se realiza un cambio de variable, tal como se describe a seguir.
Se considera la EDO de n-ésimo orden
ypnq “ f px, y, y1 , y2 , ..., ypn´1q q. (2.3)
Para reducir (2.3) a un SEDOP, se introducen las variables dependientes y1 , y2 , . . . ,
yn , tales que
y1 “ y, y2 “ y1 , y3 “ y2 , . . . , yn “ ypn´1q . (2.4)
Luego y11 “ y1 “ y2 , y12 “ y2 “ y3 , y ası́ sucesivamente y1n´1 “ ypn´1q “ yn .
Por tanto, la sustitución de (2.4) en la ecuación (2.3) proporciona el SEDOP
$


’ y11 “ y2
’ 1
&y2 “ y3


.. (2.5)
.
’ 1
yn´1 “ yn




%y1 “ f px, y , y , ..., y q.

n 1 2 n

Ejemplo 2.1. Reescribir como un SEDOP la EDO de segundo orden


y2 pxq ` 2y1 pxq ´ 3ypxq “ 0. (2.6)
Teorı́a general de ecuaciones diferenciales 25

Solución. Sean y1 pxq y y2 pxq, tales que


y1 pxq “ ypxq y y2 pxq “ y1 pxq,
entonces
y11 pxq “ y1 pxq “ y2 pxq y y12 pxq “ y2 pxq. (2.7)
Remplazando (2.7) en (2.6) se obtiene el SEDOP
#
y11 pxq “ y2 pxq
(2.8)
y12 pxq “ ´2y2 pxq ` 3y1 pxq.

Al trabajar con SEDOP es conveniente utilizar una notación vectorial por ser
más manejable y compacta. Sean
¨ ˛ ¨ ˛
y1 f1 px, yq
˚y2 ‹ ˚ f2 px, yq‹
y“˚ y f x, y ˚ . ‹,
˝ ... ‚ p q “

˝ .. ‚
yn fn px, yq
entonces el sistema (2.2) se puede escribir como
y1 “ fpx, yq. (2.9)
Es importante resaltar que se tomó como convención marcar en negrita las va-
riables que denotan vectores.
Al igual que para una EDO, es posible determinar una solución particular para
un SEDOP de n ecuaciones por medio de condiciones iniciales de la forma
ypx0 q “ y00 , y1 px0 q “ y10 , . . . , ypn´1q px0 q “ yn0´1 , (2.10)
donde x0 , y00 , . . . , yn0´1 son variables reales. Nótese que si en (2.10) se hace el
cambio de variable (2.4), se tiene que
y1 px0 q “ y00 , y2 px0 q “ y10 , . . . , yn px0 q “ yn0´1 ,
lo cual en notación vectorial se expresará por
ypx0 q “ y0 . (2.11)
Un SEDOP como (2.9) sujeto a la condición inicial (2.11) define un proble-
ma de Cauchy. Investigar métodos para solucionar numéricamente este tipo de
problemas es el objetivo principal en esta investigación.
Definición 2.3. Un SEDOP sujeto a una condición inicial, de la forma
#
y1 pxq “ fpx, ypxqq,
(2.12)
ypx0 q “ y0 ,
donde f : ra, bsˆ Rn Ñ Rn y x P ra, bs, se conoce como un problema de Cauchy.
26 Teorı́a general de ecuaciones diferenciales

2.2.1 Existencia y unicidad


Las siguientes definiciones y teoremas nos permiten enunciar y demostrar el
teorema que establece la existencia y unicidad de la solución al problema (2.12).
Definición 2.4. La función f : ra, bs ˆ Rn Ñ Rn se dice que satisface la
condición de Lipschitz en su segunda variable, si existe una constante L ą 0,
conocida como la constante de Lipschitz, tal que para todo x P ra, bs y y, z P Rn ,
se satisface que
}fpx, yq ´ fpx, zq} ď L }y ´ z} ,
donde }.} es una norma vectorial.
Ejemplo 2.2. Verificar que la función
ˆ ˙
2y 1
f px, yq “ 1 ` |x| , con x, y P R, (2.13)
1 ` y2 e
satisface la condición de Lipschitz.
Solución. Como en los reales la norma Euclidiana es el valor absoluto, para
cualquier u, v P R, se tiene que
ˇ ˆ ˙ ˆ ˙ˇ
ˇ 2u 1 2v 1 ˇ
} f px, uq ´ f px, vq} “ ˇˇ 1 ` ´ 1 ` ˇ
1ˇ ` u2 | x | 1 v 2 | x |
˙ eˆ ˙ˇ e
` ˇ
ˆ
ˇ 1 u v ˇ
ˇ.
“ 2 ˇˇ 1 ` |x| 2
´ 2
e 1`u 1`v ˇ
´ ¯
1
Luego, dado que 1 ` e|x| ď 2 para todo x P R, entonces
ˇ ˇ
ˇ up1 ` v2 q ´ vp1 ` u2 q ˇ
} f px, uq ´ f px, vq} ď 4 ˇ
ˇ ˇ
2
ˇ p1 ` u qp1 ` v q ˇ 2 ˇ
ˇ ˇ
ˇ 1 ´ uv ˇ
ˇ |u ´ v|.
“ 4ˇˇ (2.14)
p1 ` u2 qp1 ` v2 q ˇ
Además, se puede demostrar que 1 es el máximo absoluto de la función de
varias variables gpx, yq “ p1`x12´qpxy
1`y2 q
. Ası́ p1`u12´qpuv
1`v2 q
ď 1, de donde al sustituir
esta desigualdad en (2.14) se obtiene
} f px, uq ´ f px, vq} ď 4|u ´ v|.
Por lo tanto, la función (2.13) satisface la condición de Lipschitz con constante
L “ 4.

Definición 2.5. Una sucesión txn u de un espacio métrico pE, d q se llama


sucesión de Cauchy si para todo ε ą 0 existe un entero N tal que
d pxn , xm q ă ε siempre que n ě N y m ě N.
Teorı́a general de ecuaciones diferenciales 27

Las demostraciones de los teoremas a continuación se pueden encontrar en [2].


Teorema 2.1. En el espacio Euclideo Rn toda sucesión de Cauchy es conver-
gente.
Definición 2.6. Un espacio métrico pE, d q se llama completo si toda sucesión
de Cauchy de E converge en E.
El siguiente teorema será importante para garantizar la unicidad en el problema
de Cauchy
Teorema 2.2. Sea pE, d q un espacio métrico completo y F : E Ñ E una
contracción, es decir

d pF pxq, F pyqq ď α, 0 ď α ă 1.

Entonces existe un único punto fijo p P E para F, es decir F p pq “ p.


A continuación se enuncia el teorema de existencia y unicidad para el problema
de Cauchy. La demostración que se presenta de este teorema se sigue de [9] y
por su importancia se extiende con más detalle.
Teorema 2.3. Si en el problema de Cauchy (2.12), f : ra, bs ˆ Rn Ñ Rn es
continua en su primer variable y satisface la condición de Lipschitz en su se-
gunda variable con constante L, entonces existe una única solución para este
problema.
Demostración. Sea E el conjunto de todas las funciones continuas
y : ra, bs Ñ Rn , tal que ypaq “ y0 . Dadas las funciones y, z P E, se define la
métrica
d py, zq “ sup expp´K px ´ aqq }ypxq ´ zpxq} , (2.15)
xPra,bs

donde K ą L. El conjunto E junto con la métrica d definen un espacio métrico


completo. Sea φ pyq la solución exacta del problema de Cauchy (2.12), la cual
se obtiene de aplicar el teorema fundamental del cálculo, es decir
żx
φ pyq “ y0 ` fps, ypsqqds.
a

Esta función es una contracción, dado que para y, z P E, se tiene


›ż x ›
› ›
d pφ pyq, φ pzqq “ sup expp´K px ´ aqq ›› pfps, ypsqq ´ fps, zpsqqqds›› .
xPra,bs a

Aplicando la desigualdad triangular se obtiene


żx
d pφ pyq, φ pzqq ď sup expp´K px ´ aqq }fps, ypsqq ´ fps, zpsqq} ds.
xPra,bs a
28 Teorı́a general de ecuaciones diferenciales

Por hipótesis f satisface la condición de Lipschitz en su segunda variable, por


lo tanto
żx
d pφ pyq, φ pzqq ď L sup expp´K px ´ aqq }ypsq ´ zpsq} ds. (2.16)
xPra,bs a

Aplicando la métrica (2.15) en la expresión (2.16), se tiene


żx
d pφ pyq, φ pzqq ď L d py, zq sup expp´K px ´ aqq exppK ps ´ aqqds,
xPra,bs a

de donde
L
d pφ pyq, φ pzqq ďd py, zq. (2.17)
K
Dado que K ą L, de la expresión (2.17), se concluye que φ es una contracción.
Por lo tanto, por el Teorema 2.2, existe una única función y P E que satisface
que φ pyq “ y, y en consecuencia es la única solución al problema de Cauchy.

A continuación se estudiarán caracterı́sticas generales de la solución de


SEDOP lineales y se incluyen dos métodos analı́ticos para resolver sistemas
lineales de coeficientes constantes descritos detalladamente en [13, 27, 30]
y [35]. Los métodos estudiados permitirán observar cómo la dificultad para
obtener una solución analı́tica aumenta conforme crece la dimensión del
sistema. Esta situación justifica en gran medida la importancia de usar
métodos numéricos.

2.2.2 Sistema lineal de EDO de primer orden


Si cada una de las funciones f1 , ..., fn en el sistema (2.2) son lineales, entonces
se dice que el SEDOP es lineal. La forma general de un SEDOP lineal es
$ 1

’ y1 “ a11 pxqy1 ` a12 pxqy2 ` ¨ ¨ ¨ ` a1n pxqyn ` b1 pxq
&y1 “ a pxqy ` a pxqy ` ¨ ¨ ¨ ` a pxqy ` b pxq

2 21 1 22 2 2n n 2
.
. (2.18)


’ .
% 1
yn “ an1 pxqy1 ` an2 pxqy2 ` ¨ ¨ ¨ ` ann pxqyn ` bn pxq,
donde las funciones ai j y bi , con i, j “ 1 . . . n, son reales y dependientes única-
mente de la variable independiente x. Si cada una de las funciones bi , i “ 1 . . . n,
son idénticamente cero, entonces se dice que el sistema es homogéneo y en
caso contrario es no homogéneo. Los sistemas lineales son los más simples
entre todos los sistemas de primer orden, pero incluso estos son difı́ciles de
resolver analı́ticamente.
Se usa notación matricial para el sistema (2.18) a fin de simplificar cálculos y
destacar las propiedades matriciales de estos sistemas.
Teorı́a general de ecuaciones diferenciales 29

Sean
¨ ˛ ¨ ˛ ¨ ˛
y1 a11 pxq a12 pxq . . . a1n pxq b1 pxq
˚y2 ‹
‹ , Apxq “ ˚a21.pxq a22.pxq
˚ . . . a2n pxq‹ ˚b2 pxq‹
˚ . ‹,
y“˚ .
˝ .. ‚ ˝ .. .. .. ‹ y bp x q “ ˝ .. ‚
... . ‚
yn an1 pxq an2 pxq . . . ann pxq bn pxq
entonces el sistema (2.18) se puede escribir como
y1 pxq “ Apxqypxq ` bpxq. (2.19)
Cuando el sistema es homogéneo bpxq “ 0 y en este caso se tiene
y1 pxq “ Apxqypxq. (2.20)
La solución de una EDO de la forma y1 “ λ y con λ P R es y “ ceλ x con c
constante. Sin embargo, aunque al comparar esta EDO con la que se presenta
en la ecuación (2.20) se observa una similitud, es importante recordar que A es
una matriz y por tanto se debe tener un cuidado especial en la solución de este
sistema.
El siguiente teorema se conoce como principio de superposición para sistemas
lineales y se encuentra en [35]. Este resultado será usado para encontrar una
solución general de (2.20).
Teorema 2.4. Sean y1 , y2 , ..., yk un conjunto de vectores solución del sistema
homogéneo (2.20) en un intervalo ra, bs. Entonces la combinación lineal
y “ c1 y1 ` c2 y2 ` ... ` ck yk ,
donde ci , i “ 1 . . . k, son constantes escalares arbitrarias, es también una solución
en el intervalo.
Definición 2.7. Sean y1 , y2 , ..., yk un conjunto de vectores solución del siste-
ma homogéneo (2.20) en un intervalo ra, bs. Se dice que el conjunto es lineal-
mente dependiente en el intervalo si existen constantes c1 , c2 , ..., ck , no todas
cero, tales que para todo x P ra, bs se cumple que
c1 y1 ` c2 y2 ` ... ` ck yk “ 0.
Si el conjunto de vectores no es linealmente dependiente en el intervalo, se dice
que es linealmente independiente.
Para determinar si un conjunto de vectores es linealmente dependiente o
independiente, se puede usar la Definición 2.7. Sin embargo en la práctica el
Wronskiano define un criterio que permite determinar fácilmente la depen-
dencia lineal de un conjunto de vectores.
Definición 2.8. Sean y1 , y2 , ..., yn , un conjunto de vectores en Rn definidos
como en (2.7). Entonces el Wronskiano de este conjunto es el determinante de
la matriz obtenida a partir de estos vectores y se denota por
Wpy1 , y2 , ..., yn q “ detpy1 , y2 , ..., yn q.
30 Teorı́a general de ecuaciones diferenciales

Es importante señalar que la Definición 2.8 de Wronskiano, tomada de [35],


difiere de la definición habitual pues esta no involucra derivación, pero dado
que la idea es aplicarlo como criterio para verificar independencia lineal en
funciones vectoriales se acostumbra mantener el mismo nombre. Los siguientes
teoremas se siguen de [35].
Teorema 2.5. Sean y1 , y2 , ..., yk un conjunto de vectores solución del sistema
homogéneo (2.20) en un intervalo ra, bs. Este conjunto es linealmente indepen-
diente si y solo si
Wpy1 , y2 , ..., yn q ‰ 0.
La importancia de establecer la independencia lineal de un conjunto de vecto-
res está en que al encontrar un conjunto de n vectores solución de (2.20) lineal-
mente independientes, se puede encontrar una solución general para el sistema
lineal homogéneo (2.20) como se muestra a continuación.
Definición 2.9. Cualquier conjunto y1 , y2 , . . . , yn de n vectores solución li-
nealmente independientes del sistema homogéneo (2.20) en un intervalo ra, bs
es un conjunto fundamental de soluciones en el intervalo.
Teorema 2.6. Sean y1 , y2 , . . . , yn un conjunto fundamental de soluciones del
sistema homogéneo (2.20) en un intervalo ra, bs. Entonces la solución general
del sistema (2.19) en el intervalo ra, bs es
y “ c1 y1 ` c2 y2 ` ¨ ¨ ¨ ` cn yn ,
donde ci , i “ 1, . . . , n, son constantes escalares arbitrarias.
Ejemplo 2.3. Verificar que
„  „ 
3x 1 ´x 1
y1 pxq “ e y y2 pxq “ e
´2 2
forman un conjunto fundamental de soluciones del SEDOP homogéneo
„ 
1 ´ 1
y1 pxq “ ypxq. (2.21)
´4 1

Determine la solución general del sistema.


Solución. Primero se debe verificar que y1 pxq y y2 pxq son soluciones del
SEDOP homogéneo (2.21). Ası́, dado que
„  „ 
1 3x 3 1 ´x ´1
y1 pxq “ e y y2 pxq “ e ,
´6 ´2

se cumple la igualdad al sustituir cada vector en (2.21), pues


„  „ „  „ 
1 ´ 1 1 ´ 1 1 3
y11 pxq “ y1 pxq “ e3x “ e3x ,
´4 1 ´4 1 ´2 ´6
Teorı́a general de ecuaciones diferenciales 31

„  „ „  „ 
1 ´ 1 1 ´ 1 1 ´1
y12 pxq “ y2 pxq “ e´x “ e´x .
´4 1 ´4 1 2 ´2
Luego para verificar que y1 pxq y y2 pxq son linealmente independientes se cal-
cula el Wronskiano dado por
ˇ 3x ˇ
´x ˇ
ˇ e e
Wpy1 , y2 q “ det py1 , y2 q “ ˇˇ ˇ “ 4e2x .
´2e3x 2e´x ˇ
Como Wpy1 , y2 q “ 4e2x ‰ 0 para todo x P R, por el Teorema 2.5, y1 y y2 son
linealmente independientes y por tanto forman un conjunto fundamental de
soluciones. Finalmente, del Teorema 2.6 se concluye que la solución general
del sistema es
„  „  „ 
3x 1 ´x 1 c1 e3x ` c2 e´x
ypxq “ c1 e ` c2 e “ .
´2 2 ´2c1 e3x ` 2c2 e´x

Los vectores solución del Ejemplo 2.3 son dados en el enunciado. Sin embargo,
no se presenta el método con el que fueron determinados. Una introducción para
encontrar la solución analı́tica a SEDOP con coeficientes constantes se realiza
en la siguiente sección. En adelante, no se verificará en los ejemplos que se
tiene un conjunto fundamental de soluciones pero se recomienda al lector que
debe hacerlo.

2.2.3 Solución de SEDOP con coeficientes constantes


Los teoremas y definiciones que se presentan a continuación, tomados de [35],
permiten obtener un método para encontrar la solución analı́tica para SEDOP
lineales con coeficientes constantes; es decir, aquellos en los que las funciones
ai j , i, j “ 1, . . . n, del sistema (2.18) son funciones constantes.
Las definiciones y teoremas a continuación, relacionan conceptos fundamenta-
les no solo de EDO sino también de álgebra lineal. Se sugiere al lector verificar
estos conceptos en [13] y [27].
Definición 2.10. Sea A una matriz cuadrada con n ˆ n elementos reales. El
número λi P R es un valor propio de A, si es solución de la ecuación
detpA ´ λ Iq “ 0. (2.22)
La expresión anterior se conoce como ecuación caracterı́stica de la matriz A.
Un vector propio asociado con el valor propio λi es un vector no cero vi tal
que Avi “ λi vi , es decir que
pA ´ λi Iqvi “ 0. (2.23)
Teorema 2.7. Cualquier conjunto de k vectores propios v1 , v2 , . . . , vk de A
con valores propios diferentes λ1 , λ2 , . . . , λk , respectivamente, es linealmente
independiente.
32 Teorı́a general de ecuaciones diferenciales

Teorema 2.8. Sean λ1 , λ2 , . . . , λn n valores propios reales y distintos de la


matriz de coeficientes A del SEDOP homogéneo (2.20) y sean v1 , v2 , . . . , vn
los vectores propios correspondientes asociados a ellos. Entonces la solución
general del SEDOP homogéneo (2.20), en el intervalo p´8, 8q es

y “ c1 v1 eλ1 x ` c2 v2 eλ2 x ` ¨ ¨ ¨ ` cn vn eλn x ,


donde ci , i “ 1, . . . , n, son constantes escalares arbitrarias.
Observación 2.1. Los n valores propios de la matriz de coeficientes A no
necesariamente son todos distintos, es decir algunos de los valores propios pue-
den repetirse. En general, si m es un entero positivo y pλ ´ λ j qm es un factor de
la ecuación caracterı́stica, mientras que pλ ´ λ j qm`1 no es un factor, entonces
se dice que λ j es un valor propio de multiplicidad m. Se tienen los siguientes
casos:
1. Para algunas matrices A de n ˆ n, relacionadas con el SEDOP homogéneo
(2.20), es posible encontrar m vectores propios linealmente independien-
tes v1 , v2 , . . . , vm , correspondientes a un valor propio λ j de multiplicidad
m ď n. En este caso la solución general del sistema contiene la combina-
ción lineal
c1 v1 eλ j x ` c2 v2 eλ j x ` ¨ ¨ ¨ ` cn vm eλ j x .

2. Si solo hay un vector propio vj que corresponde al valor propio λ j de mul-


tiplicidad m, se pueden encontrar m soluciones linealmente independientes
de la forma
y1 “ v11 eλ j x
y2 “ v21 xeλ j x ` v22 eλ j x
..
.
xm´1 λ j x xm´2 λ j x
ym “ vm1 e ` vm2 e ` ¨ ¨ ¨ ` vmm eλ j x ,
pm ´ 1q! pm ´ 2q!
donde los vij son vectores.

Adicional a estos dos casos, los valores propios podrı́an ser complejos. Este
caso puede ser visto con mayor detalle en los capı́tulos de solución de EDO de
orden superior con coeficientes constantes en [6, 18] y [35].
Ejemplo 2.4. Encontrar la solución general del SEDOP homogéneo
$
1
&y1 pxq “ y1 pxq ´ y2 pxq

y12 pxq “ ´4y1 pxq ` y2 pxq, (2.24)

%y p0q “ 0, y p0q “ 1.
1 2
Teorı́a general de ecuaciones diferenciales 33

Solución. La matriz de coeficientes del SEDOP homogéneo es


„ 
1 ´1
A“ .
´4 1
Para encontrar la solución general del sistema se deben encontrar los valores y
vectores propios de esta matriz. Ası́, dado que los valores propios vienen dados
por la expresión (2.22), se tiene
ˇ ˇ
ˇ 1 ´ λ ´1 ˇ
det pA ´ λ Iq “ ˇˇ ˇ “ p1 ´ λ q2 ´ 4 “ pλ ´ 3qpλ ` 1q “ 0.
´4 1 ´ λ ˇ
Por lo tanto, los valores propios de A son λ “ 3 y λ “ ´1.
Ahora se debe encontrar los vectores propios asociados a estos valores propios.
Para λ “ 3 el vector propio asociado debe satisfacer que pA ´ 3Iqv1 “ 0.
De donde al solucionar el sistema
„ „  „ 
´2 ´1 m1 0
“ ,
´4 ´2 m2 0
se obtiene m1 “ 1 y m2 “ ´2. Por lo tanto
„ 
1
v1 “ .
´2
De forma análoga se determina el vector propio v2 asociado al valor propio
λ “ ´1, donde „ 
1
v2 “ .
2
Ası́ se obtienen dos soluciones particulares linealmente independientes
„  „ 
1 1
y1 pxq “ e3x y y2 pxq “ e´x .
´2 2
De esta forma la solución general del sistema es
„  „  „ 
3x 1 ´x 1 c1 e3x ` c2 e´x
ypxq “ c1 e ` c2 e “ . (2.25)
´2 2 ´2c1 e3x ` 2c2 e´x
Finalmente, usando las condiciones iniciales para x “ 0 se tiene que
„  „ 
0 c1 e0 ` c2 e0
yp0q “ “ ,
1 ´2c1 e0 ` 2c2 e0
de donde c1 “ ´ 14 y c2 “ 14 . Por lo tanto remplazando el valor de estas constantes
en (2.25) se obtiene la solución del problema de Cauchy (2.24)
„ 
1 ´e3x ` e´x
ypxq “ .
4 2e3x ` 2e´x

Los vectores solución obtenidos en este ejemplo son los que se encontraron en
el Ejemplo 2.3.
34 Teorı́a general de ecuaciones diferenciales

2.2.4 Método matriz exponencial


Una importante aplicación de la exponencial de una matriz es encontrar solu-
ciones a un sistema de EDO lineales de coeficientes constantes, ver [27]. Se
presentará cómo la forma de la solución de una EDO homogénea de primer
orden con coeficientes constantes tiene caracterı́sticas similares a la de un
SEDOP homogéneo con coeficientes constantes.
Para una EDO de la forma y1 pxq “ λ ypxq, la solución general es ypxq “ ceλ x .
Podrı́a suponerse que para el sistema de EDO
y1 pxq “ Aypxq, (2.26)
la solución general tiene la forma y “ eAx c, donde A es una matriz constante de
n ˆ n y c es un vector columna de n componentes. Por tal motivo, es importante
definir la matriz exponencial eAx en la cual se usa el desarrollo de la función
exponencial por series.
Definición 2.11. Sea A una matriz n ˆ n con elementos reales o complejos.
Entonces la matriz eAx es una matriz de n ˆ n elementos que se conoce como
matriz exponencial, y está definida por
2 k 8 k
2x kx kx
ÿ
Ax
e “ I ` Ax ` A `¨¨¨`A `¨¨¨ “ A .
2! k! k “0
k!
Teorema 2.9. Para cualquier vector constante c, ypxq “ eAx c es una solución al
SEDOP (2.26). Más aún, la solución dada por ypxq “ eAx y0 satisface yp0q “ y0 .
Demostración. Si ypxq “ eAx c es solución del SEDOP (2.26), al sustituirlo
en este se debe obtener una identidad. Primero nótese que dado que eAx es una
matriz el producto por un vector debe ser a su derecha y ası́ eAx c está bien
definido. Ahora, usando la definición de matriz exponencial se tiene
« ff
x 2 x k
ypxq “ eAx c “ I ` Ax ` A2 ` ¨ ¨ ¨ ` Ak ` ¨ ¨ ¨ c. (2.27)
2! k!
Dado que las entradas A son constantes, se puede verificar que
« ff « ff
d x k d x k kx k ´ 1 x k ´ 1 x k ´ 1
Ak “ Ak “ Ak “ Ak “ A Ak´1 . (2.28)
dx k! dx k! k! pk ´ 1q! pk ´ 1q!
Usando las ecuaciones (2.27) y (2.28), se calcula y1 pxq. De donde,
« ff
d Ax
” ı x 2 x k
y1 pxq “ e c “ A I ` Ax ` A2 ` ¨ ¨ ¨ ` Ak ` ¨ ¨ ¨ c “ AeAx c “ Aypxq.
dx 2! k!
Ası́, ypxq “ eAx c es solución de (2.26). Finalmente, como eA0 “ e0 “ I, se tiene
yp0q “ eA0 y0 “ Iy0 “ y0 .
Teorı́a general de ecuaciones diferenciales 35

Usualmente la matriz exponencial se conoce como la matriz solución principal


del sistema o matriz fundamental, pues el cálculo de esta matriz resuelve el
sistema. A pesar de que la definición ofrece una forma para calcular esta matriz,
en la práctica se aplican técnicas alternativas más simples para calcular eAx ,
como son la transformada de Laplace, la forma canónica de Jordan, entre otras
descritas en [27, 30] y [35].
El caso más trivial se presenta cuando A es una matriz diagonal, pues para una
matriz diagonal » fi
λ1 0 . . . 0
— 0 λ2 . . . 0 ffi
D“— – ... ... . . . ... fl ,
ffi

0 0 . . . λn
la matriz exponencial es
» fi
eλ1 x 0 . . . 0
— 0 eλ2 x . . . 0 ffi
Dx
e “ — .. .
— ffi
– . .
.. . .
. . .. ffifl
0 0 . . . eλn x
La simplicidad de calcular la exponencial para una matriz diagonalizable es de
utilidad usando la forma canónica de Jordan para el cálculo de eAx .
Teorema 2.10. Sea J la forma canónica de Jordan de una matriz A,
J “ C´1 AC. Entonces A “ CJC´1 y
eAx “ CeJx C´1 .

Demostración. Inicialmente se observa que


An “ pCJC´1 qn “ pCJC´1 qpCJC´1 q . . . pCJC´1 q
“ CJpC´1 CqJpC´1 CqJpC´1 Cq . . . pC´1 CqJC´1
“ CJn C´1 .
Ası́
Ax pAxq2 ´1 ´1 pJxq2 ´1
e “ I ` pAxq ` ` ¨ ¨ ¨ “ CIC ` CpJxqC ` C C `¨¨¨
« 2! ff 2!
pJxq 2
“ C I ` pJxq ` ` ¨ ¨ ¨ C´1 “ CeJx C´1 .
2!

El Teorema 2.10 dice que para calcular eAx en realidad solo se necesita calcular
eJx . Calcular eJx es más sencillo, pues la matriz J es diagonal o diagonal por
bloques de Jordan.
36 Teorı́a general de ecuaciones diferenciales

Ejemplo 2.5. Resolver el problema (2.24) usando la matriz exponencial.


Solución. En el Ejemplo 2.4 se obtuvo que los valores propios de la
matriz de coeficientes A son λ1 “ 3 y λ2 “ ´1, con vectores propios asociados
v1 “ r1, ´2sT y v2 “ r1, 2sT . De aquı́ se tiene
„  „  „  „ 3x 
1 1 1 2 ´ 1 3 0 e 0
C“ , C´1 “ , J“ y eJx “ .
´2 2 4 2 1 0 ´1 0 e´x
Por lo tanto
„  „ 3x „ 
1 1 1 e 0 2 ´1
eAx “ CeJx C´1 “
4 ´2 2 0 e´x 2 1
„ 
1 2e3x ` 2e´x ´e´3x ` e´x
“ .
4 ´4e3x ` 4e´x 2e3x ` 2e´x
Usando las condiciones iniciales en x “ 0, tal como se obtuvo en el Ejemplo
2.4, la solución del problema de Cauchy es
„ 3x ` 2e´x ´e´3x ` e´x
„ 
1 2e 0
ypxq “ eAx y0 “ 3x ´x 3x ´x
4 ´4e ` 4e 2e ` 2e 1
„ 
1 ´e3x ` e´x
“ .
4 2e3x ` 2e´x

Cuando la matriz A no es diagonalizable , la forma canónica de Jordan sigue


siendo una buena opción para simplificar el cálculo de la matriz exponencial.
El ejemplo a continuación presenta este caso.
Ejemplo 2.6. Usando el método de la matriz exponencial encontrar la solu-
ción general del SEDOP homogéneo
$
1 5 1
&y1 pxq “ ´ 2 y1 pxq ` 2 y3 pxq

y12 pxq “ 12 y1 pxq ´ 2y2 pxq ´ 21 y3 pxq (2.29)
%y1 pxq “ ´ 1 y pxq ´ 3 y pxq.

3 2 1 2 3

Solución. La matriz de coeficientes del SEDOP homogéneo (2.29) es


» fi
1 ´ 5 0 1
A “ – 1 ´4 ´1 fl .
2 ´1 0 ´3

Como se puede verificar, el valor propio de la matriz es λ “ ´2 con múltiplici-


dad 3 y los vectores propios son
» fi » fi
0 1
v1 “ 1– fl y v2 “ 0 fl .

0 1
Teorı́a general de ecuaciones diferenciales 37

Por lo tanto, debido a que el espacio propio tiene dimensión 2 en vez de 3, se


concluye que la matriz A no es diagonalizable, ver [27]. La forma canónica de
Jordan para esta matriz se obtiene con las matrices
» fi » fi » fi
1 1 1 1 3 2 ´ 1 ´ 2 0 0
C “ – 0 ´1 0 fl , C´1 “ – 0 ´2 0 fl y J “ – 0 ´2 1 fl .
1 1 3 2 ´1 0 1 0 0 ´2
Luego, dado que
2 3 8 k
2x 3x kx
ÿ
´2x
e “ 1 ´ 2x ` p´2q ` p´2q `¨¨¨ “ p´2q
2! 3! k “0
k!
y como » fi » fi
4 0 0 ´8 0 0
J2 “ – 0 4 ´4 fl , J3 “ – 0 ´8 12 fl , . . . ,
0 0 4 0 0 ´8
p´2qn
» fi
0 0
Jn “ – 0 p´2qn np´2qn´1 fl ,
0 0 ´p´2qn
de la Definición 2.11 se tiene que
» ´2x fi
e 0 0
eJx “ – 0 e´2x xe´2x fl .
0 0 e´2x
Por lo tanto » fi » ´2x fi » fi
1 1 1 e 0 0 3 2 ´ 1
1
eAx “ CeJx C´1 “ – 0 ´1 0 fl – 0 e´2x xe´2x fl – 0 ´2 0 fl
2 1 1 3
0 0 e´2x ´1 0 1
»´ x ¯ x ´2x fi
1 ´ e´2x 0 e
— 2 2 ffi
— x ´2x ´2x x ´2x
ffi
“— e e ´ e ffi .
— 2 2 ffi
– x ´2x ´ x ¯ ´2x fl
´ e 0 1` e
2 2
Finalmente, por el Teorema 2.9, la solución general del SEDOP homogéneo
(2.29) es
»´ x ¯ ´2x fi »
0
fi » x ´2x fi
1´ e e
— 2 ffi — ffi — 2 ffi
— x ´2x
ffi — e´ 2x ffi — x
ffi ` c3 — ´ e´2x ffi .
ffi
ypxq “ c1 — e ffi ` c2 —
2 – ´ 2x ¯
— ffi — ffi — ffi
– x ´2x fl –´ x ¯ ´2x fl ´2x
fl
´ e 1` e 1` e
2 2 2
38 Teorı́a general de ecuaciones diferenciales

Se observa que la complejidad de la solución analı́tica de SEDOP puede variar


según el problema. Se mostraron dos métodos de solución cuando el sistema
es homogéneo y tiene coeficientes constantes, pero en la práctica pueden no
cumplirse estas condiciones y es necesario usar otros métodos, como el método
de eliminación, la variación de parámetros o la aplicación de la transformada
de Laplace. Otros métodos para la solución de sistemas de EDO pueden ser
estudiados en [30] y [35], o en diferentes textos de ecuaciones diferenciales
ordinarias.

2.3 Introducción a la solución numérica de EDO

Los métodos para la solución de sistemas de EDO presentados son para siste-
mas con coeficientes constantes, lo cual no sucede en la mayorı́a de modelos
matemáticos y además, la dificultad para determinar valores propios aumenta
con el orden de la matriz evidenciando la necesidad de encontrar aproximacio-
nes para el problema de Cauchy. En esta sección se presenta una introducción
a la solución numérica de EDO. Primero se incluyen métodos numéricos para
solucionar el problema de Cauchy en los reales y luego en Rn . Estos métodos
se presentarán de una forma más profunda en los siguientes capı́tulos.
Los métodos numéricos que se estudiaron son métodos iterativos aritméticos
que aproximan la solución al problema de Cauchy
#
y1 pxq “ f px, ypxqq,
(2.30)
ypx0 q “ y0 .
Con estos métodos no se encuentra una aproximación continua a la solución
ypxq, sino que se obtienen aproximaciones en un conjunto discreto de
puntos a “ x0 , x1 , x2 , . . . , xn “ b del intervalo ra, bs. Este proceso se conoce como
discretización. Las discretizaciones numéricas se aplican a menudo en la apro-
ximación de soluciones de ecuaciones diferenciales en las que no es posible
encontrar una solución analı́tica. Con estas discretizaciones se espera que la
aproximación encontrada sea lo más cercana posible a la solución exacta y a un
bajo costo computacional.
A continuación se introduce el método de Euler. Este método es el más básico
de las técnicas de aproximación para resolver problemas de Cauchy y sirve
como base para entender algunos métodos numéricos más complejos.

2.3.1 Método de Euler


El método de Euler, también llamado método de la recta tangente, es el méto-
do más simple y más antiguo de los métodos usados para aproximar soluciones
al problema de Cauchy. Fue creado por Leonhard Euler y publicado en su obra
de cálculo integral entre los años 1768 y 1770, según se presenta en [7]. Existen
Teorı́a general de ecuaciones diferenciales 39

diferentes formas para deducir el método de Euler, entre las cuales están: el uso
de series de Taylor, la idea geométrica de aproximación por rectas tangentes,
aproximaciones a una integral y la aplicación del teorema de valor medio. En
esta sección se presentará la deducción mediante series de Taylor, la aproxima-
ción de una integral y geométricamente mediante rectas tangentes.

Deducción del método de Euler mediante series de Taylor.


En primer lugar se considera un intervalo ra, bs, donde a “ x0 es el valor
inicial para x en el cual se conoce el valor de y0 por la condición inicial y
b “ x f es el extremo final del intervalo, en el cual se quiere aproximar el
valor de ypx f q desconocido. Se divide dicho intervalo en n subintervalos
de longitud h, por lo tanto h “ pb ´ aq{n, de lo cual se obtiene el conjun-
to discreto de n ` 1 puntos tx0 , x1 , x2 , ¨ ¨ ¨ , xn u, llamados puntos de malla,
donde xk`1 “ xk ` h para 0 ď k ď n ´ 1, es decir que la distancia entre
cada par de puntos sucesivos es h, esta distancia se conoce como tamaño
de paso.
Suponiendo que la solución exacta de (2.30), ypxq, tiene dos derivadas con-
tinuas sobre ra, bs, de modo que para cada 0 ď k ď n ´ 1 la expansión de
Taylor en torno a xk es

1 pxk`1 ´ xk q2 2
ypxk`1 q “ ypxk q ` pxk`1 ´ xk qy pxk q ` y pςk q,
2!
para algún número ςk P pxk , xk`1 q. Como h “ xk`1 ´ xk , se tiene

1 h2 2
ypxk`1 q “ ypxk q ` hy pxk q ` y pςk q. (2.31)
2!
Eliminando el último término de (2.31), se deduce el método de Euler
#
y0 “ ypx0 q,
(2.32)
yk`1 “ yk ` h f pxk , yk q,
donde f : ra, bs ˆ R Ñ R, h “ b´n a , y xk`1 “ xk ` h, 0 ď k ď n ´ 1.
El término que se ha truncado en la serie de Taylor para deducir el método
de Euler está relacionado con el error local de discretización, αk , que es
el error cometido en el cálculo ypxk`1 q entre xk y xk`1 . Es decir, que para
el método de Euler
1
αk`1 “ hy2 pςk q,
2
para ςk en el intervalo pxk , kk`1 q.
Si M es una cota superior para y2 pxq, con x P ra, bs, entonces el error local
de discretización satisface que αk ď Mh{2 y se dice que el método de Euler
es de orden uno. En el siguiente capı́tulo se presentarán métodos de mayor
orden, los métodos de Taylor, los cuales se obtienen truncando la serie de
Taylor con mayor número de términos.
40 Teorı́a general de ecuaciones diferenciales

Deducción geométrica del método de Euler.


Geométricamente, el método de Euler calcula la aproximación yk`1 por
medio de la recta tangente a la curva que define la solución exacta ypxq.
La ecuación de la recta tangente a la curva de ypxq en el punto px0 , y0 q está
dada por
rpxq “ y1 px0 qpx ´ x0 q ` y0 “ px ´ x0 q f px0 , y0 q ` y0 .
Tomando x “ x0 ` h “ x1 , se tiene que rpx0 ` hq “ y0 ` h f px0 , y0 q “ y1 , es
decir que se encontró la aproximación y1 a partir del valor de y0 .
En general, si se supone conocido el valor de yk , el valor de yk`1 puede
encontrarse usando la expresión yk`1 “ yk ` h f pxk , yk q, que es la fórmula
de aproximación del método de Euler (2.32). La Figura 2.1 ilustra esta
interpretación.

Figura 2.1: Interpretación geométrica método de Euler.

Deducción integral del método de Euler.


Integrando cada lado del problema de Cauchy en (2.30) entre dos puntos
de malla consecutivos, por ejemplo entre xk y xk`1 , se obtiene la expresión
ż xk`1
ypxk`1 q “ ypxk q ` f px, ypxqqdx.
xk

Si la función f px, ypxqq se considera constante en el intervalo rxk , xk`1 s,


puede salir de la integral y se obtiene
ż xk`1
ypxk`1 q “ ypxk q ` f pxk , ypxk qq dx “ ypxk q ` f pxk , ypxk qqpxk`1 ´ xk q,
xk

de lo cual se deduce el método de Euler yk`1 “ yk ` h f pxk , yk q.


Más adelante se usará este mismo enfoque para obtener métodos de mayor
precisión, dando mejores aproximaciones a la integral de f px, ypxqq.
Teorı́a general de ecuaciones diferenciales 41

Ejemplo 2.7. Usar el método de Euler con h “ 0.02 para aproximar el valor
de yp0.1q, si #
y1 pxq “ ´4y ` e´2x ,
(2.33)
yp0q “ 1,
con solución exacta ypxq “ 12 pe´4x ` e´2x q y yp0.1q “ 0.74452.
Solución. Usando la fórmula de integración del método de Euler (2.32) y la
condición iniciales yp0q “ 1 se tiene el siguiente proceso iterativo
x0 “ 0.00, y0 “ 1. ´ ¯
` e´2x0 2 0.00
` ˘ ´ p q
x1 “ 0.02, y1 “ y0 ` h ´4y0 “ 1 ` 0.02 ´4 p1q ` e “ 0.94.
´ ¯
x2 “ 0.04, y2 “ y1 ` h ´4y1 ` e´2x1 “ 0.94 ` 0.02 ´4 p0.94q ` e´2p0.02q “ 0.88401.
` ˘

x3 “ 0.06, y3 “ y2 ` h ´4y2 ` e´´2x2


` ˘
¯
“ 0.88401 ` 0.02 ´4 p0.88401q ` e´2p0.04q “ 0.83175.

Continuando con este proceso hasta llegar al extremo final del


intervalo de integración y se obtiene la aproximación yp0.1q « 0.73736.
Para comparar las aproximaciones obtenidas con el método de Euler, dado que
se conoce la solución analı́tica de este problema, se usa el error global de
discretización ek “ |ypxk q ´ yk |, que es el valor absoluto de la diferencia entre
la solución exacta y la solución aproximada del problema en xk . Los resultados
obtenidos para este problema se resumen en la Tabla 2.1, donde se observa que
a medida que xk se aleja de la condición inicial, el error global aumenta.
xk yk ypxk q ek
0.00 1.00000 1.00000 0
0.02 0.94000 0.94195 1.952 ˆ 10´3
0.04 0.88401 0.88763 3.617 ˆ 10´3
0.06 0.83175 0.83677 5.013 ˆ 10´3
0.08 0.78295 0.78914 6.198 ˆ 10´3
0.10 0.73736 0.74452 7.164 ˆ 10´3

Tabla 2.1: Solución Ejemplo 2.7, método de Euler.

2.3.2 Método de Euler para sistemas de EDO


Los métodos numéricos para resolver problemas de Cauchy que involucran una
sola ecuación diferencial de primer orden y una condición inicial escalar pue-
den ser generalizados a fin de resolver SEDOP. La idea básica es reescribir
el sistema de ecuaciones diferenciales como el problema de Cauchy (2.30)
y aplicar el método teniendo en cuenta que las funciones involucradas son
vectoriales.
42 Teorı́a general de ecuaciones diferenciales

El método de Euler para resolver SEDOP es


#
y0 “ ypx0 q,
(2.34)
yk`1 “ yk ` hfpxk , yk q,
b´a
donde f : ra, bs ˆ Rn Ñ Rn , h “ n y xk`1 “ xk ` h, 0 ď k ď n ´ 1.
Ejemplo 2.8. Usar el método de Euler para aproximar up1q y vp1q, si
$
1
&u pxq “ vpxq

v1 pxq “ 4vpxq ´ 3upxq, (2.35)

%up0q “ 1 vp0q “ 0,

con solución exacta upxq “ 12 p3ex ´ e3x q, vpxq “ 12 p3ex ´ 3e3x q y up1q “ ´5.96534,
vp1q “ ´26.05088.
Solución. Si se hace
„  „  „ 
upxq vpxq up0q
y“ , fpx, yq “ y y0 “ ,
vpxq 4vpxq ´ 3upxq vp0q
el sistema (2.35) describe la forma vectorial del problema de Cauchy (2.12),
donde en este caso f : r0, 1s ˆ R2 Ñ R2 y x P r0, 1s.
Aplicando el método de Euler a este problema con h “ 1{16 y tx0 “ 0,
x1 “ 1{16, x2 “ 1{8, ¨ ¨ ¨ , x16 “ 1u se tiene
„  „ 
upx0 q 1 vpx0 q
y1 “ y0 ` hfpx0 , y0 q “ `
vpx0 q 16 4vpx0 q ´ 3upx0 q
„  „ 
1 0
“ ` 0.0625
0 ´3
„  „ 
1 u1
“ “ « yp0.0625q,
´0.1875 v1
„  „ 
u1 1 v1
y2 “ y1 ` hfpx1 , y1 q “ `
v1 16 4v1 ´ 3u1
„  „ 
1 ´0.1875
“ ` 0.0625
´0.1875 ´3.75
„ 
0.98828
“ « yp0.125q.
´0.42187
Este proceso se repite hasta llegar al extremo final del intervalo de integra-
ción. Los resultados de las aproximaciones numéricas a yp1q “ rup1q, vp1qsT ,
con diferentes tamaños de paso, se resumen en la Tabla 2.2. Se observa que al
reducir el tamaño de paso h a la mitad, el error también se reduce a la mitad,
por lo tanto el error es proporcional al tamaño de paso h.
Teorı́a general de ecuaciones diferenciales 43

Tamaño de paso h 1{16 1{32 1{64 1{128


Aproximación up1q ´3.86132 ´4.78178 ´5.33472 ´5.63946
Aproximación vp1q ´19.49776 ´22.37633 ´24.09632 ´25.04160
Error global 6.88261 3.86046 2.05376 1.06059

Tabla 2.2: Discretización obtenida por el método de Euler para (2.33).

Tanto los métodos de paso único como los métodos de paso múltiple que se
presentarán más adelante se pueden generalizar para resolver SEDOP de mane-
ra similar a como se ha hecho con el método de Euler. Al trabajar con sistemas
de EDO, tanto las aproximaciones numéricas como los diferentes tipos de erro-
res obtenidos son vectores. Para realizar el análisis del error y en general el
comportamiento de las soluciones numéricas es conveniente conocer un valor
numérico del vector por este motivo se debe usar una norma vectorial. Según
se presenta en [4] y [11], para las comparaciones numéricas del error de los
MNEDO es conveniente usar la norma infinito
}v}8 “ máx |vi |, (2.36)
0ăiďm
donde vi , para 0 ă i ď m, son las entradas del vector v de dimensión m. En este
trabajo se usa la norma infinito.

2.3.3 Una cota para el error


En la Tabla 2.2 se observa que a medida que el tamaño de paso disminuye, el
error global también disminuye. A continuación, tal y como se muestra en [7],
se calcula una cota para el error la cual dependerá linealmente del tamaño de
paso h. Para simplificar los cálculos en la búsqueda de la cota se consideran los
lemas a continuación.
Lema 2.1. Para todo z ě ´1 y para cualquier m positivo, se cumple
0 ď p1 ` zqm ď emz .
Demostración. Desarrollando en serie de Taylor la función f pzq “ ez en torno
al punto z0 “ 0 hasta n “ 1 se obtiene
1
ez “ 1 ` z ` z2 eξ ,
2
donde ξ P rz, 0s. Por lo tanto,
1
0 ď 1 ` z ď 1 ` z ` z2 eξ “ ez
2
y como 1 ` z ě 0, se tiene que
0 ď p1 ` zqm ď emz .
44 Teorı́a general de ecuaciones diferenciales

Lema 2.2. Si s y x son números reales positivos, tai uki“0 es una sucesión que
satisface a0 ě ´x{s y
ai`1 ď p1 ` sqai ` x, para i “ 0, 1, . . . , k, (2.37)
entonces
pi`1qs
´ x¯ x
ai`1 ď e a0 ` ´ .
s s
Demostración. Para un centro fijo i, la desigualdad (2.37) implica que
ai`1 ď p1 ` sq ai ` x
ď p1 ` sq rp1 ` sq ai´1 ` xs ` x
ď p1 ` sq tp1 ` sq rp1 ` sq ai´2 ` xs ` xu ` x
..
.
” ı
i`1 2 i
ď p1 ` sq a0 ` 1 ` p1 ` sq ` p1 ` sq ` ¨ ¨ ¨ ` p1 ` sq x.

Pero
i
ÿ
2 i
1 ` p1 ` sq ` p1 ` sq ` ¨ ¨ ¨ ` p1 ` sq “ p1 ` sq j
j “0
es una serie geométrica de razón p1 ` sq y su suma es
1 ´ p1 ` sq i ` 1 1 ” i`1
ı
“ p1 ` sq ´ 1 .
1 ´ p1 ` sq s
Por tanto,
i`1 p1 ` sqi`1 ´ 1 i`1
´ x¯ x
ai`1 ď p1 ` sq a0 ` x “ p1 ` sq a0 ` ´
s s s
y de acuerdo con el Lema 2.1, con z “ 1 ` s, dada
pi`1qs
´ x¯ x
ai`1 ď e a0 ` ´ .
s s

Teorema 2.11. Supóngase que la función f del problema de Cauchy (2.30) es


continua y satisface la condición de Lipschitz con la constante L en
D “ tpx, yq |a ď x ď b, ´8 ă y ă 8u, y que existe una constante M con la
propiedad de que |y2 | ď M para todo x P ra, bs. Sea ypxk q la solución exacta
del problema de Cauchy (2.30) y sean y0 , y1 , . . . yn las aproximaciones genera-
das con el método de Euler para algún entero positivo n, entonces para cada
k “ 0, 1, . . . , n, se cumple que
hM ” Lpxk ´aq ı
ek ď e ´1 . (2.38)
2L
Teorı́a general de ecuaciones diferenciales 45

Demostración. Desarrollando la serie de Taylor para ypxi`1 q en torno a xi


se tiene
h2
ypxk`1 q “ ypxk q ` h f pxk , ypxk qq ` y2pξk q.
2
Por otro lado del método de Euler
yk`1 “ yk ` h f pxk , yk q.
Restando estas ecuaciones se obtiene
h2 2
ypxk`1 q ´ yk`1 “ ypxk q ´ yk ` h r f pxk , ypxk qq ´ f pxk , yk qs ` y pξk q.
2
De donde
h2 ˇˇ 2 ˇ
ek`1 “ |ypxk`1 q ´ yk`1 | ď |ypxk q ´ yk | ` h | f pxk , ypxk q ´ f pxk , yk qq| ` y pξk qˇ .
2
Puesto que f satisface una condición de Lipschitz en la segunda variable con la
constante L y como |y2 pxq| ď M, se sigue que
h2 M
ek`1 ď p1 ` hLq |ypxk q ´ yk | ` .
2
Usando el Lema (2.37) con a j “ ek para cada j “ 0, 1, . . . , n, y con s “ hL y
x “ h2 M {2, se tiene
˜ ¸
2
h M h2 M
pk`1qhL
ek ď e |ypx0 q ´ y0 | ` ´ .
2hL 2hL

Como e0 “ |ypx0 q ´ y0 | “ 0 y pk ` 1qh “ xk`1 ´ x0 “ xk`1 ´ a, se concluye que


hM pxk`1 ´aqL
ek ď pe ´ 1q,
2L
para cada k “ 0, 1, . . . , n ´ 1.
La dificultad en este teorema está en conocer una cota para la segunda derivada
de la función incógnita y. Sin embargo, por la regla de la cadena es posible en
algunos casos calcular la segunda derivada de la función ypxq sin necesidad de
conocerla explı́citamente.
Ejemplo 2.9. Para el problema de Cauchy
#
y1 pxq “ y,
yp0q “ 1,

aplicar el método de Euler para aproximar yp1q. Además, con h “ 0.2, encontrar
el error y la cota del error para cada xk .
46 Teorı́a general de ecuaciones diferenciales

Solución. La solución exacta es ypxq “ ex , por lo tanto la constante de Lips-


chitz es L “ 1 y una cota para la segunda derivada en el intervalo r0, 1s es
M “ e « 2.71828. Usando estos valores en la desigualdad (2.38), se obtiene la
cota de error
0.2p2.71828q xk
ek ď re ´ 1s .
2
En la Tabla 2.3 se muestra el error junto con la cota del error para cada xk .
Se observa que la cota es más grande que el error real. Estas cotas dependen
del problema de Cauchy y del método numérico. Muchas veces no es fácil
determinar una cota para el error y si se encuentra, usualmente son mayores
que el error real.

xk 0.2 0.4 0.6 0.8 1.0


Error 0.02140 0.05182 0.09411 0.15194 0.22996
Cota de error 0.06018 0.13369 0.22347 0.33313 0.46707

Tabla 2.3: Cota para el error método de Euler.

2.3.4 Métodos implı́citos


Algunos de los métodos numéricos que se presentarán más adelante poseen
fórmulas de integración implı́citas, es decir que el valor yk`1 aparece en el lado
izquierdo y en el lado derecho de la ecuación. Estos métodos se conocen como
métodos implı́citos y la principal dificultad en su aplicación está en que si la
función f px, yq es trascendente puede resultar una ecuación implı́cita no lineal
donde no sea posible despejar explı́citamente el valor yk`1 . En ese caso se debe
recurrir a métodos numéricos de resolución de ecuaciones no lineales como el
método de Newton, como los que se tienen en [7] y [32].
Siguiendo [4, 11] y [16], algunos ejemplos de métodos implı́citos para solu-
cionar numéricamente el problema de Cauchy (2.12) se presentan a continua-
ción.
Método de Euler implı́cito
#
y0 “ ypx0 q,
(2.39)
yk`1 “ yk ` hfpxk ` h, yk`1 q.

Método del Trapecio implı́cito


#
y0 “ ypx0 q,
(2.40)
yk`1 “ yk ` h2 rfpxk , yk q ` fpxk ` h, yk`1 qs .
Teorı́a general de ecuaciones diferenciales 47

Método de Simpson implı́cito


#
y0 “ ypx0 q, y1 conocido,
(2.41)
yk`2 “ yk`1 ` h3 rfpxk`2 , yk`2 q ` 4fpxk`1 , yk`1 q ` fpxk , yk qs .

En los anteriores métodos y en cualquier otro MNEDO que se presenta en este


trabajo, se tiene que f : ra, bs ˆ Rn Ñ Rn , h “ b´n a y xk`1 “ xk ` h, 0 ď k ď n ´ 1.
Los métodos (2.39), (2.40) y (2.41) son implı́citos. La diferencia está en que
mientras el método de Euler implı́cito y el método del trapecio implı́cito son
de paso único, el método de Simpson es de paso múltiple y para generar una
aproximación necesita dos aproximaciones en instantes de tiempos anteriores.
Para profundizar más se recomiendan [9] y [14].

2.4 Problemas propuestos

En este apartado se proponen problemas referentes a los temas tratados en este


capı́tulo. Además, se incluye un proyecto para que el lector observe la nece-
sidad de solucionar problemas reales con sistemas de EDO con condiciones
iniciales.

2.4.1 Problemas de práctica


Problema 2.1. Encontrar la solución general del SEDOP homogéneo
$
3 1
& 2 y1 pxq “ ´y1 pxq ´ 4y2 pxq

3 1
’ 2 y2 pxq “ ´2y1 pxq ` y2 pxq,
%y p0q “ 0, y p0q “ 3.
1 2

Problema 2.2. Encontrar la solución general del SEDOP no homogéneo


$

’y11 pxq “ ´y1 pxq ` y3 pxq ` cospxq

&y1 pxq “ y pxq ´ y pxq ` senpxq
2 1 2
’ 1
y3 pxq “ y1 pxq ´ y3 pxq ` cospxq,


y1 p0q “ 1, y2 p0q “ 0, y3 p0q “ 1.
%

Problema 2.3. Encontrar la solución general del sistema de EDO


$ 1 2 2
&y1 pxq “ x ´ ry1 pxqs

y1 pxq “ e´0.01xry2 pxqs2 ,
% 2

y1 p0q “ 2, y2 p0q “ ´4.
Observe que este sistema no es lineal, pero se puede desacoplar.
48 Teorı́a general de ecuaciones diferenciales

Problema 2.4. En los problemas planteados en esta sección, ¿cómo se garan-


tiza la existencia y unicidad de los sistemas de EDO?
Problema 2.5. Usar el método de Euler para aproximar la solución de los
problemas planteados en esta sección para xn “ 1. Verifique sus aproximacio-
nes observando el comportamiento del error de las aproximaciones como se
hizo en el Ejemplo 2.8. Realizar la gráfica de la solución exacta y en el mismo
plano cartesiano ubique en cada paso de tiempo los puntos con la respectiva
aproximación obtenida. Finalmente, concluya sobre sus resultados usando di-
ferentes tamaños de paso.

2.4.2 Proyecto inicial


Para demostrar el entendimiento básico de este apartado dedicado a los pre-
liminares relacionados con la solución teórica de EDO con condición inicial
y su aproximación numérica, se sugiere al lector la realización del siguiente
proyecto basado en un problema propuesto en [35].
El comportamiento de un marca pasos se puede simular con circuitos electróni-
cos de la forma Resistencia - Condensador, compuestos de resistencias, conden-
sadores y switches que a su vez están alineados de forma serial con una fuente
eléctrica. El proceso de carga y descarga del condensador modela la dinámica
de los impulsos del corazón en una persona, ası́ el circuito ayuda a mantener
regulado el ritmo cardı́aco del corazón. Este comportamiento se puede descri-
bir de forma básica a través de razones de cambio, por lo cual se logra una
modelación con EDO de primer orden como se ve en la Figura 2.2.

Figura 2.2: Circuito y marca pasos.

Cuando el interruptor S está en P, el condensador S se carga y cuando está en


Q, se descarga y manda un estı́mulo eléctrico al corazón dado por la resistencia
R. En este intervalo t1 ă t ă t2 , al usar las leyes de Kirchhoff el voltaje E pt q que
se aplica al corazón está determinado por la ecuación
dE pt q 1
“ ´ E pt q. (2.42)
dt RC
Teorı́a general de ecuaciones diferenciales 49

Determinar E pt q en el instante en que el tiempo t f que envı́a el impulso al co-


razón comienza nuevamente la carga, donde la abertura y cierre del interruptor
son periódicas para estimular los latidos naturales.
El proyecto consiste, no solo en encontrar la fórmula para el voltaje E pt q sino
en modelar realmente este marca pasos usando las componentes electrónicas y
comparando los instantes de carga y descarga. Además dado que se tiene un
problema de Cauchy al cual se le conoce la solución exacta, es posible aproxi-
mar la EDO (2.42) con el método de Euler y realizar el cálculo del error global
con diferentes tamaños de pasos para verificar su convergencia. Se sugiere usar
la fórmula de carga y descarga del condensador para el circuito que desarrolle
con este proyecto.
II
Métodos numéricos para
EDO

3 Métodos de paso único . . . . . . . . . . . . . . . . . . . . . . . . . . 53


3.1 Forma general de los métodos de paso único
3.2 Consistencia, estabilidad y convergencia
3.3 Métodos de Taylor
3.4 Métodos de Runge Kutta
3.5 Estabilidad absoluta
3.6 Problemas propuestos

4 Métodos de paso múltiple . . . . . . . . . . . . . . . . . . . . . . . 69


4.1 Forma general de los métodos de paso múltiple lineales
4.2 Deducción por series de Taylor
4.3 Deducción por integración numérica
4.4 Métodos de Adams
4.5 Consistencia, convergencia y estabilidad
4.6 Estabilidad absoluta
4.7 Problemas propuestos
3. Métodos de paso único

En la primera parte de este libro se presentó el método de Euler (2.32), el cual


permite obtener una aproximación yk`1 únicamente a partir de una aproxima-
ción yk de un paso anterior. Los métodos numéricos que cumplen esta propiedad
se conocen como métodos de paso único, MPU. Los MPU son de frecuente
uso en la práctica y existen diferentes herramientas computacionales que los
incorporan. Sin embargo, cuando se utilizan estos algoritmos podrı́a no tenerse
indicios del proceso que se está realizando internamente. Por este motivo es
importante conocer las propiedades generales de los MPU, analizar de donde
surgen estos métodos y obtener criterios que permitan identificar cuando los
resultados generados mediante la aplicación de uno de estos métodos ofrece
resultados de buena precisión, ver [31].
Entre los MPU se destacan las familias de métodos de Taylor y de Runge-Kutta,
por lo cual en este capı́tulo se presenta el desarrollo de estos métodos, además
de un estudio de las propiedades de consistencia, convergencia y estabilidad
para los MPU.

3.1 Forma general de los métodos de paso único

Un MPU es un método que calcula una aproximación yk`1 únicamente a partir


del valor de una aproximación yk del paso anterior. En forma general un MPU
se escribe como
#
y0 “ ypx0 q,
(3.1)
yk`1 “ yk ` hk φ pxk , yk , yk`1 , hk q,

donde φ se denomina función incremento y hk es el tamaño de paso adoptado


en el subintervalo rxk , xk`1 s. A fin de simplificar el análisis se considerará fijo
hk , es decir hk “ h para todo k. Si la variable yk`1 aparece en los dos lados
de la expresión (3.1), se dice que el método es implı́cito, caso contrario se di-
ce que es un método explı́cito. Las definiciones y resultados que se presentan
54 Métodos de paso único

en este capı́tulo son válidas tanto para métodos implı́citos como para métodos
explı́citos, por lo tanto por simplicidad se enuncian estos resultados en el
contexto de métodos explı́citos.
La forma general de los MPU explı́citos con h fijo que se considera es
#
y0 “ ypx0 q,
(3.2)
yk`1 “ yk ` hφ pxk , yk , hq.

Observación 3.1. El método de Euler (2.32) es un MPU, con


φ pxk , yk , hq “ fpxk , yk q.
Otro MPU, es el método de Euler mejorado que se estudiará más adelante y
cumple (3.2) con
1
φ pxk , yk , hq “ rfpxk , yk q ` fpxk ` h, yk ` hfpxk , yk qqs .
2
3.2 Consistencia, estabilidad y convergencia

Cuando se usan métodos numéricos para obtener una aproximación a la


solución, es importante conocer que tanto se acerca la solución numérica a
la solución exacta. En el caso de los métodos numéricos para EDO se han
considerado dos tipos de error: el error local de discretización y el error glo-
bal de discretización.
Definición 3.1. Dado el MPU (3.2), el error local de discretización para el
método en xk se define por
ypxk`1 q ´ ypxk q
τk “ ´ φ pxk , ypxk q, hq. (3.3)
h

Definición 3.2. Dado el MPU (3.2), el error global de discretización del


método en xk es la diferencia entre la solución exacta y la solución numérica
del problema de Cauchy en xk , es decir
ek “ ypxk q ´ yk . (3.4)
Observación 3.2. Multiplicando (3.3) por el tamaño de paso h se tiene
hτk “ ypxk`1 q ´ rypxk q ` hφ pxk , ypxk q, hqs “ ypxk`1 q ´ yk`1 , (3.5)
lo cual puede ser visto como la diferencia entre la solución exacta y la solución
aproximada, donde la solución numérica se ha calculado en una sola aplica-
ción del método numérico, es decir que ningún error fue cometido anterior-
mente. Esto le confiere el carácter local. Por otro lado, aunque la ecuación (3.4)
también puede interpretarse como la diferencia entre la solución exacta y la so-
lución aproximada, se debe notar que en este caso la solución numérica se ha
Métodos de paso único 55

calculado a partir de valores obtenidos por la aplicación del método numérico


en instantes de tiempo anteriores, motivo por el cual se le confiere el carácter
global.
Para tener buenas aproximaciones numéricas se debe mantener controlados
estos errores, es decir procurar que la magnitud de estos errores sea lo más
baja posible y que de hecho tienda a cero a medida que h tienda a cero, o equi-
valentemente a medida que n tienda a infinito. En este sentido se presentan las
siguientes definiciones.
Definición 3.3. Se dice que el MPU (3.2) es consistente con el problema
de Cauchy (2.12) si y solo si la función de incremento, φ px, y, hq, satisface la
siguiente relación
φ px, y, 0q “ fpx, yq.
En otras palabras, un MPU es consistente si y solo si
lı́m }τk } “ 0, @x P ra, bs, y P Rn .
hÑ0

Definición 3.4. Si existieran constantes positivas C, h0 y q, independiente del


paso de integración h y del subı́ndice k, con 0 ă h ď h0 , tales que el error local
de discretización satisface
máx }τk } ď Chq ,
k
entonces se dice que el método numérico tiene orden de consistencia q y se
denota Ophq q.
Observación 3.3. La consistencia de un MPU asegura que el método es al
menos de orden de consistencia uno. El orden de consistencia indica qué tan
rápido el error local de discretización se acerca a cero cuando h disminuye.
Análogamente el orden de convergencia indica qué tan rápido el error global
de discretización disminuye. Dado que para las definiciones de error local y
error global de discretización que se han adoptado en este trabajo los ordenes
de consistencia y convergencia coinciden, en adelante simplemente se dirá que
un método es de orden q.
Definición 3.5. Se dice que el MPU (3.2) es convergente en el punto xk si y
solo si
lı́m }ek } “ 0.
hÑ0
Es decir, que la convergencia se tiene en un MPU si y solamente si el error glo-
bal de discretización tiende a cero cuando h tiende a cero. El método numérico
es convergente si fuera convergente para todo x P ra, bs y para cualquier proble-
ma de Cauchy.
La condición inicial y0 es dada de forma exacta por el problema de Cauchy,
sin embargo en la práctica la condición inicial puede estar sujeta a un tipo de
56 Métodos de paso único

error. Es decir que ypx0 q “ y0 ` δ0 , donde δ0 es una perturbación a la condición


inicial. Por lo tanto, en la práctica se trabaja con problemas de Cauchy de la
forma #
y1 pxq “ fpx, ypxqq,
ypx0 q “ y0 ` δ0 .
Este tipo de problemas se presenta cuando la condición inicial ypx0 q es calcula-
da de forma experimental e incluso la precisión finita de un computador impide
almacenar el valor de ypx0 q de forma exacta. Por lo tanto, es importante ga-
rantizar que los métodos usados sean estables numéricamente en el sentido de
que pequeñas perturbaciones en las condiciones iniciales no produzcan grandes
perturbaciones en los resultados finales.
Definición 3.6. Se dice que el MPU es estable si existe una constante K ą 0
tal que, para cualquier par de soluciones numéricas, yk`1 y p
yk`1 , obtenidas de
aplicar el MPU al mismo problema de Cauchy pero con diferentes condiciones
iniciales, y0 y p
y0 , respectivamente, se tiene que
}yk`1 ´ p y0 } ,
yk`1 } ď K }y0 ´ p
para xk`1 ď b, y para h que tiende a 0.
Garantizar la convergencia de un MPU mediante la Definición 3.5 resulta una
tarea compleja ya que en la práctica normalmente no se conoce el error global
de discretización y además la definición de convergencia de un MPU exige la
verificación de que para todo problema de Cauchy, el error global tiende a cero
cuando h tiende a cero, lo cual no es posible. Por tal motivo, se presenta el si-
guiente resultado que ofrece una forma alternativa de garantizar la convergencia
de un MPU a partir de la consistencia como se muestra en [4] y [9].
Teorema 3.1. Considere el MPU (3.2), donde la función incremento φ px, y, hq
es Lipschitziana en y y continua en sus argumentos. Si el MPU es consistente
entonces es convergente.
Demostración. Para determinar la convergencia del MPU se debe obtener una
expresión que describa el comportamiento del error global de discretización, de
la forma
ek`1 “ ypxk`1 q ´ yk`1 . (3.6)
Considerando la expresión (3.5) del producto entre el error local de discretiza-
ción τk y el paso de integración h se tiene que
ypxk`1 q “ ypxk q ` hφ pxk , ypxk q, hq ` hτk . (3.7)
Por otro lado considérese yk`1 como una aproximación numérica obtenida por
la aplicación del MPU (3.2), por tanto
yk`1 “ yk ` hφ pxk , yk , hq. (3.8)
Métodos de paso único 57

Sustituyendo (3.7) y (3.8) en (3.6) y agrupando términos se tiene


ek`1 “ ypxk q ´ yk ` h rφ pxk , ypxk q, hq ´ φ pxk , yk , hqs ` hτk
“ ek ` h rφ pxk , ypxk q, hq ´ φ pxk , yk , hqs ` hτk . (3.9)
Por hipótesis la función φ px, y, hq satisface la condición de Lipschitz en la
variable y, es decir
}φ px, y1 , hq ´ φ px, y2 , hq} ď L }y1 ´ y2 } ,
para cualquier x, h y para una constante positiva L. Además φ es continua en
todas sus variables, por tanto aplicando estas hipótesis en (3.9) se tiene que
}ek`1 } ď }ek } ` h }φ pxk , ypxk q, hq ´ φ pxk , yk , hq} ` h }τk }
ď }ek } ` hL }ypxk q ´ yk } ` h }τk }
ď }ek } ` hL }ek } ` h }τk } ,
esto es
}ek`1 } ď p1 ` hLq }ek } ` h }τk } , para todo k.(3.10)
A partir de (3.10), de manera recursiva se puede obtener una expresión que
dependa de e0 ası́
}e1 } ď p1 ` hLq }e0 } ` h }τk }
}e2 } ď p1 ` hLq2 }e0 } ` rp1 ` hLq ` 1s h }τk }
” ı
3 2
}e3 } ď p1 ` hLq }e0 } ` p1 ` hLq ` p1 ` hLq ` 1 h }τk }
..
.
” ı
k k ´1
}ek } ď p1 ` hLq }e0 } ` p1 ` hLq ` ¨ ¨ ¨ ` p1 ` hLq ` 1 h }τk } .
El segundo término del lado derecho en la última desigualdad es una suma
de los k términos de una progresión geométrica de término inicial 1 y razón
p1 ` hLq. Por tanto
p1 ` hLqk ´ 1
k
}ek } ď p1 ` hLq }e0 } ` h }τk } . (3.11)
L
Aplicando el Lema 2.1, se tiene que
pehL qk ě p1 ` hLqk .
Luego usando esta desigualdad en (3.11) se tiene que
khLekhL ´ 1
}ek } ď e }e0 } ` h }τk } . (3.12)
L
Por hipótesis el método es consistente, por lo tanto es consistente al menos de
orden 1, es decir que
máx }τk } ď Chq donde q ě 1,
k
58 Métodos de paso único

entonces se tiene que


ekhL ´ 1 q
}ek } ď ekhL }e0 } ` h . (3.13)
L
Si }e0 } “ 0 el lado derecho de la desigualdad (3.13) tiende a cero cuando h
tiende a cero. De esta manera el lı́mite del error global tiende a cero cuando el
tamaño de paso h tiende a cero, es decir el MPU es convergente.

3.3 Métodos de Taylor

En el Capı́tulo 2 para deducir el método de Euler se usó la expansión de Taylor


truncando hasta el segundo término. En este capı́tulo, para obtener métodos
con mejor precisión que la del método de Euler, se considera un mayor número
de términos en el desarrollo de Taylor. Esto da origen a una familia de MPU
conocida como métodos de Taylor.
Suponga que la solución ypxq es q ` 1 veces continuamente diferenciable. El
objetivo es usar la serie de Taylor para expresar ypx ` hq en términos de ypxq
para algún tamaño de paso h, utilizando información acerca de la ecuación
diferencial del problema de Cauchy. Expandiendo en series de Taylor la función
ypx ` hq con centro en x “ xk , se tiene
h2 2
1 hq`1 pq`1q
ypxk ` hq “ ypxk`1 q “ ypxk q ` hy pxk q ` y pxk q ` ¨ ¨ ¨ ` y pξ q,
2! pq ` 1q!
donde xk ă ξ ă xk ` h. Sustituyendo y1 pxk q “ fpxk , ypxk qq del problema de Cauchy
y truncando la derivada final, se obtiene el siguiente método.
Método de Taylor de orden q
#
y0 “ ypx0 q,
2 d q dq (3.14)
yk`1 “ yk ` hfpxk , yk q ` h2! dx fpxk , yk q ` ¨ ¨ ¨ ` hq! dx q fpxk , yk q.

El error local de discretización del método de Taylor es


hq
τk phq “ ypq`1q pξ q.
pq ` 1q!
Por lo tanto el método de Taylor de orden q tiene un error local de discretización
Ophq q.
Para calcular las derivadas de f en la expresión (3.14) se debe calcular las deri-
vadas totales de y1 “ fpx, yq teniendo en cuenta que f es una función implı́cita de
y. Para simplificar el cálculo de las derivadas de f se usa la siguiente notación
B fpx, yq B fpx, yq
f “ fpx, yq, fx “ y fy “ .
Bx By
Métodos de paso único 59

Para desarrollar un método de Taylor de orden 2 es necesario el cálculo de la


primera y de la segunda derivada de y,
y1 pxq “ f,
(3.15)
y2 pxq “ f1 “ fx ` fy f,
de lo cual sustituyendo en (3.14) se obtiene el correspondiente método de
Taylor.
Método de Taylor de orden 2 (Taylor 2)
#
y0 “ ypx0 q,
(3.16)
yk`1 “ yk ` hfpxk , yk q ` 12 h2 pfx pxk , yk q ` fy pxk , yk qfpxk , yk qq.

Aparentemente con los métodos de Taylor se puede obtener métodos numéri-


cos de ordenes arbitrariamente altos. Sin embargo, el cálculo de las derivadas
(3.15) es tedioso, a menos que la función f sea lo suficientemente simple para
que muchas de las derivadas parciales en (3.15) desaparezcan. Una alternati-
va en la práctica serı́a usar software de cálculo simbólico para obtener tales
derivadas, aunque se debe tener en cuenta que esto demanda mayores costos
computacionales. Por lo tanto los métodos de Taylor no son de gran utilidad
práctica.

3.4 Métodos de Runge Kutta

Los métodos de Runge Kutta forman una importante familia de MPU. La prin-
cipal caracterı́stica de estos métodos, al compararlos con los de Taylor, es que
ayudan a evitar el cálculo y la evaluación de la derivada de fpx, yq incluso con
alta orden. Un ejemplo de estos métodos es el método Euler (2.32). Estos méto-
dos surgen en 1895 por la idea de Runge de generalizar el método de Euler, te-
niendo en cuenta una serie de evaluaciones en la función fpx, yq para aproximar
sus sucesivas derivadas en un solo paso. Otras contribuciones fueron hechas por
Heun y Kutta alrededor de 1900. Este último caracterizó por completo el con-
junto de métodos de Runge Kutta de orden 4, y propuso los primeros métodos
de orden 5, más información histórica se presenta en [8].
Definición 3.7. Un método de Runge Kutta explı́cito de R estados, es un
MPU en el cual el número de estados hace referencia al número de evaluaciones
de fpx, yq que deben hacerse en cada paso. Estos métodos tienen la forma
#
y0 “ ypx0 q,
yk`1 “ yk ` hφ pxk , yk , hq,
donde
R
ÿ
φ px, y, hq “ cr kr ,
r “1
60 Métodos de paso único

con
k1 px, yq “ fpx, yq
k2 px, yq “ fpx ` ha2 , y ` hb21 k1 q
k3 px, yq “ fpx ` ha3 , y ` hb31 k1 ` hb32 k2 q (3.17)
..
. ´ řr´1 ¯
kr px, yq “ f x ` har , y ` h s“1 brs ks , 2 ď r ď R,
y los parámetros ar , brs y cr satisfacen las relaciones
R
ÿ ´1
rÿ
cr “ 1 y ar “ brs , 2 ď r ď R. (3.18)
r “1 s“1

Para deducir métodos de tipo Runge Kutta, se debe considerar la expresión


general de la Definición 3.7 y determinar las constantes cr , ar y brs en (3.18).
Una técnica para determinar las constantes es desarrollar en series de Taylor
las funciones kr en (3.17) y comparar este desarrollo con los coeficientes de un
método de Taylor de orden q. A continuación se ejemplifica este proceso.
Ejemplo 3.1. Deducir un método de tipo Runge Kutta de dos estados para
aproximar el problema de Cauchy (2.30).
Solución. Para deducir este método se considera la Definición 3.7 con R “ 2 y
se obtiene $
&yk`1 “ yk ` hpc1 k1 ` c2 k2 q,

k1 “ f pxk , yk q (3.19)

%k “ f px ` a h, y ` hb k q.
2 k 2 k 21 1
Como se deben de cumplir las condiciones (3.18), se tiene que a2 “ b21 . Por lo
tanto, la expresión (3.19) se puede escribir como
$
&yk`1 “ yk ` hpc1 k1 ` c2 k2 q,

k1 “ f pxk , yk q (3.20)

%k “ f px ` a h, y ` ha k q.
2 k 2 k 2 1

Expandiendo k2 en series de Taylor centrada en pxk , yk q hasta orden 2, se tiene


k2 “ f pxk , yk q ` a2 h fx pxk , yk q ` k1 fy pxk , yk q ` Oph2 q.
“ ‰
(3.21)
Remplazando la ecuación (3.21) en la ecuación (3.20) se tiene
yk`1 “ yk `pc1 ` c2 qh f pxk , yk q`
(3.22)
a2 c2 h2 fx pxk , yk q ` f pxk , yk q fy pxk , yk q ` Oph3 q.
“ ‰

Comparando los coeficientes de la ecuación (3.22) con los coeficientes de la


ecuación del método de Taylor de orden 2 (3.16), se concluye que
1
c1 ` c2 “ 1 y a2 c2 “ ,
2
Métodos de paso único 61

de donde se puede elegir estas constantes de varias formas y ası́ se obtienen


diferentes métodos Runge Kutta de orden dos.
Si se elige c1 “ c2 “ 12 , se tiene que a2 “ 1. Con esta elección se obtiene el
método de Euler mejorado.
Método de Euler mejorado (RK22)
#
y0 “ ypx0 q,
(3.23)
yk`1 “ yk ` h2 r f pxk , yk q ` f pxk ` h, yk ` h f pxk , yk qqs .
Por otro lado, si se toma c1 “ 0 y c2 “ 1, se tiene que a2 “ 12 y también se
obtiene un método de segunda orden el cual corresponde al método de Euler
modificado.
Método de Euler modificado
#
y0 “ ypx0 q, ´
h h
¯ (3.24)
yk`1 “ yk ` h f xk ` 2 , yk ` 2 f pxk , yk q .

Los métodos de Euler mejorado (3.23) y Euler modificado (3.24) también pue-
den ser aplicados para resolver SEDOP.
Usando la técnica presentada en el Ejemplo 3.1 se pueden obtener métodos de
alto orden, para lo cual se debe de considerar un mayor número de estados. Se
presentan a continuación algunos de los métodos de Runge Kutta clásicos.
Método de Runge Kutta de orden tres con tres estados (RK33)
$


’ y0 “ ypx0 q,
’ h
&yk`1 “ yk ` 6 pk1 ` 4k2 ` k3 q,


k1 “ fpxk , yk q (3.25)
k2 “ fpxk ` 2h , yk ` 2h k1 q






%k “ fpx ` h, y ´ hk ` 2hk q.
3 k k 1 2

Método de Runge Kutta de orden cuatro con cuatro estados (RK44)


$

’ y0 “ ypx0 q,
yk`1 “ yk ` h6 pk1 ` 2k2 ` 2k3 ` k4 q,






&k “ fpx , y q
1 k k
(3.26)

’ k2 “ fpxk ` 2h , yk ` h2 k1 q

k3 “ fpxk ` 2h , yk ` h2 k2 q





k4 “ fpxk ` h, yk ` hk3 q.
%
62 Métodos de paso único

Método de Runge Kutta de orden cinco con seis estados (RK56)


$

’ y0 “ ypx0 q,
16 6656 28561 9 2

yk`1 “ yk ` hp 135 k1 ` 12825 k3 ` 56430 k4 ´ 50 k5 ` 55 k6 q ,








’ k1 “ fpxk , yk q
&k2 “ fpxk ` h , yk ` h k1 q

4 4
3h 3h 9h (3.27)

’ k3 “ fpxk ` 8 , yk ` 32 k1 ` 32 k2 q
k4 “ fpxk ` 12h 1932h 7200h 7296h

13 , yk ` 2197 k1 ´ 2197 k2 ` 2197 k3 q




k5 “ fpxk ` h, yk ` 439h k1 ´ 8hk2 ` 3680h 845h

k3 ´ 4104 k4 q



’ 216 513
k6 “ fpxk ` h2 , yk ´ 8h 3544h 1859h 11h

27 k1 ` 2hk2 ´ 2565 k3 ` 4104 k4 ´ 40 k5 q.
%

Al observar los métodos (3.25), (3.26) y los deducidos en el Ejemplo 3.1, podrı́a
suponerse que si se considera un método de R etapas siempre se puede obtener
un método que alcance orden R. Sin embargo, en general esto es falso. Butcher
demostró que no existe un método de cinco etapas de orden cinco y demostró
el siguiente resultado, el cual se presenta en [9] y [15].
Teorema 3.2. Sea p˚ pRq el mayor orden que se puede alcanzar mediante un
método de Runge Kutta de R estados, entonces
p˚ pRq “ R, R “ 1, 2, 3, 4,
p˚ p5q “ 4,
p˚ p6q “ 5,
p˚ p7q “ 6, (3.28)
p˚ p8q “ 6,
p˚ p9q “ 7,
p˚ pRq “ R ´ 2 R “ 10, 11, . . . .

El Teorema 3.2 justifica el hecho de que en la práctica se utilice con mayor


frecuencia los métodos de Runge Kutta de orden 4, ya que usar métodos de
más de 4 estados demanda un número mayor de evaluaciones en la función f ,
lo cual genera grandes costos computacionales, con un orden de convergencia
menor a la cantidad de estados del método.

3.5 Estabilidad absoluta

En el estudio de las propiedades de consistencia, estabilidad y convergencia pa-


ra los MPU se consideraba que el tamaño de paso h tiende a cero. Sin embargo,
en la práctica tomar tamaños de paso muy pequeños demanda una mayor can-
tidad de cálculos, lo cual se traduce en un alto costo computacional y de hecho
por la aritmética finita del computador, al trabajar con h muy pequeño se pue-
den generar mayores errores de redondeo. Por lo tanto, se debe elegir el valor
de h lo más grande posible para el cual la solución aproximada se comporte por
Métodos de paso único 63

lo menos de forma similar con la solución exacta. El estudio de la elección del


tamaño de paso adecuado se denomina estabilidad absoluta, donde ahora la
palabra estabilidad se refiere al comportamiento de la solución numérica para
un h fijo.
Para estudiar la estabilidad absoluta de los MPU se debe realizar un análisis
cualitativo del conjunto de puntos en el plano complejo en el que la solución
numérica tenga el mismo comportamiento de la solución analı́tica, este con-
junto de puntos se conoce como la región de estabilidad. Para simplificar el
análisis cualitativo se trabaja con problemas lineales con coeficientes constan-
tes. Como sigue a continuación, se inicia el estudio de estabilidad absoluta a
partir del método de Euler.

3.5.1 Estabilidad método de Euler


Considérese el SEDOP
#
y1 pxq “ Mypxq,
(3.29)
yp0q “ y0 ,
donde M es una matriz cuadrada de entradas constantes. La solución exacta del
SEDOP en xk “ kh es
ypxk q “ ekhM y0 .
Al hacer un cambio de base, de modo que ypxq “ Sŷpxq, el sistema (3.29) se
puede reescribir en la forma
ŷ1 pxq “ M̂ŷpxq, (3.30)
donde M̂ “ S´1 MS es la forma canónica de Jordan de M. Aplicando el método
de Euler al problema (3.30) se obtiene la solución numérica
ŷk “ pI ` hM̂qk ŷ0 .

Para el caso en el que todos los valores propios de M sean diferentes, sin perdida
de generalidad, una de las ecuaciones del sistema tiene la forma simple
y1 pxq “ λ ypxq. (3.31)
Por lo tanto, para obtener información aceptable del comportamiento de la
solución de (3.29) se puede estudiar el comportamiento de (3.31). La solución
numérica por el método de Euler para (3.31) es
yk “ p1 ` λ hqk y0 . (3.32)
Se desea que esta solución presente el mismo comportamiento que la solución
analı́tica y “ y0 epnhλ q , donde λ puede ser real o complejo.
64 Métodos de paso único

En el caso de que λ P R se presentan dos casos, λ ă 0 o λ ě 0.

Si λ ă 0, entonces
lı́m ypxk q “ lı́m y0 eλ kh “ 0.
kÑ8 kÑ8

De donde, cuando k Ñ 8 la solución numérica (3.32), tendrá el mismo


comportamiento que la solución analı́tica si
|1 ` λ h| ă 1 ñ ´2 ă λ h ă 0.
Por lo tanto, la solución numérica tiene el mismo comportamiento de la
solución analı́tica, cuando k Ñ 8, si λ h P p´2, 0q. En este caso existe una
restricción sobre h a fin de que el método de Euler sea estable.
Si λ ě 0, se tiene que
#
y0 , si λ “ 0
lı́m ypxk q “ lı́m y0 eλ kh “
kÑ8 xÑ8 8, si λ ą 0.
En este caso la solución numérica (3.32) tiene el mismo comportamiento
de la solución analı́tica cuando k Ñ 8, por tanto en este caso no existen
restricciones sobre h para que el método de Euler sea estable.

De lo anterior se concluye que el método de Euler es absolutamente estable


para λ h P p´2, 0q.
Ahora si se considera que λ P C, entonces λ h P C y se tiene
λ h “ a ` ib, a, b P R.
Dado que para que la solución numérica (3.32) tenga el mismo comportamiento
que la solución analı́tica se debe cumplir que |1 ` λ h| ă 1. Ası́
|1 ` pa ` ibq| ă 1,
es decir
ra ´ p´1qs2 ` b2 ă 1. (3.33)
Por lo tanto, en el plano complejo la región de estabilidad para el método de
Euler son los puntos interiores de un disco de centro en el punto p´1, 0q y de
radio 1.

3.5.2 Estabilidad MPU


Análogamente al estudio de estabilidad absoluta para el método de Euler, se
puede considerar cualquier MPU y al aplicarlo al problema (3.29) obtener una
expresión de la forma
yk`1 “ ψ pλ hqyk ,
Métodos de paso único 65

donde la expresión ψ pλ hq se denomina factor de amplificación y el conjunto


Ω “ tµ P C; |ψ pµ q| ă 1u ,
se conoce como región de estabilidad absoluta. La intersección de la región Ω
con la recta real determinan el intervalo de estabilidad absoluta para el MPU.
Los principales resultados de estabilidad absoluta para los métodos de Runge
Kutta explı́citos se resumen en la Tabla 3.1 y en la Figura 3.1. De estos se
observa que entre mayor es el orden del método es más complicado determinar
la región de estabilidad absoluta asociada. Adicionalmente se concluye que los
intervalos de estabilidad absoluta son mayores al compararlos con el de los
métodos de orden menor.

Método Factor de amplificación Intervalo de EA


Euler 1`λh p´2, 0q
2
RK22 1 ` λ h ` pλ2hq p´2, 0q
2 3
RK33 1 ` λ h ` pλ2hq ` pλ6hq p´2.51, 0q
2 3 4
RK44 1 ` λ h ` pλ2hq ` pλ6hq ` pλ24hq p´2.78, 0q
2 3 4 5 6
RK56 1 ` λ h ` pλ2hq ` pλ6hq ` pλ24hq ` pλ120
hq λ hq
` p1280 p´5.58, 0q

Tabla 3.1: Estabilidad absoluta para métodos Runge-Kutta, según [15].

4i

3i
RK56
RK44

2i RK33

RK22
i
Euler

−i

−2i

−3i

−4i
−6 −5 −4 −3 −2 −1 0 1

Figura 3.1: Región de estabilidad absoluta para los métodos de Runge Kutta.
66 Métodos de paso único

Observación 3.4. Para diseñar la Figura 3.1 en Matlab, se consideró un


conjunto de puntos λ h en las vecindades del origen del plano complejo. De
estos puntos se representó gráficamente en el plano complejo los puntos que
cumplı́an la condición |ψ pµ q| ă 1, es decir los puntos que estaban en las regio-
nes de estabilidad para cada uno de los métodos de Runge Kutta.

3.6 Problemas propuestos

Para la solución numérica de modelos matemáticos con EDO relacionados con


aplicaciones reales, en la literatura es muy usado el método de Runge Kutta
de cuarta orden clásico. Este puede ser encontrado con una función en diferen-
tes herramientas computaciones como el Scilab, Matlab, Mathematica, Python,
entre otros. Sin embargo, para comprender cada una de las componentes teóri-
cas presentadas en este apartado como la consistencia, orden, convergencia y la
estabilidad, es necesario realizar implementaciones propias. Se invita al lector
a desarrollar implementaciones de los métodos numéricos presentados tanto
en este apartado como en el siguiente. Para comprender los conceptos en esta
sección se proponen algunos problemas.

3.6.1 Problemas de práctica


Problema 3.1. Construir una tabla donde para h “ 0.1 en cada paso de tiempo
se determine el error local de discretización y el error global de discretización
en la aproximación de cada problema de Cauchy del Problema 2.5. Analizar los
resultados para concluir sobre la convergencia en cada caso.
Problema 3.2. Determinar el método de Taylor de orden 3.
Problema 3.3. Realizar un método de Runge Kutta de orden 2, diferente a los
encontrados en el Ejemplo 3.1. Justificar la consistencia de este nuevo método.
Problema 3.4. Comprobar que el método RK33 en (3.25), es un método
Runge Kutta de orden tres con tres estados.
Problema 3.5. Verificar que el factor de amplificación para el método RK22
en (3.23) es el presentado en la Tabla 3.1.

3.6.2 Proyecto intermedio MPU


En este proyecto, se debe comparar los resultados obtenidos con el método
de Euler en el proyecto inicial 2.4.2 ahora con las aproximaciones para RK22
y RK44. Verificar numéricamente que las implementaciones realizadas gene-
ran el orden de convergencia esperado para cada método. Luego dado que el
problema del modelado del marca paso está formado por una EDO, compro-
bar para este las regiones de estabilidad tanto para los métodos Runge Kutta
Métodos de paso único 67

implementados, como para el método de Euler. En este caso use tamaños de


paso dentro y fuera de la región de estabilidad para que pueda concluir. Por
último, agregar diferentes perturbaciones a la aproximación inicial e investigue
cómo estas afectan la aproximación obtenida al graficar sus aproximaciones y
la solución exacta en una misma figura.
4. Métodos de paso múltiple

En la sección anterior se estudiaron los MPU, particularmente los métodos de


Taylor y Runge Kutta, mediante los cuales es posible obtener una solución
aproximada, yk`1 , del problema de Cauchy (2.12) a partir de una única so-
lución aproximada yk del paso anterior. Los métodos de paso múltiple, MPM,
necesitan conocer varios valores de la discretización en pasos anteriores al de
interés, es decir que para producir una solución aproximada, yk`N , es necesa-
rio conocer las aproximaciones yk , yk`1 , . . ., yk`N ´1 , de pasos anteriores, en
este caso el MPM se conoce como método de N-pasos. Los MPU pueden ser
considerados un caso particular de los MPM, cuando N “ 1.
La idea de John C. Adams y Bashforth de mejorar las aproximaciones obtenidas
mediante el método de Euler dio origen en 1833 a los primeros métodos de paso
múltiple, conocidos como métodos de Adams-Bashforth. Sin embargo, la teorı́a
moderna de los métodos de paso múltiple lineales, MPML, fue desarrollada
solo hasta 1956 por Dahlquist, y se dio a conocer por los trabajos de Henrici
entre 1962 y 1963, tal y como se muestra en [9].
En este trabajo, únicamente se estudiarán propiedades generales para los MPML,
que son métodos en los cuales la expresión que los define es una combinación
lineal de yk , yk`1 , . . ., yk`N y de la derivada f evaluada en pxk , yk q,
pxk`1 , yk`1 q, . . . , pxk`N , yk`N q. Se omite el estudio de métodos de paso múlti-
ple no lineales ya que estos se usan especialmente en problemas de Cauchy
que son rı́gidos o cuyas soluciones poseen singularidades, problemas sobre los
cuales no se profundiza en este trabajo, algunos MPM no lineales se presentan
en [10].

4.1 Forma general de los métodos de paso múltiple lineales

El método de Simpson (2.41) del Capı́tulo 2 es un método de 3 pasos lineal,


ya que la expresión que define el método es una combinación lineal de yk´1 , yk
y yk`1 y de la derivada f evaluada en pxk , yk q, pxk`1 , yk`1 q y pxk`2 , yk`2 q. Note
70 Métodos de paso múltiple

que si se aplica este método para resolver el problema de Cauchy (2.12) solo
se dispone de una condición inicial y0 , pero el método exige que además de la
condición inicial se debe conocer el valor de y1 . Por lo tanto, es necesario usar
diferentes técnicas para aproximar los valores iniciales necesarios para utilizar
un MPML, ver [31].
En forma general un MPML de N pasos se escribe como
N
ÿ N
ÿ
α j yk` j “ h β j fk ` j , (4.1)
j “0 j “0

donde α j y β j son reales, αN ‰ 0, f : ra, bs ˆ Rn Ñ Rn , h “ pb ´ aq{n,


xk` j “ xk ` jh y fk` j “ fpxk` j , yk` j q para 0 ď j ď N.
La expresión (4.1) se conoce como ecuación de diferencias lineal, cuya solu-
ción es una sucesión yn , más información de este tipo de ecuaciones se presenta
en el Apéndice A.2. El método definido por esta ecuación es implı́cito cuando
βN ‰ 0 y explı́cito cuando βN “ 0. Sin perdida de generalidad, se asume que
αN “ 1 dado que en caso contrario se podrı́a despejar. Es importante señalar
que para aplicar el MPML (4.1) los valores iniciales yk` j para 0 ď j ď N ´ 1
deben ser conocidos.
Existen diferentes formas para obtener MPML. A continuación se muestran
algunas técnicas para deducir estos métodos.

4.2 Deducción por series de Taylor

Para obtener un MPML a partir de series de Taylor se debe suponer que se


conoce la solución exacta del problema de Cauchy (2.12) y trabajar con la
expresión obtenida al desarrollar dicha solución en series de Taylor. Por lo tan-
to, se debe suponer que f es continua y diferenciable en sus argumentos x e y.
La deducción del método de Euler (2.32) es un ejemplo de esta técnica, pues el
método de Euler es un MPML de un paso.
Para deducir un MPML de dos pasos se considera la expansión de Taylor para
ypxk ` hq y ypxk ´ hq en torno al punto xk dadas respectivamente por
1 h2 2 h3 3
ypxk ` hq “ ypxk q ` hy pxk q ` y pxk q ` y pξ1 q, (4.2)
2! 3!
h 2 h3
ypxk ´ hq “ ypxk q ´ hy1 pxk q ` y2 pxk q ´ y3 pξ2 q, (4.3)
2! 3!
donde xk ă ξ1 ă xk`1 y xk´1 ă ξ2 ă xk .
Restando las expresiones (4.2) y (4.3), se tiene

1 h3 “ 3 ‰
ypxk ` hq ´ ypxk ´ hq “ 2hy pxk q ` y pξ1 q ` y3 pξ2 q .
3
Métodos de paso múltiple 71

Si y3 pxq está acotada por M para todo x P ra, bs, se tiene

1 h3
ypxk ` hq ´ ypxk ´ hq ď 2hy pxk q ` 2M . (4.4)
3
Para valores de h pequeños, el término que contiene h3 en (4.4) que se refiere
al error local, se puede omitir de lo cual se obtiene
yk`1 ´ yk´1 “ 2hfk .
Este método se conoce como método del punto medio y puede ser escrito en la
forma general (4.1) mediante la sustitución de k por k ` 1, de lo cual se obtiene
#
y0 “ ypx0 q, y1 conocido,
(4.5)
yk`2 “ yk ` 2hfk`1 .

En la expresión (4.4) se puede observar que el error local de discretización para


el método del punto medio se relaciona con
2M 2
h .
3

Otra técnica que permite obtener MPML a partir de las series de Taylor consiste
en considerar la forma general (4.1) y mediante series de Taylor obtener expre-
siones que permitan calcular los coeficientes α j y β j para j “ 0, 1, . . . , N. Por
ejemplo, para deducir un MPML de un paso se considera la forma general
yk`1 ` α0 yk “ hpβ1 fk`1 ` β0 fk q.
Suponiendo que se conoce la solución exacta del problema de Cauchy (2.12),
ypxq, y dado que y1 pxq “ fpx, yq se cumple que
“ ‰
ypxk ` hq ` α0 ypxk q « h β1 y1 pxk ` hq ` β0 y1 pxk q . (4.6)
Expandiendo en series de Taylor ypxk ` hq y y1 pxk ` hq en torno a xk se tiene

1h2 2 h3 3 h4 p4q
ypxk ` hq “ ypxk q ` hy pxk q ` y pxk q ` y pxk q ` y pξ1 q, (4.7)
2! 3! 3!

1 1 2h2 3 h3 p4q
y pxk ` hq “ y pxk q ` hy pxk q ` y pxk q ` y pξ2 q, (4.8)
2! 3!
donde xk ă ξ1 ă xk`1 y xk ă ξ2 ă xk`1 .
Cuando la cuarta derivada de y esta acotada en ra, bs y h es pequeño, el error
local se puede omitir. Luego sustituyendo (4.7) y (4.8) en (4.6) y agrupando
términos, se obtiene la expresión
C0 ypxk q ` C1 hy1 pxk q ` C2 h2 y2 pxk q ` C3 h3 y3 pxk q « 0, (4.9)
72 Métodos de paso múltiple

donde
1 1 1
C0 “ 1 ` α0 , C1 “ 1 ´ β1 ´ β0 , C2 “ ´ β1 , C3 “ ´ β1 . (4.10)
2 6 2
Para que se cumpla la expresión (4.9) se debe hacer que los coeficientes de esta
expresión se anulen, es decir que C0 “ 0, C1 “ 0, C2 “ 0 y C3 “ 0. Por lo tanto, de
las tres primeras expresiones en (4.10) se concluye que α0 “ ´1 y β0 “ β1 “ 12 .
1
De donde C3 toma el valor de 12 . De lo anterior se obtiene el MPML conocido
como el método del trapecio implı́cito. Este método se presentó en la ecuación
(2.40) del Capı́tulo 2 como un ejemplo de métodos implı́citos.
#
y0 “ ypx0 q,
(4.11)
yk`1 “ yk ` h2 pfk`1 ` fk q.

Observe que el coeficiente C3 en (4.10), no se ha anulado. De aquı́ ,se concluye


que el error local para este método depende del término
1 3 3
h y pxk q.
12

A continuación se presenta una técnica para deducir MPML usando integración


numérica. Esta técnica da origen a una importante familia de métodos conoci-
dos como los métodos de Adams.

4.3 Deducción por integración numérica

Integrando el problema de Cauchy y1 “ fpx, ypxqq entre xk y xk` j para j ě 1 se


obtiene la expresión
ż xk` j
ypxk` j q ´ ypxk q “ fpx, ypxqqdx. (4.12)
xk

El objetivo es usar método de integración numérica para encontrar aproxima-


ciones a la integral en (4.12) para diferentes valores de j y de esto derivar
MPML.
Considerando la integral en (4.12),
ż xk` j
fpx, ypxqqdx, (4.13)
xk

la idea básica de los métodos de integración numérica está en aproximar la


función fpx, ypxqq de la integral (4.13) por un polinomio interpolador Ppxq y de-
terminar analı́ticamente la integral de ese polinomio en el intervalo rxk , xx` j s.
Las fórmulas de integración numérica se conocen como cuadraturas numéricas
Métodos de paso múltiple 73

y son sumatorias cuyos términos son valores de la función fpx, ypxqq multipli-
cados por pesos w convenientemente elegidos, es decir
ż xk` j ż xk` j j
ÿ
fpx, ypxqqdx « Ppxqdx « wk`i fpxk`i , ypxk`i qq.
xk xk i“k

Usando para calcular Ppxq el método de interpolación de Lagrange, presentado


en el Apéndice A.1, se tiene
ż xk` j j
ż xk` j ÿ
fpx, ypxqqdx “ fpxk`i , ypxk`i qqLk`i pxqdx
xk xk i“k
j
(4.14)
fp j`1q pς pxqq
ż xk` j ź
` px ´ xk`i q dx,
xk i“k
pn ` 1 q !

es decir
ż xk` j j
ÿ
fpx, ypxqqdx “ wk`i fpxk`i , ypxk`i qq
xk i“k
j
ż xk` j ź
1
` px ´ xk`i qfp j`1q pς pxqqdx,
pn ` 1q! xk i“k

donde ς pxq y x están en rxk , xk` j s y para cada x y


ż xk` j
w k `i “ Lk`i pxqdx, para 0 ď i ď j.
xk

Por lo tanto, la fórmula de cuadratura es


ż xk` j j
ÿ
fpx, ypxqqdx « wk`i fpxk`i , ypxk`i qq,
xk i“k

con un error dado por


j
ż xk` j ź
1
px ´ xk`i qfp j`1q pς pxqqdx.
pn ` 1q! xk i“k

Ejemplo 4.1. Reemplazando (4.14) con j “ 1, deduzca la aproximación


numérica de ż xk`1
fpx, ypxqqdx.
xk
74 Métodos de paso múltiple

Solución. Si se toma j “ 1 de la integral (4.14) se tiene


ż xk`1 ż xk`1 ż xk`1
px ´ xk`1 q px ´ xk q
fpx, ypxqqdx “ fpxk qdx ` fpxk`1 qdx
xk xk pxk ´ xk`1 q xk pxk`1 ´ xk q
1 xk`1 2
ż
` f pς pxqqpx ´ xk qpx ´ xk`1 qdx. (4.15)
2 xk
Donde aplicando el teorema del valor medio al término del error, se tiene que
para un ς P pxk , xk`1 q se cumple que
ż xk`1 ż xk`1
2 2
f pς pxqqpx ´ xk qpx ´ xk`1 qdx “ f pς q px ´ xk qpx ´ xk`1 qdx
xk xk
« ffxk`1
x 3 pxk`1 ` xk q 2
“ f2 pς q ´ x ` xk xk`1 x
3 2
xk
h3
“´ f 2 pς q.
6
Por lo tanto, al sustituir en (4.15) se tiene
« ffxk`1
ż xk`1
px ´ xk`1 q2 px ´ xk q 2 h3 2
fpx, ypxqqdx “ fpxk q ` fpxk`1 q ´ f pς q
xk 2pxk ´ xk`1 q 2pxk`1 ´ xk q 12
xk
pxk`1 ´ xk q h3 2
“ rfpxk , ypxk qq ` fpxk`1 , ypxk`1 qqs ´ f pς q.
2 12
Dado que h “ xk`1 ´ xk , se obtiene

h3 2
ż xk`1
h
fpx, ypxqqdx “ rfpxk , ypxk qq ` fpxk`1 , ypxk`1 qqs ´ f pς q. (4.16)
xk 2 12
La expresión (4.16) se conoce como la regla del trapecio para aproximar
integrales.

De manera similar se pueden obtener otros métodos de integración numérica.


Si se toma j “ 2 en (4.14) y se aplica el polinomio de Lagrange que interpola
los puntos pxk , fpxk qq, pxk`1 , fpxk`1 qq y pxk`2 , fpxk`2 qq, se obtiene la regla de
Simpson para aproximar integrales
ż xk`2
h
fpx, ypxqqdx “ rfpxk , ypxk qq ` 4fpxk`1 , ypxk`1 qq ` fpxk`2 , ypxk`2 qqs
xk 3
h5 p4q
´ f pς q. (4.17)
90
Métodos de paso múltiple 75

La idea es usar métodos de integración numérica para aproximar la integral


en (4.12). Usando la regla del trapecio se obtiene nuevamente el método del
trapecio implı́cito (4.11). Por otro lado aplicando la regla de Simpson se tiene
h
ypxk`2 q ´ ypxk q “ rfpxk , ypxk qq ` 4fpxk`1 , ypxk`1 qq ` fpxk`2 , ypxk`2 qqs
3
h5 p4q
´ f pς q,
90
de donde se obtiene el MPML de dos pasos
#
y0 “ ypx0 q, y1 conocido,
yk`2 “ yk ` 3h rfk ` 4fk`1 ` fk`2 s ,

que es comúnmente conocido como el método de Simpson implı́cito . Este


método se presentó en la ecuación (2.41) del Capı́tulo 2 como un ejemplo de
métodos implı́citos.

4.4 Métodos de Adams

Entre los métodos deducidos por integración numérica se destaca la familia de


métodos de Adams, los cuales se deducen de la expresión
ż xk`1
yk`1 ´ yk “ Ppxqdx, (4.18)
xk

donde Ppxq es un polinomio que interpola a fpx, ypxqq.


Si los métodos obtenidos de (4.18) son explı́citos se conocen como métodos de
Adams Bashforth, y si son implı́citos se conocen como métodos de Adams
Moulton.
Para obtener el método de Adams Bashforth de 2 pasos se debe aproximar la
función fpx, ypxqq por el polinomio de Lagrange de grado 1 que pasa por los
puntos pxk´1 , yk´1 q y pxk , yk q, es decir el polinomio
x ´ xk x ´ xk´1
P1 p x q “ fk´1 ` fk . (4.19)
xk´1 ´ xk xk ´ xk´1
De donde, tomando
x ´ xk´1
u“ y dx “ hdu, (4.20)
h
se sigue que x ´ xk´1 “ hu y x ´ xk “ x ´ xk´1 ´ h “ hpu ´ 1q. Sustituyendo estos
valores en (4.19), se tiene
P1 pxq “ ufk ` p1 ´ uqfk´1 .
76 Métodos de paso múltiple

Por lo tanto, de la ecuación (4.18) se obtiene


ż xk`1
yk`1 “ yk ` P1 pxqdx.
xk

Ası́
ż2
yk`1 “ yk ` rufk ` p1 ´ uqfk´1 s hdu
1
«˜ ¸ ˜ ¸ff2
u2 u2
“ yk ` h fk ` u ´
2 2
ˆ ˙ 1
3 1
“ yk ` h fk ´ fk´1 .
2 2
De aquı́ se obtiene la fórmula explı́cita de Adams Bashforth de 2
pasos (AB2)
h
yk`1 “ yk ` p3fk ´ fk´1 q.
2
Este método puede ser escrito en la forma general (4.1) mediante la sustitución
de k por k ` 1, de lo cual se obtiene
#
y0 “ ypx0 q, y1 conocido,
(4.21)
yk`2 “ yk`1 ` h2 p3fk`1 ´ fk q.

El método (4.21) fue obtenido de la integración del polinomio P1 pxq en el


intervalo rxk , xk`1 s, donde P1 pxq interpola los puntos pxk´1 , fk´1 q y pxk , fk q. A
fin de obtener un método que ofrezca mejores resultados se repite el proceso
anterior usando el polinomio P2 pxq que interpola los puntos pxk´1 , fk´1 q, pxk , fk q
y pxk`1 , fk`1 q, por tanto
px´xk qpx´xk`1 q px´xk´1 qpx´xk`1 q px´xk´1 qpx´xk q
P2 pxq “ pxk´1 ´xk qpxk´1 ´xk`1 q fk´1 ` pxk ´xx´1 qpxk ´xk`1 q fk ` pxk`1 ´xk´1 qpxk`1 ´xk q fk`1 .
(4.22)
Nuevamente considerando el cambio de variable (4.20) y sus consideraciones,
al sustituir en (4.22) se concluye que
upu ´ 1q pu ´ 1qpu ´ 2q
P2 p x q “ fk`1 ´ upu ´ 2qfk ` fk´1 .
2 2
Por lo tanto de la expresión (4.18) se tiene
ż xk`1
yk`1 “ yk ` P2 pxqdx.
xk
Métodos de paso múltiple 77

Luego
ż 2„ 
upu ´ 1q pu ´ 1qpu ´ 2q
yk`1 “ yk ` fk`1 ´ upu ´ 2qfk ` fk´1 hdu
1 2 2
«˜ ¸ ˜ ¸ ˜ ¸ff2
u3 u2 u3 u 3 3u 2
“ yk ` h ´ fk`1 ´ ´ u2 fk ` ´ `u
6 4 3 6 4
1
h
“ yk ` p5fk`1 ` 8fk ´ fk´1 q.
12
De donde se obtiene la fórmula implı́cita del método de Adams Moulton de
2 pasos (AM2)
h
yk`1 “ yk ` p5fk`1 ` 8fk ´ fk´1 q.
12
Este método puede ser escrito en la forma general (4.1) mediante la sustitución
de k por k ` 1, de lo cual se obtiene
#
y0 “ ypx0 q, y1 conocido,
h (4.23)
yk`2 “ yk`1 ` 12 p5fk`2 ` 8fk`1 ´ fk q.

Realizando de forma análoga el anterior proceso, se obtienen el método de


Adams Bashforth de 3 pasos, y los métodos de Adams Bashforth y de Adams
Moulton de 4 pasos que son de frecuente uso en la práctica.
Método de Adams Bashforth de 3 pasos (AB3)
#
y0 “ ypx0 q, y p conocido para 1 ď p ď 2,
h (4.24)
yk`3 “ yk`2 ` 12 r23fk`2 ´ 16fk`1 ` 5fk s .

Método de Adams Bashforth de 4 pasos (AB4)


#
y0 “ ypx0 q, y p conocido para 1 ď p ď 3,
h (4.25)
yk`4 “ yk`3 ` 24 r55fk`3 ` 59fk`2 ` 37fk`1 ´ 9fk s .

Método de Adams Moulton de 4 pasos


#
y0 “ ypx0 q, y p conocido para 1 ď p ď 3,
h
yk`4 “ yk`3 ` 720 r251fk`4 ` 646fk`3 ´ 264fk`2 ` 106fk`1 ´ 19fk s .

4.5 Consistencia, convergencia y estabilidad

En esta sección se describe las propiedades de consistencia, convergencia y


estabilidad para los MPML, análogamente como se hizo en el Capı́tulo 3 para
los MPU.
78 Métodos de paso múltiple

Definición 4.1. Para el MPML (4.1) de N pasos, el error local de discretiza-


ción τk está dado por
řN N
j“0 α j ypxk ` jhq
ÿ
τk “ ´ β j fpxk ` jh, ypxk ` jhqq. (4.26)
h j “0

Observación 4.1. La expresión (4.26) se puede escribir como


N
ÿ N
ÿ
hτk “ α j ypxk ` jhq ´ h β j y1 pxk ` jhq. (4.27)
j “0 j “0

Si se expande ypxk ` jhq y su derivada y1 pxk ` jhq en series de Taylor alrededor


de xk , se tiene
1 j2 h2 2 j p h p p pq
ypxk ` jhq “ ypxk q ` jhy pxk q ` y pxk q ` ¨ ¨ ¨ ` y pxk q ` ¨ ¨ ¨ (4.28)
2! p!

1 1 j2 h2 p3q
2 j p´1 h p´1 p pq
y pxk ` jhq “ y pxk q ` jhy pxk q ` y pxk q ` ¨ ¨ ¨ ` y pxk q ` ¨ ¨ ¨
2! p p ´ 1q!
(4.29)
Remplazando (4.28) y (4.29) en (4.27), y agrupando términos se tiene la
expresión
hτk “ C0 ypxk q ` C1 hy1 pxk q ` C2 h2 y2 pxk q ` ¨ ¨ ¨ ` C p h p yp pq pxk q ` ¨ ¨ ¨ ,
donde los coeficientes constantes Ci son
N
ÿ
C0 “ α j,
j “0
ÿ N n
ÿ
C1 “ jα j ´ β j,
j “0 j “0
N 2 n
ÿ j α j
ÿ
C2 “ ´ jβ j ,
j “0
2! j “0
..
.
N N
ÿ j pα j ÿ j p´1 β j
Cp “ ´ .
j “0
p! j“0
p p ´ 1 q !

Definición 4.2. El MPML (4.1) de N pasos es consistente con el problema de


Cauchy (2.12) si y solo si
lı́m }τk } “ 0.
hÑ0
Métodos de paso múltiple 79

Usando la Observación 4.1 se puede decir que el MPML es consistente si y


solo si C0 “ 0 y C1 “ 0, ya que para la consistencia se necesita que }τk } Ñ 0
cuando h Ñ 0.
Definición 4.3. El MPML (4.1) de N pasos tiene orden q si y solo si existen
constantes positivas Q, h0 y q, independientes del paso de integración h y del
subı́ndice k, con 0 ă h ď h0 , tales que el error local de discretización satisface
máx }τk } ď Qhq .
k

Usando la Observación 4.1, el MPML (4.1) tiene orden q si y solo si


C0 “ C1 “ ¨ ¨ ¨ “ Cq “ 0 y Cq`1 ‰ 0.
Observe que para asegurar que el MPML (4.1) es consistente basta probar que
el método tiene orden de consistencia q ě 1, pues al ser el método de al menos
orden 1 se verifica que C0 “ C1 “ 0, lo cual es equivalente a demostrar que el
método es consistente.
Definición 4.4. El MPML (4.1) de N pasos es convergente si para todo
problema de Cauchy (2.12), se tiene que
lı́m }yk`N } “ }ypxk`N q} ,
hÑ0
para todo x P ra, bs, y para toda solución tyk`N u de la ecuación de diferencias,
que satisfacen las condiciones iniciales }yi } “ }ηi phq}, donde lı́m }ηi phq} “ }y0 }
hÑ0
para i “ 0, 1, . . . , N ´ 1.
En el capı́tulo anterior se observó que la consistencia era una condición nece-
saria y suficiente para asegurar la convergencia, la estabilidad solo tenı́a lugar
en el caso en el que se consideraba que la condición inicial y0 del problema
de Cauchy (2.12) estuviera perturbada y aun ası́, la consistencia garantizaba la
estabilidad. En este capı́tulo se mostrará que para asegurar la convergencia de
un MPML es necesario garantizar consistencia y estabilidad.
Para los MPML el estudio de estabilidad cobra mayor relevancia que para
los MPU, pues para un MPML de N pasos (4.1), y0 está dada por la condi-
ción inicial del problema de Cauchy (2.12), pero los demás valores de inicio
y1 , . . . , yN ´1 , usualmente son calculados aplicando MPU, usando herramientas
estadı́sticas e incluso de datos experimentales. En cualquier caso, generalmente
los valores iniciales están sujetos a grandes errores numéricos, en este sentido
es importante saber cómo estos errores afectarán a las aproximaciones yk para
N ď k, obtenidas por un MPML de N pasos (4.1). Por lo tanto en este caso se
estudiará la estabilidad de un MPML con respecto a pequeñas perturbaciones
en las condiciones de partida.
Definición 4.5. Se dice que el MPML (4.1) es estable si existe una constante
K tal que, para cualquier par de sucesiones tyk`N u y tp
yk`N u las cuales han
80 Métodos de paso múltiple

sido generadas por la aplicación de (4.1) pero con diferentes valores de inicio
y0 , y1 , . . . , yN ´1 y p
y0 , p
y1 , . . . , p
yN ´1 , respectivamente, se tiene que
y0 } , }y1 ´ p
yk`N } ď K máx t}y0 ´ p
}yk`N ´ p yk´1 }u ,
y1 } , . . . , }yN ´1 ´ p
para h que tiende a 0.
A pesar de que la Definición 4.5 permite entender intuitivamente la idea de
estabilidad en el sentido en que pequeñas perturbaciones en las condiciones
iniciales dan lugar a pequeñas perturbaciones en los datos de salida, es muy
tedioso usar esta definición para verificar la estabilidad de un MPML. Por es-
ta razón se estudian técnicas alternativas más sencillas que permiten verificar
la estabilidad de un MPML. Antes de empezar es necesario definir algunos
conceptos, los cuales se enuncian para el caso escalar.
Definición 4.6. Dado el MPML,
N
ÿ N
ÿ
α j yk` j “ h β j f k` j ,
j “0 j “0

se conocen como el primer y segundo polinomio caracterı́stico del MPML a


los polinomios ρ pzq y σ pzq respectivamente, donde
N
ÿ
ρ pzq “ α jz j,
j“0

n
ÿ
σ pzq “ β jz j,
j“0

con αN “ 1.
Usando la Definición 4.6, se presentan a continuación algunos teoremas que
permiten verificar fácilmente la consistencia y estabilidad para un MPML.
Teorema 4.1. El MPML (4.1) es consistente si y solo si

ρ p1q “ 0, ρ 1 p1q “ σ p1q.

Demostración. El Teorema 4.1 resulta evidente, pues

0 “ ρ p1q “ α0 ` α1 ` ¨ ¨ ¨ ` αn “ C0 ,
es decir C0 “ 0.
Por otro lado
N
ÿ N
ÿ
1
ρ p1q “ jα j y σ p1q “ β j.
j “0 j “0
Métodos de paso múltiple 81

Por lo tanto usando la condición del Teorema 4.1, ρ 1 p1q “ σ p1q, se tiene
N
ÿ N
ÿ
1
0 “ ρ p1q ´ σ p1q “ jα j ´ β j “ C1 .
j“0 j “0

Se concluye que si se cumplen las hipótesis del Teorema 4.1, se tiene que C0 “ 0
y C1 “ 1, de donde el MPML es consistente.
Ejemplo 4.2. Considere el problema de Cauchy
#
y1 pxq “ 0,
(4.30)
ypx0 q “ 0,
cuya solución exacta es ypxq “ 0. Analice las condiciones de convergencia al
aplicar a este SEDOP el MPML (4.1) .
Solución. Aplicando el MPML (4.1) al SEDOP (4.30), se tiene la ecuación en
diferencias homogénea
ÿN
α j yn` j “ 0. (4.31)
j“0
La expresión (4.31) es una ecuación de diferencias homogénea (ver Apéndice
A.2), por lo tanto para encontrar la solución de esta ecuación se deben conside-
rar las raı́ces del polinomio
N
ÿ
ρn pzq “ α jz j,
j “0

el cual coincide con el primer polinomio caracterı́stico de la Definición 4.6. Si


se considera que todas las raı́ces de este polinomio son distintas, entonces la
solución de (4.31) es de la forma
yk “ d1 r1k ` d2 r2k ` ¨ ¨ ¨ ` dN rNk ,
donde di , 1 ď i ď N son constantes y se recuerda que se conoce una raı́z del
polinomio, la raı́z principal z1 “ 1. Si se supone que el MPML que se aplicó es
convergente, se cumple que
yi Ñ yp0q “ 0 cuando h Ñ 0, para i “ 0, 1, . . . , N ´ 1.
Por lo tanto, se considera yk de la forma
yk “ hpd1 r1k ` d2 r2k ` ¨ ¨ ¨ ` dN rNk q.
Dado que el MPML es convergente se cumple que yk Ñ 0 cuando h Ñ 0 o
cuando n Ñ 8, siendo x “ nh. Sin embargo, dado que
x k rkj ˇ ˇ
lı́m hrkj “ lı́m r j “ x lı́m “ 0 si y solo si ˇr j ˇ ď 1,
hÑ0 kÑ8 k kÑ8 k
82 Métodos de paso múltiple

es claro que el método no será convergente si alguna de las raı́ces z1 tiene módu-
lo mayor que uno. Si se considera el caso en el que las raı́ces del polinomio ρ pzq
tienen multiplicidad m ą 1 de manera similar al caso anterior, se concluye del
Apéndice A.2, la solución de (4.31) tiene la forma
yk “ d1,1 ` d1,2 k ` ¨ ¨ ¨ ` d1,m1 kpk ´ 1qpk ´ 2q ¨ ¨ ¨ pk ´ m1 ` 2q hr1k `
“ ‰

` d2,1 ` d2,2 k ` ¨ ¨ ¨ ` d2,m2 kpk ´ 1qpk ´ 2q ¨ ¨ ¨ pk ´ m2 ` 2q hr2k `


“ ‰
..
.
” ı
` d j,1 ` d j,2 k ` ¨ ¨ ¨ ` d j,m j kpk ´ 1qpk ´ 2q ¨ ¨ ¨ pk ´ m j ` 2q hrkj ,
řj
donde x“1 xx “N y
x
lı́m hk j rkj “ lı́m k j rkj “ x lı́m k j´1 rkj . (4.32)
hÑ0 kÑ8 k kÑ8
El método
ˇ ˇ será convergente si y solo si el lı́mite (4.32) es cero, esto ocurre
cuando ˇr j ˇ ă 1.

El ejemplo anterior motiva la siguiente definición de estabilidad.


Definición 4.7. Se dice que el MPML (4.1) es estable si ninguna raı́z del
primer polinomio caracterı́stico
N
ÿ
ρ pzq “ α jz j,
j“0

tiene módulo mayor que 1 y toda raı́z con módulo 1 tiene multiplicidad 1.
La Definición 4.7 usualmente se conoce como condición de la raı́z y ofrece
una técnica sencilla para verificar la estabilidad de un MPML.
Observación 4.2. El Teorema 4.1 establece que para que un MPML sea con-
sistente, se debe cumplir que el primer polinomio caracterı́stico del método,
ρ pzq, siempre tiene que tener la raı́z z “ 1. Esta raı́z se denomina raı́z principal
y será de suma importancia en el estudio de la estabilidad absoluta para MPML,
en adelante esta raı́z será denotada por z1 .
Observación 4.3. Si se considera un MPU consistente, se tiene que el po-
linomio caracterı́stico para este método es de grado 1 y la única raı́z de este
polinomio es z “ 1. Por lo tanto, por la Definición 4.7 de estabilidad, si un MPU
es consistente entonces es estable. Es decir que para verificar que un MPU es
estable basta verificar que el método sea consistente.
Teorema 4.2. La consistencia y estabilidad del MPML (4.1) son condiciones
necesarias y suficientes para que el método sea convergente.
La demostración del Teorema 4.2 puede ser consultada en [9].
Métodos de paso múltiple 83

4.6 Estabilidad absoluta

La estabilidad absoluta de los MPML al igual que en el caso de MPU tiene que
ver con el problema de elegir un tamaño de paso adecuado. Aunque la teorı́a
asegura buenos resultados para tamaños de paso que sean próximos a cero, en
la práctica tomar tamaños de paso pequeños genera errores de redondeo. Por
lo tanto, en este capı́tulo se presentan algunas técnicas que permiten calcular
tamaños de paso para MPML que aseguren buenas aproximaciones numéricas.
Análogo al estudio de estabilidad para los MPU en (3.31), la estabilidad abso-
luta para los MPML se estudia en un problema de Cauchy escalar de la forma

y1 pxq “ λ ypxq. (4.33)

Aplicando un MPML como (4.1) al problema (4.33), se tiene


N
ÿ N
ÿ
α j yk` j “ λ h β j yk` j ,
j “0 j “0

es decir
N
ÿ N
ÿ
α j yk` j ´ λ h β j yk` j “ 0. (4.34)
j“0 j“0

Por otro lado calculando el error local de discretización, se tiene


řN N
j“0 α j ypxk ` jhq
ÿ
τk “ ´λ β j λ yk ` j . (4.35)
h j “0

Si se multiplica (4.35) por h y a este resultado se le suma la expresión (4.34),


se tiene,
N
ÿ N
ÿ N
ÿ N
ÿ
hτk “ α j ypxk ` jhq ´ λ h β j yk` j ´ α j yk` j ` λ h β j yk` j
j“0 j “0 j “0 j “0
» fi » fi
N
ÿ N
ÿ N
ÿ N
ÿ
“– α j ypxk ` jhq ´ α j yk` j fl ´ λ h – β j yk` j ´ β j yk` j fl
j“0 j “0 j “0 j “0
N
ÿ N
ÿ
“ α j pypxk ` jhq ´ yk` j q ´ λ h β j pypxk ` jhq ´ yk` j q
j “0 j“0
ÿ N
“ pα j ´ λ hβ j qpypxk ` jhq ´ yk` j q.
j “0
84 Métodos de paso múltiple

Si se toma h “ λ h y se supone que hτk “ ψ es constante, entonces se tiene la


ecuación de diferencias
ÿN
pα j ´ hβ j qek` j “ ψ. (4.36)
j “0

Por el Apéndice A.2, la solución general de (4.36) es una sucesión ten u, donde
cada término es de la forma
ÿN
ek “ Arki ` ψ,
i“0
řN
donde zi es una raı́z del polinomio j“0 pα j ´ hβ j qz j para i “ 0, 1, . . . , N. Note
que las raı́ces zi ‰ 1, ya que si zi “ 1 se tiene que
N
ÿ
pα j ´ hβ j q “ 0,
j“0

lo que implica que


N
ÿ N
ÿ
αj “ h β j. (4.37)
j “0 j “0
Para
řN que el MPML que se aplicó sea convergente se debe de cumplir que
j“0 α j “ 0, por tanto de la ecuación (4.37) se tiene que
N
ÿ N
ÿ
βj “ 0 “ jα j ,
j “0 j “0

por lo tanto si zi “ 1, el método no serı́a convergente.


Nuevamente del Apéndice A.2 se tiene que una solución particular de la ecua-
ción de diferencias (4.36) es
φ
ψ “ řN .
j“0 p α j ´ hβ j q
Pero
N
ÿ
α j “ 0,
j “0
por tanto
φ
Ψ “ ´ řN .
h j“0 β j
Ası́, la solución general de (4.36) es
N
ÿ φ
ek “ Arki ´ řN . (4.38)
i“0 h β
j“0 j
Métodos de paso múltiple 85

Esta expresión permite conocer el comportamiento del error. Se observa que


el error depende significativamente del primer sumando, de manera que si una
raı́z tiene módulo mayor que 1, el error crece si N crece.

Definición 4.8. Se denomina polinomio de estabilidad absoluta del MPML


al polinomio

N
ÿ
π pz, hq “ ρ pzq ´ hσ pzq “ pα j ´ hβ j qz j “ 0, (4.39)
j “0

donde h “ λ h.

Definición 4.9. Se dice que el MPML es absolutamente estable para un valor


de h “ λ h dado, si para este h todas las raı́ces zi del polinomio de estabilidad
absoluta (4.39) satisfacen que
|zi | ă 1, para i “ 1, 2, . . . , N.
El conjunto
(
Ω “ h P C{ |zi | ă 1 para toda raı́z zi de π pz, hq ,
se conoce como región de estabilidad absoluta y la intersección de esta región
con el eje real se conoce como intervalo de estabilidad absoluta.
Por ejemplo, para el método de Adams Bashforth de 2 pasos (4.21) el polinomio
de estabilidad absoluta es
˜ ¸
3h h
π pz, hq “ z2 ´ 1 ` z` . (4.40)
2 2

En la Figura 4.1 se muestra la región de estabilidad para el método de Adams


Bashforth de 2 pasos, la cual fue diseñada usando Matlab. Inicialmente se cal-
cularon las raı́ces del polinomio (4.40) para un conjunto de valores de h en las
vecindades del origen del plano complejo, luego para estas raı́ces se presentó
gráficamente las que cumplieron con la condición |zi | ă 1.
86 Métodos de paso múltiple

0,8i

0,6i

0,4i

0,2i

−0,2i

−0,4i

−0,6i

−0,8i

−i
−1 −0.8 −0.6 −0.4 −0.2 0

Figura 4.1: Región de estabilidad absoluta AB2.

4.7 Problemas propuestos

Para complementar un entendimiento general a los métodos de paso múltiple,


se recomienda al lector la investigación de otros métodos que se encajan en
esta categorı́a. Entre ellos se encuentran por ejemplo la familia de métodos
implı́citos BDF, Backward differentiation formula, como los presentados en
[3]. Analizar la estabilidad para algunos de los métodos BDF en EDO. Con
el fin de verificar los conceptos de este capı́tulo se proponen los siguientes
problemas.

4.7.1 Problemas de práctica

Problema 4.1. Siguiendo lo solicitado en el Problema 3.1, realizar una tabla


donde para h “ 0.1 en cada paso de tiempo se determine el error local de dis-
cretización y el error global de discretización en la aproximación de cada pro-
blema de Cauchy propuesto con el método del punto medio en (4.5). Analizar
los resultados y concluir sobre la convergencia en cada uno de los problemas
aproximados.
Problema 4.2. Verificar la regla de Simpson en (4.17) para integración
numérica.
Métodos de paso múltiple 87

Problema 4.3. Usando la regla del trapecio en (4.16), deducir el método AB3
en (4.24).
Problema 4.4. Analizar la consistencia de los métodos AB2 y AM2, respec-
tivamente en (4.21) y (4.23).
Problema 4.5. Realizar lo propuesto en el Problema 3.1 aplicando el método
de AB2.

4.7.2 Proyecto intermedio MPML


Un proyecto interesante para los MPML es realizar la implementación de los
métodos de Adams Bashforth de 2 pasos. Además, aunque es un método implı́ci-
to, desarrollar el algoritmo para Adams Moulton de 2 pasos. Para solucionar
ecuaciones no lineales aplique el método de Newton, ver [32]. Comparar los
resultados numéricos con un método predictor-corrector, observando los tiem-
pos computacionales. Intente concluir sobre la eficacia del método implı́cito
al compararla contra el método predictor-corrector que transforma el método
en explı́cito y evita la necesidad de solución numérica. Aplicar lo desarrollado
al modelo de marca pasos presentado en el Proyecto inicial 2.4.2. Por último,
investigar las ventajas y desventajas entre los resultados del Proyecto interme-
dio MPU 3.6.2 y los que se obtienen con la realización de esta nueva actividad.
III
Simulación numérica

5 Validación de implementaciones . . . . . . . . . . . . . . . 91
5.1 Problemas para estudio numérico
5.2 Métodos de paso único
5.3 Métodos de paso múltiple
5.4 Problemas propuestos

6 Resultados numéricos . . . . . . . . . . . . . . . . . . . . . . . . . . 113


6.1 Adaptatividad y estimación para el error
6.2 Aplicación VIH/SIDA
6.3 Proyecto avanzado de aplicación
5. Validación de implementaciones

En este apartado se realizan diferentes simulaciones numéricas con el objetivo


de verificar los resultados teóricos presentados en los capı́tulos anteriores res-
pecto a consistencia, estabilidad y convergencia de los métodos estudiados al
compararse con EDO a las que se les conoce la solución exacta.

5.1 Problemas para estudio numérico

Algunos de los problemas con los que se han realizado las pruebas numéricas
son para EDO reales e imaginarias y otros para SEDOP, esto con el fin de
verificar las propiedades teóricas de los métodos en cada caso. A continuación
se presentan los problemas que se usarán para verificar las implementaciones
realizadas en Matlab, ver [17].
Problema 5.1. #
y1 pxq “ ´ypxq ` 2 cospxq,
yp0q “ 1, x P r0, 1s .

Con solución exacta ypxq “ senpxq ` cospxq y yp1q “ 1.3818.


Problema 5.2. #
y1 pxq “ cospxqypxq,
yp0q “ 1, x P r0, 20s .

Con solución exacta ypxq “ esenpxq y yp20q “ 2.4916.


Problema 5.3. #
y1 pxq “ ´15ypxq,
yp0q “ 1, x P r0, 20s .

Con solución exacta ypxq “ e´15x y yp20q “ 5.1482 ˆ 10´131 .


92 Validación de implementaciones

Problema 5.4. #
y1 pxq “ ypxq2 ` 1,
yp0q “ 0, x P r0, 1.2s .
Con solución exacta ypxq “ tanpxq y yp1.2q “ 2.5721.
Problema 5.5. #
y1 pxq “ p´1 ` 2iqypxq,
yp0q “ 1, x P r0, 20s .
Con solución exacta ypxq “ ep´1`2iqx y yp20q “ ´1.3746 ˆ 10´9 ` 1.5357 ˆ
10´9 i.
Problema 5.6.
$
1
&u pxq “ upxq ´ 2vpxq ` 4 cospxq ´ 2 senpxq

v1 pxq “ 3upxq ´ 4vpxq ` 5 cospxq ´ 5 senpxq,

%up0q “ 1, vp0q “ 2, x P r0, 1s.

Con solución exacta upxq “ senpxq ` cospxq, vpxq “ 2 cospxq y up1q “ 1.3818,
vp1q “ 1.0806.
Problema 5.7. $
1
&u pxq “ ´2upxq ` vpxq

v1 pxq “ upxq ´ 2vpxq,

%up0q “ 0, vp0q “ 2, x P r0, 20s.

Con solución exacta upxq “ e´x ´ e´3x , vpxq “ e´x ` e´3x y up20q “ 2.0611 ˆ
10´9 , vp20q “ 2.0611 ˆ 10´9 .
En las pruebas numéricas se calculará el error global de discretización, el cual
en el caso escalar es ek “ |ypxk q ´ yk |, es decir la diferencia entre la solución
exacta y la solución aproximada. En el caso vectorial el error global es
ek “ }ypxk q ´ yk }8 , donde se considera la norma infinito (2.36). Para calcular el
orden de convergencia p se usa la expresión
˜ ¸
epk,hq
p “ log2 ,
epk,h{2q
donde epk,hq denota el error global en xk obtenido con tamaño de paso h.

5.2 Métodos de paso único

Cada uno de los problemas 5.1 - 5.5, fueron seleccionadas con la idea de explo-
rar ciertas propiedades como son el comportamiento de la solución numérica
en EDO lineales, no-lineales, reales y complejas. Por otro lado, a fin de tener
soluciones exactas en el caso de SEDOP se tienen los problemas 5.6 y 5.7,
Validación de implementaciones 93

ambos son lineales con coeficientes constantes pero se diferencian en que el


primero es no homogéneo y el segundo es homogéneo según como se definió
en la Sección 2.2. Las aproximaciones en un SEDOP no lineal, en el que no se
tiene una solución analı́tica, se presentarán en la Sección 6.2 con la aplicación
de un modelo para el VIH-SIDA.

Se han implementado los métodos de Euler, Taylor 2, RK22, RK33, RK44 y


RK56. El cálculo de derivadas parciales, necesarias en los métodos de Taylor,
se realizaron analı́ticamente con el fin de centrarnos en los errores numéricos y
propiedades especı́ficas del método y no de la aproximación de estas derivadas.

En el transcurso de esta sección se presentarán diferentes simulaciones numéri-


cas con las implementaciones realizadas, a fin de analizar ventajas y desventajas
de usar un determinado método.

La primera de las propiedades que se verificará es la convergencia y el orden


que ella tiene en cada uno de los métodos según lo presentado en la
Sección 3.2.

5.2.1 Convergencia

Los métodos numéricos implementados son convergentes; por lo tanto, las


implementaciones deben cumplir que a medida que se elijan tamaños de pa-
so cada vez más pequeños, el error global tome valores cada vez más pequeños.
Además de verificar que el error está disminuyendo es importante verificar si
está disminuyendo con el orden esperado para cada método.

Las tablas 5.1, 5.2 y 5.3 corresponden a los errores y ordenes estimados en la so-
lución de los problemas 5.1, 5.2 y 5.6, respectivamente, mediante la aplicación
de algunos MPU. En los tres problemas se determinó una solución numérica
para cada uno de los métodos considerados usando un tamaño de paso inicial
de h “ 2´1 y posteriormente para encontrar una nueva aproximación se redujo
este tamaño de paso a la mitad. En estas tablas se puede observar que el error
está bajando con el orden esperado para cada método.

Adicionalmente, de los resultados en las tablas 5.1, 5.2 y 5.3, también se con-
cluye que el método RK56 genera los resultados más precisos. Sin embargo,
los errores para h “ 2´5 se encuentran cerca a la precisión de maquina en cada
aproximación y por tal motivo, para este método no es conveniente usar valores
de tamaños de paso muy pequeños. En contraste, el método de Euler es el de
menor precisión e incluso, se debe continuar reduciendo el valor del tamaño
de paso para que el error sea adecuado. Esto también puede generar problemas
numéricos.
94 Validación de implementaciones

Método h Error ek Orden Método h Error ek Orden


2´1 2.45809 ˆ 10´1 2´1 5.41752 ˆ 10´3
2´2 1.13014 ˆ 10´1 1.12102 2´2 6.13386 ˆ 10´4 3.14276
Euler 2´3 5.44431 ˆ 10´2 1.05369 RK33 2´3 7.25708 ˆ 10´5 3.07933
2´4 2.67465 ˆ 10´2 1.02539 2´4 8.81497 ˆ 10´6 3.04136
2´5 1.32591 ˆ 10´2 1.01236 2´5 1.08590 ˆ 10´6 3.02106
2´1 1.59322 ˆ 10´2 2´1 6.24409 ˆ 10´4
2´2 2.71879 ˆ 10´3 2.55090 2´2 3.47545 ˆ 10´5 4.16722
Taylor 2 2´3 5.54569 ˆ 10´4 2.29353 RK44 2´3 2.04165 ˆ 10´6 4.08938
2´4 1.24872 ˆ 10´4 2.15091 2´4 1.23608 ˆ 10´7 4.04589
2´5 2.96060 ˆ 10´5 2.07649 2´5 7.60216 ˆ 10´9 4.02322
2´1 7.11069 ˆ 10´2 2´1 1.26283 ˆ 10´5
2´2 1.58148 ˆ 10´2 2.16870 2´2 3.82736 ˆ 10´7 5.04417
RK22 2´3 3.72500 ˆ 10´3 2.08596 RK56 2´3 1.16370 ˆ 10´8 5.03955
2´4 9.04064 ˆ 10´4 2.04274 2´4 3.57799 ˆ 10´10 5.02342
2´5 2.22710 ˆ 10´4 2.02125 2´5 1.10846 ˆ 10´11 5.01254

Tabla 5.1: Convergencia MPU, Problema 5.1.

Método h Error ek Orden Método h Error ek Orden


2´1 2.31889 2´1 4.15463 ˆ 10´2
2´2 1.76439 0.39426 2´2 3.84758 ˆ 10´3 3.43269
Euler 2´3 1.12976 0.64316 RK33 2´3 4.43460 ˆ 10´4 3.11707
2´4 6.46712 ˆ 10´1 0.80481 2´4 5.45722 ˆ 10´5 3.02256
2´5 3.47126 ˆ 10´1 0.89766 2´5 6.81450 ˆ 10´6 3.00148
2´1 3.49363 ˆ 10´2 2´1 2.19803 ˆ 10´3
2´2 1.92863 ˆ 10´2 0.85714 2´2 8.34044 ˆ 10´5 4.71994
Taylor 2 2´3 7.37975 ˆ 10´3 1.38593 RK44 2´3 3.82879 ˆ 10´6 4.44516
2´4 2.14251 ˆ 10´3 1.78427 2´4 1.97936 ˆ 10´7 4.27378
2´5 5.72599 ˆ 10´4 1.90370 2´5 1.10839 ˆ 10´8 4.15848
2´1 2.22447 ˆ 10´1 2´1 1.05354 ˆ 10´3
2´2 4.00038 ˆ 10´2 2.47525 2´2 3.37597 ˆ 10´5 4.96380
RK22 2´3 8.55285 ˆ 10´3 2.22566 RK56 2´3 1.06307 ˆ 10´6 4.98898
2´4 1.97299 ˆ 10´3 2.11601 2´4 3.33351 ˆ 10´8 4.99505
2´5 4.72907 ˆ 10´4 2.06075 2´5 1.04345 ˆ 10´9 4.99760

Tabla 5.2: Convergencia MPU, Problema 5.2.


Validación de implementaciones 95

Método h Error ek Orden Método h Error ek Orden


2´1 2.18818 ˆ 10´1 2´1 1.94718 ˆ 10´2
2´2 1.20406 ˆ 10´1 0.86181 2´2 1.52701 ˆ 10´3 3.67260
Euler 2´3 6.05322 ˆ 10´2 0.99213 RK33 2´3 1.47435 ˆ 10´4 3.37256
2´4 3.02705 ˆ 10´2 0.99979 2´4 1.61565 ˆ 10´5 3.18988
2´5 1.51303 ˆ 10´2 1.00046 2´5 1.89099 ˆ 10´6 3.09490
2´1 2.17215 ˆ 10´2 2´1 2.99866 ˆ 10´3
2´2 6.56278 ˆ 10´3 1.72674 2´2 7.68028 ˆ 10´5 5.28701
Taylor 2 2´3 1.73316 ˆ 10´3 1.92090 RK44 2´3 2.59629 ˆ 10´6 4.88663
2´4 4.40489 ˆ 10´4 1.97622 2´4 1.23637 ˆ 10´7 4.39226
2´5 1.10771 ˆ 10´4 1.99152 2´5 6.76312 ˆ 10´9 4.19228
2´1 1.18706 ˆ 10´1 2´1 3.30900 ˆ 10´4
2´2 1.97107 ˆ 10´2 2.59034 2´2 5.78134 ˆ 10´6 5.83884
RK22 2´3 4.32157 ˆ 10´3 2.18935 RK56 2´3 1.27089 ˆ 10´7 5.50749
2´4 1.03594 ˆ 10´3 2.06061 2´4 3.26119 ˆ 10´9 5.28429
2´5 2.54185 ˆ 10´4 2.02699 2´5 9.17443 ˆ 10´11 5.15163

Tabla 5.3: Convergencia MPU, Problema 5.6.

Si se consideran tamaños de paso demasiado pequeños pueden generarse gran-


des errores de redondeo que afectan a la solución numérica. La Figura 5.1 in-
cluye el comportamiento del error absoluto al comparar la solución numérica
y la exacta del Problema 5.1, para los diferentes métodos. A diferencia de la
Tabla 5.1 en la que el tamaño de paso se reduce de 2´1 a 2´6 , en esta figura el
tamaño de paso se reduce desde 2´1 hasta 2´13 .
Error Euler Error Taylor 2 Error RK22 Error RK33 Error RK44 Error RK56

−2

−4

−6
Log(EG)

−8

−10

−12

−14

−16
−4 −3.5 −3 −2.5 −2 −1.5 −1 −0.5 0
Log(h)

Figura 5.1: Convergencia MPU, Problema 5.1.

Se resalta que el método de Euler tuvo una reducción del error desde un orden
de 10´1 hasta 10´4 , lo cual es una variación pobre al compararla con la de los
96 Validación de implementaciones

otros métodos de orden superior para los que el error llega a reducirse entre
una precisión de 10´8 y 10´5 . Además, se puede concluir que efectivamente
los métodos de Taylor 2 y RK22 tienen el mismo orden, dado que las rectas
azul y verde respectivamente relacionadas con los resultados de estos métodos,
son paralelas. Incluso al comparar estos dos métodos, Taylor 2 produce un error
menor que RK22, esto se debe a que el cálculo en las derivadas parciales para el
método de Taylor 2 se realizó de forma analı́tica. En la Figura 5.1, debido a las
escalas logarı́tmicas en ambos ejes, también es posible relacionar la pendiente
de las rectas con el orden de convergencia, entre mayor inclinación mayor es el
orden del método.
De la Figura 5.1, también se observa que para el método RK56 no es reco-
mendable usar un tamaño de paso tan pequeño, ya que para tamaños de paso
menores que h “ 2´8 la precisión finita del computador hace que se produzcan
errores de redondeo que afectan significativamente al error global de discretiza-
ción. De manera similar para el método RK44 no se producen buenos resultados
para tamaños de paso menores que 2´11 . Los valores de aproximaciones obte-
nidas con estos dos métodos, luego de pasar el cero computacional de 10´16 ya
no son confiables y deben ser descartados.
En las implementaciones de los métodos la elección de tamaños de paso dema-
siado pequeños no siempre produce buenos resultados, por tal motivo se evi-
dencia en la práctica la importancia que tiene el estudio de estabilidad absoluta
para los MPU.

5.2.2 Estabilidad absoluta


Con el fin de evaluar la región de estabilidad absoluta para el método de Euler
en problemas que involucren parámetros complejos, siguiendo los conceptos
presentados en la Sección 3.5, se considera el Problema 5.5. Dado que para este
estudio se toma como modelo la EDO (3.31), se concluye que para el Problema
5.5 se tiene λ “ ´1 ` 2i y por lo tanto λ h “ ´h ` 2hi. Para que λ h esté dentro
de la región de estabilidad absoluta del método de Euler, que es el interior de un
circulo de centro en p´1, 0q en el plano complejo (3.33), se debe cumplir que
rp´hq ´ p´1qs2 ` p2hq2 ă 1,
es decir que hp5h ´ 2q ă 0. Por lo tanto, para asegurar la estabilidad absoluta
al aplicar el método de Euler para aproximar la solución de este problema, se
debe elegir h P p0, 0.4q.
En la Figura 5.2 se presenta el error obtenido para dos valores de h, uno dentro
del intervalo p0, 0.4q y otro fuera de este intervalo. Se observa que para h fuera
del intervalo, el cual tiene el error de color azul, se obtienen grandes errores,
en este caso para x “ 20 el error fue de 53.41, mientras que para h dentro del
intervalo se observa que el error disminuye considerablemente, en x “ 20 el
Validación de implementaciones 97

error fue 0.67. Con esta simulación, se verifica numéricamente que para obtener
buenas aproximaciones numéricas se deben tomar tamaños de paso dentro de
la región de estabilidad.

h=0.392 h=0.488
60

50

40
Error

30

20

10

0
0 2 4 6 8 10 12 14 16 18 20
x

Figura 5.2: Estabilidad absoluta Euler, Problema 5.5.

Para los problemas 5.3 y 5.7 se realizarán diferentes simulaciones numéricas


con los métodos de Euler y RK33, para tamaños de paso dentro y fuera de las
regiones de estabilidad absoluta, presentadas en la Tabla 3.1 y en la Figura 3.1
del Capı́tulo 3.
En el Problema 5.3 se tiene que λ “ ´15; por lo tanto, los intervalos de
estabilidad absoluta para los métodos de Euler y RK33 en este problema son
respectivamente:

´2 ă ´15h ă 0 ñ 0 ă h ă 0.1334.
´2.51 ă ´15h ă 0 ñ 0 ă h ă 0.1673.

En la Figura 5.3 se presenta en color rojo la solución exacta del Problema 5.3,
junto con dos soluciones numéricas, de color azul, obtenidas de aplicar el méto-
do de Euler con tamaños de paso h1E “ 0.1428 y h2E “ 0.1307, que están fuera
y dentro del intervalo de estabilidad absoluta, respectivamente. Se verifica que
para h1E los resultados numéricos son inaceptables ya que la diferencia máxima
entre la solución numérica y la solución exacta es del orden de 108 . Mientras
que para h2E , aunque al inicio hay oscilaciones se tiene que la diferencia máxi-
ma entre la solución numérica es de 1 unidad y esta diferencia disminuye con-
forme avanza el proceso de integración. A pesar de que h2E se encuentra dentro
del intervalo de estabilidad, es muy cercano al valor extremo de este intervalo
lo que justifica la inestabilidad inicial presente en la Figura 5.3 (b).
98 Validación de implementaciones

8
x 10
1.5

0.5

0
y

−0.5

−1

−1.5
0 5 10 15 20
x
(a) Euler, h1E “ 0.1428.

0.5

0
y

−0.5

−1
0 5 10 15 20
x
(b) Euler, h2E “ 0.1307.

Figura 5.3: Estabilidad absoluta método de Euler con h crı́tico, Problema 5.3.

Para mejorar los resultados obtenidos usando h2E , la Figura 5.4 muestra los re-
sultados de aplicar el método de Euler con tamaños de paso h3E y h4E , los cuales
están dentro del intervalo de estabilidad absoluta y son de menor magnitud que
h2E . En esta figura, se hace un acercamiento en la región que se presenta la di-
ferencia máxima entre la solución exacta y la solución numérica. Se concluye
que para h4E “ 0.0667, el cual se encuentra en la mitad del intervalo p0, 0.1334q,
la aproximación se acerca en forma más suave a la solución exacta, como se
observa en la Figura 5.4 (b). Aunque h3E “ 0.1000 también aproxima con
buena precisión la solución, por lo obtenido en la Figura 5.4 (a), se observa
que al ser un valor de paso más cercano al extremo derecho del intervalo de
estabilidad para x pequeño la convergencia se da de forma oscilante.
Validación de implementaciones 99

0.5

y
0

−0.5

0 5 10 15 20
x

(a) Euler, h3E “ 0.1000.

0.6
0.4
0.2
0
y

−0.2
−0.4
−0.6
0 0.5 1 1.5 2
x

(b) Zoom de (a).

0.5
y

−0.5
0 5 10 15 20
x

(c) Euler, h4E “ 0.0667.

0.8

0.6

0.4
y

0.2

−0.2
0 0.5 1 1.5 2
x

(d) Zoom de (c).

Figura 5.4: Estabilidad absoluta método de Euler, h en región de estabilidad.


100 Validación de implementaciones

En el caso de la estabilidad absoluta para el método RK33, en la Figura 5.5 se


presenta en color rojo la solución exacta del Problema 5.3 junto con dos solu-
ciones numéricas en azul con tamaños de paso h1RK33 “ 0.1709 y
h2RK33 “ 0.1667, que están fuera y dentro del intervalo de estabilidad absolu-
ta respectivamente. Al igual que lo sucedido con el método de Euler, se observa
que para el tamaño de paso fuera del intervalo de estabilidad absoluta la dife-
rencia entre la solución numérica y la solución exacta es muy grande, mientras
que para un tamaño de paso ligeramente dentro del intervalo de estabilidad, en
inicio se presentan grandes oscilaciones que disminuyen su magnitud conforme
avanza el proceso de integración.
4
2x 10

0
y

−1

−2
0 5 10 15 20
x
(a) RK33, h1RK33 “ 0.1709.

1
0.8 Solución numérica Runge Kutta 3
Solución exacta
0.6
0.4
0.2
0
−0.2
−0.4
−0.6
−0.8
−1
0 2 4 6 8 10 12 14 16 18 20

(b) RK33, h2RK33 “ 0.1667.

Figura 5.5: Estabilidad absoluta método RK33, valores de h crı́ticos, Problema 5.3.

En la Figura 5.6 (a) y (c) se presentan mejores aproximaciones obtenidas de


aplicar el método RK33 respectivamente, con tamaños de paso h3RK33 “ 0.1250
y h4RK33 “ 0.1000 que están dentro del intervalo de estabilidad absoluta y no son
tan cercanos a los extremos del intervalo. En esta figura se hace un acercamiento
de la región en la que se presenta la diferencia máxima entre la solución exacta
y la solución numérica.
Validación de implementaciones 101

1
0.8
0.6
0.4

y
0.2
0
−0.2
−0.4
0 5 10 15 20
x

(a) RK33, h3RK33 “ 0.1250.

0.5
0.4
0.3
0.2
y

0.1
0
−0.1
−0.2
0 0.5 1 1.5 2
x

(b) Zoom de (a).

0.8

0.6

0.4
y

0.2

−0.2
0 5 10 15 20
x

(c) RK33, h4RK33 “ 0.1000.

0.4

0.3

0.2
y

0.1

−0.1
0 0.5 1 1.5 2
x

(d) Zoom de (c).

Figura 5.6: Estabilidad absoluta método RK33, h en la región de estabilidad.


102 Validación de implementaciones

Las simulaciones numéricas realizadas al Problema 5.3 mediante los métodos


de Euler y RK33 evidencian numéricamente la importancia del estudio de es-
tabilidad absoluta para los MPU, ya que a pesar de que los métodos implemen-
tados cumplen las propiedades teóricas de consistencia, convergencia y estabi-
lidad, es indispensable elegir un tamaño de paso adecuado para obtener buenos
resultados.
En el caso de sistemas EDO, teóricamente el intervalo de estabilidad absolu-
ta está influenciado por uno de los valores propios del sistema, para verificar
numéricamente este hecho se considera el Problema 5.7 que es un sistema de
primer orden con dos EDO.
Según los valores propios del Problema 5.7, λ1 “ ´1 y λ2 “ ´3, los intervalos
de estabilidad absoluta para los métodos de Euler y RK33 en este problema son
respectivamente:

´2 ă λ1 h ă 0 ñ ´2 ă ´h ă 0 ñ 0 ă h ă 2,
´2 ă λ2 h ă 0 ñ ´2 ă ´3h ă 0 ñ 0 ă h ă 0.6667.

´2.51 ă λ1 h ă 0 ñ ´2.51 ă ´h ă 0 ñ 0 ă h ă 2.51,


´2.51 ă λ2 h ă 0 ñ ´2.51 ă ´3h ă 0 ñ 0 ă h ă 0.8366.

Las figuras 5.7 y 5.8 incluyen las soluciones exactas del sistema del Proble-
ma 5.7 en rojo. En las figuras 5.7 y 5.8 también se presentan las soluciones
numéricas para cada una de componentes vectoriales (u-azul, v-verde) obteni-
das de aplicar los métodos de Euler y RK33, respectivamente. En estas figuras
se han utilizado diferentes tamaños de paso, dentro y fuera de los intervalos de
estabilidad absoluta para las aproximaciones numéricas.
Estas simulaciones numéricas permiten observar que tanto para el método de
Euler como para RK33 el valor propio λ “ ´3 es el que determina el intervalo
de estabilidad absoluta para el Problema 5.7. Esto era de esperarse ya que al
observar, por ejemplo para el método de Euler, el tamaño de paso debı́a cumplir
dos condiciones:
0 ă h ă 2 y 0 ă h ă 0.6667,
donde la condición con mayor restricción era la asociada con el valor propio
λ “ ´3. Es decir que para garantizar la estabilidad absoluta para los métodos
de Euler y RK33, respectivamente el tamaño de paso debe pertenecer a los
intervalos p0, 0.6667q y p0, 0.8366q.
Validación de implementaciones 103

4 4
2x 10 1.5x 10
1.5 1
1 0.5
0.5 0
u

v
0 −0.5
−0.5 −1
−1 −1.5
−1.5 −2
0 5 10 15 20 0 5 10 15 20
x x

(a) u-Euler, h1 “ 0.8334. (b) v-Euler, h1 “ 0.8334.


2 1.5

1.5 1
1
0.5
0.5
u

0
0

−0.5 −0.5

−1 −1
0 5 10 15 20 0 5 10 15 20
x x

(c) u-Euler, h2 “ 0.6452. (d) v-Euler, h2 “ 0.6452.


2 0.5

0.4
1.5

0.3
1
u

0.2

0.5
0.1

0 0
0 5 10 15 20 0 5 10 15 20
x x

(e) u-Euler, h4 “ 0.1000. (f) v-Euler, h4 “ 0.1000.

Figura 5.7: Estabilidad absoluta método de Euler, Problema 5.7.


104 Validación de implementaciones

8 8
3x 10 1x 10

2 0

1 −1
u

v
0 −2

−1 −3
0 5 10 15 20 0 5 10 15 20
x x

(a) u-RK33, h1 “ 1, 1112. (b) v-RK33, h1 “ 1, 1112.


2 1.5

1.5
1

1
0.5
u

0.5

0
0

−0.5 −0.5
0 5 10 15 20 0 5 10 15 20
x x

(c) u-RK33, h2 “ 0.8000. (d) v-RK33, h2 “ 0.8000.


2 0.4
1.8
1.6
0.3
1.4
1.2
1 0.2
u

0.8
0.6
0.1
0.4
0.2
0 0
0 2 4 6 8 10 12 14 16 18 20 0 5 10 15 20
x x

(e) u-RK33, h4 “ 0.2000. (f) v-RK33, h4 “ 0.2000.

Figura 5.8: Estabilidad absoluta método RK33, Problema 5.7.


Validación de implementaciones 105

Dado que los intervalos de estabilidad absoluta son mayores para los métodos
implı́citos que para los explı́citos, es interesante estudiar este comportamiento
y ası́ se incluye la simulación numérica de un método implı́cito, se recomienda
ver [9] y [21].
Aplicando el método de Euler implı́cito (2.39) al Problema 5.3 se tiene que
yk`1 “ yk ´ 15hyk`1 .
Luego despejando yk`1 , se obtiene la expresión
yk
yk`1 “ ,
1 ` 15h
que es una fórmula explı́cita para aproximar el Problema 5.3.
En la Figura 5.9 se observa que para los valores de h1E “ 0.1428 y h2E “ 0.1307,
que están fuera y dentro de las regiones de estabilidad del método de Euler en el
mismo problema, el método de Euler implı́cito ofrece buenos resultados. Esto
se debe a que las regiones de estabilidad absoluta para los métodos implı́citos es
mayor que en los métodos explı́citos. Sin embargo, en la práctica los métodos
implı́citos no son de uso común porque no siempre se puede despejar el valor de
yk`1 , por lo cual para obtener un valor de yk`1 de una ecuación implı́cita se debe
usar métodos numéricos para resolver ecuaciones como el método de Newton,
ver [32]. Esto puede aportar errores numéricos y una dificultad adicional en la
solución de los SEDOP.
Solución numérica Euler implícito Solución exacta

0.8

0.6

0.4
y

0.2

−0.2
0 2 4 6 8 10 12 14 16 18 20
x

(a) Euler, h1E “ 0.1428.

Solución numérica Euler implícito Solución exacta

0.8

0.6

0.4
y

0.2

−0.2
0 2 4 6 8 10 12 14 16 18 20
x

(b) Euler, h2E “ 0.1307.

Figura 5.9: Estabilidad absoluta método de Euler implı́cito, Problema 5.3.


106 Validación de implementaciones

Comparando los métodos de Euler y RK33 en cuanto a las simulaciones pre-


sentadas se concluye que es más conveniente usar métodos de alto orden ya
que estos presentan regiones de estabilidad más grandes, es decir que se pue-
de obtener buenos resultados con tamaños de paso mayores, lo cual disminuye
costos computacionales.

5.2.3 Prueba de tiempo


El costo computacional tiene que ver con la cantidad de recursos computacio-
nales que usa un algoritmo para resolver un problema, donde los recursos de
mayor interés son la memoria que emplea el algoritmo y el tiempo que tarda
el algoritmo en ejecutarse. En este texto para comparar el desempeño de los
métodos implementados solo se considera el costo temporal.
Dado que la aproximación numérica de los problemas tratados en este traba-
jo no demandan tiempos considerables, se considera el Problema 5.1 sobre el
intervalo de integración r0, 200s para aumentar el tiempo de cómputo. En la
Figura 5.10 se muestra la relación obtenida entre el tiempo de cómputo (en se-
gundos ) y los diferentes errores producidos en la aproximación a yp200q para el
Problema 5.1, partiendo de un paso de integración inicial h “ 2 y disminuyendo
este valor a la mitad en cada aproximación. En esta figura los errores se tienen
en escala logarı́tmica para centrarnos en el exponente del error y se observa que
para disminuir el error es necesario mayor tiempo de cómputo.

Euler Taylor 2 RK22 RK33 RK44 RK56


2
0
−2
−4
Log(EG)

−6
−8
−10
−12
−14
−16
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5
CPU en segundos

Figura 5.10: Prueba de tiempos MPU, Problema 5.1.

Adicionalmente, se observa de la Figura 5.10 que el método de Euler es el


que toma menor tiempo computacional pero los errores son de baja precisión.
Por otro lado los métodos RK44 y RK56 son los que producen resultados con
mayor precisión, pero demandan mayor tiempo de cómputo.
Validación de implementaciones 107

Comparando los métodos de RK44 y RK56 en la Figura 5.10 se observa que a


pesar de que el método RK56 emplea más tiempo en el cálculo que el método
RK44, este ofrece resultados más precisos, sin embargo la última aproximación
el error global es menor en el método RK44 y esto se debe a que el RK56
alcanzó el orden de máquina y los valores finales dejan de ser confiables.
Finalmente, de la Figura 5.10 se concluye que en la última aproximación que
corresponde al tamaño de paso h “ 0.00024, el método RK44 presenta un error
global de 4.66293 ˆ 10´15 y la aproximación fue obtenida en 2.714 segundos.
Mientras que para el método RK56 el error fue de 9.21485 ˆ 10´15 y la aproxi-
mación fue obtenida en 4.095, por tanto se concluye que para tamaños de paso
pequeños el método RK44 ofrece resultados más precisos que el método RK56
y en menor tiempo.
La diferencia de tiempos de cálculo entre los métodos RK44 y RK56 se justifica
en el hecho de que mientras que en el método de RK44 se realizan 4 evalua-
ciones en la función f por cada paso, en el método RK56 es necesario realizar
6 evaluaciones de la función f , lo que obviamente demanda más tiempo de
cómputo.

5.3 Métodos de paso múltiple

De forma análoga a la sección anterior, en esta sección se muestran algunos


resultados numéricos en base a las propiedades teóricas correspondientes a los
MPML del Capı́tulo 4 de este trabajo.
Se han implementado los métodos de Adams Bashforth de ordenes 2, 3 y 4
(AB2, AB3 y AB4, respectivamente), que corresponden a los métodos (4.21),
(4.24) y (4.25). Las simulaciones numéricas obtenidas de estas implementacio-
nes permiten determinar ventajas y desventajas de usar un determinado método.
Antes de empezar es importante mencionar que en algunos de los resultados
que se presentan a continuación se ha supuesto que todos los valores iniciales
para los métodos de Adams son calculados de forma exacta a no ser que se diga
lo contrario.

5.3.1 Convergencia
Para verificar numéricamente la convergencia se ha considerado los problemas
5.1, 5.2 y 5.6 partiendo de un tamaño de paso inicial h “ 2´3 y reduciendo
este valor a la mitad en cada aproximación. Sobre la aproximación numérica
obtenida para estos problemas, en las tablas 5.4, 5.5 y 5.6, se puede observar que
el error está bajando con el orden esperado para cada método, sin embargo si
se consideran tamaños de paso demasiado pequeños pueden generarse grandes
errores de redondeo que afectan a la solución numérica.
108 Validación de implementaciones

Método h Error ek Orden


2´3 1.19334 ˆ 10´3
2´4 2.91899 ˆ 10´4 2.03146
AB2 2´5 7.17306 ˆ 10´5 2.02481
2´6 1.77467 ˆ 10´5 2.01503
2´7 4.41148 ˆ 10´6 2.00822
2´3 5.17271 ˆ 10´4
2´4 7.13303 ˆ 10´5 2.85833
AB3 2´5 9.28717 ˆ 10´6 2.94120
2´6 1.18274 ˆ 10´6 2.97310
2´7 1.49168 ˆ 10´7 2.98712
2´3 1.42537 ˆ 10´5
2´4 9.44054 ˆ 10´7 3.91632
AB4 2´5 5.88113 ˆ 10´8 4.00470
2´6 3.63915 ˆ 10´9 4.01442
2´7 2.25836 ˆ 10´10 4.01024

Tabla 5.4: Convergencia MPM, Problema 5.1.

Método h Error ek Orden


2´3 1.82998 ˆ 10´2
2´4 5.34438 ˆ 10´3 1.77573
AB2 2´5 1.43079 ˆ 10´3 1.90120
2´6 3.69455 ˆ 10´4 1.953334
2´7 9.38294 ˆ 10´5 1.97729
2´3 8.47887 ˆ 10´3
2´4 1.08230 ˆ 10´3 2.96976
AB3 2´5 1.37559 ˆ 10´4 2.97597
2´6 1.73601 ˆ 10´5 2.98620
2´7 2.18102 ˆ 10´6 2.99270
2´3 1.16350 ˆ 10´3
2´4 5.37009 ˆ 10´5 4.43739
AB4 2´5 2.71931 ˆ 10´6 4.30363
2´6 1.49348 ˆ 10´7 4.18648
2´7 8.67899 ˆ 10´9 4.10501

Tabla 5.5: Convergencia MPML, Problema 5.2.


Validación de implementaciones 109

Método h Error ek Orden


2´3 4.09536 ˆ 10´3
2´4 1.07441 ˆ 10´3 1.93043
AB2 2´5 2.74846 ˆ 10´4 1.96686
2´6 6.94833 ˆ 10´5 1.98388
2´7 1.74666 ˆ 10´5 1.99206
2´3 644371 ˆ 10´4
2´4 8.52866 ˆ 10´5 2.91750
AB3 2´5 1.08846 ˆ 10´5 2.97002
2´6 1.37301 ˆ 10´6 2.98688
2´7 1.72358 ˆ 10´7 2.99386
2´3 3.66991 ˆ 10´5
2´4 3.07576 ˆ 10´6 3.57673
AB4 2´5 2.11800 ˆ 10´7 3.86016
2´6 1.38082 ˆ 10´8 3.93910
2´7 8.80160 ˆ 10´10 3.97162

Tabla 5.6: Convergencia MPML, Problema 5.6.

La Figura 5.11 corresponde a la solución numérica del Problema 5.1 mediante


los métodos de Adams. Aquı́ se observa que el método AB4, a partir de cierto
tamaño de paso el error no decrece linealmente y tiende a aumentar.

Error AB2 Error AB3 Error AB4


−2

−4

−6
Log(EG)

−8

−10

−12

−14

−16−5 −4.5 −4 −3.5 −3 −2.5 −2 −1.5 −1 −0.5


Log(h)

Figura 5.11: Convergencia MPML, Problema 5.1.

5.3.2 Prueba de tiempos


Para realizar una prueba de tiempos a los métodos de paso múltiplo implemen-
tados, se considera el Problema 5.1 sobre el intervalo de integración r0, 200s.
110 Validación de implementaciones

En la Figura 5.12 se muestran los diferentes errores producidos en la aproxima-


ción a yp200q para el Problema 5.1, partiendo de un paso de integración inicial
h “ 2´1 y disminuyendo este valor a la mitad en cada nueva aproximación.

AB2 AB3 AB4


80
70
60
50
Log(EG)

40
30
20
10
0
−10
−200 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8
CPU en segundos

Figura 5.12: Prueba de tiempos MPML, Problema 5.1.

De las implementaciones realizadas, el método AB4 ofrece mejores resultados


y la diferencia de tiempos entre cada uno de los métodos de Adams no es signi-
ficativa, ya que en las implementaciones de los métodos de Adams, a partir de
cierta iteración se utiliza las evaluaciones de f de pasos anteriores, por lo cual
se recomienda hacer únicamente una evaluación de la función f en cada nueva
iteración.

5.3.3 Valores iniciales Adams Bashforth

En las simulaciones anteriores se ha calculado los valores iniciales para los


métodos de Adams usando la solución exacta del problema, en la práctica esto
no es posible. Generalmente se suele usar un MPU para calcular los valores
iniciales de un MPML.
En la Tabla 5.7 se muestra algunos resultados obtenidos aplicando el método
de AB4 al Problema 5.2, donde el cálculo de los valores iniciales se ha reali-
zado mediante los métodos de Euler y RK44. Inicialmente se usó el método de
Euler y RK44 con el mismo tamaño de paso que el método de AB4, h “ 2´3 .
Puede observarse que se obtiene mejores resultados usando el método RK44
en el cálculo de los valores iniciales. A fin de mejorar los resultados de usar el
método de Euler en el cálculo de los valores iniciales se usa un tamaño de paso
de h “ 2´5 .
Validación de implementaciones 111

xk Error ek , AB4 Error ek , E-AB4 Error ek , E-AB4 h{4 Error ek , RK44-AB4


0.1 0 4.98683 ˆ 10´3 1.29167 ˆ 10´3 8.46348 ˆ 10´8
0.2 0 1.03280 ˆ 10´2 2.67299 ˆ 10´3 1.82482 ˆ 10´7
0.3 0 1.58405 ˆ 10´2 4.09359 ˆ 10´3 2.90106 ˆ 10´7
0.4 2.48135 ˆ 10´5 1.75603 ˆ 10´2 4.51912 ˆ 10´3 2.44909 ˆ 10´5
0.5 4.89248 ˆ 10´5 1.89021 ˆ 10´2 4.84841 ˆ 10´3 4.85778 ˆ 10´5
0.6 6.24625 ˆ 10´5 2.06717 ˆ 10´2 5.29558 ˆ 10´3 6.20827 ˆ 10´5
0.7 6.34433 ˆ 10´5 2.24334 ˆ 10´2 5.75005 ˆ 10´3 6.30311 ˆ 10´5
0.8 4.77791 ˆ 10´5 2.41420 ˆ 10´2 6.20319 ˆ 10´3 4.73359 ˆ 10´5
0.9 1.21518 ˆ 10´5 2.58244 ˆ 10´2 6.66437 ˆ 10´3 1.16785 ˆ 10´5
1.0 4.41085 ˆ 10´5 2.74290 ˆ 10´2 7.12075 ˆ 10´3 4.46102 ˆ 10´5

Tabla 5.7: Valores iniciales AB4 con Euler y RK44, Problema 5.2.

De acuerdo al interés de la investigación en un problema practico, si se desea


mayor precisión se debe usar el método de RK44, pero si lo que se quiere es
disminuir costos computacionales, se observa que el uso del método de Euler
con tamaños de paso pequeños ofrece buenos resultados en el cálculo de valores
iniciales para MPML.

5.3.4 Comparación entre los métodos de paso único y paso múlti-


ple

La primera desventaja de usar los métodos de paso múltiple es el cálculo de los


valores iniciales, ya que en la práctica tales valores se deben calcular
mediante un método auxiliar que puede ser un MPU, pero como se observó
en los experimentos numéricos dicho método auxiliar debe tener alto orden
para que el MPML ofrezca buenas aproximaciones. Los MPU son autónomos
en el sentido de que no depende de métodos auxiliares para iniciar.
Una caracterı́stica particular de los MPU de la familia Runge Kutta es que
mediante la combinación de dos métodos de Runge Kutta de diferente orden
es posible estimar numéricamente el error local de discretización y con ello
controlar el paso de integración en cada iteración, lo cual reduce costos compu-
tacionales. En los problemas de prueba se utilizó el método de Runge Kutta
Fehlberg que es una combinación de los métodos de RK44 y RK45.
En la prueba de tiempo para el Problema 5.1, en la Figura 5.12, se observa que
los métodos de Adams son más eficientes que los métodos de Runge Kutta.
Esto se debe a que las evaluaciones de la función f en los métodos de Adams
son menos tediosas que en los métodos de Runge Kutta. Por lo tanto si en un
problema práctico la función f es costosa computacionalmente, será convenien-
te usar un MPML.
112 Validación de implementaciones

5.4 Problemas propuestos

Como se presentó en este capı́tulo, además de hacer un análisis teórico de


los métodos numéricos que se emplean para solucionar problemas de SEDOP
que modelan aplicaciones es importante realizar un estudio computacional y
numérico sobre las implementaciones realizadas. Se debe verificar que se cum-
pla el orden de convergencia del método, este detalle ayuda a verificar errores
pequeños que a veces se pasan en las implementaciones y ayuda a entender la
diferencia entre usar métodos de orden superior a uno inferior, entre otros. Por
tal motivo los problemas propuestos son enfocados a verificar numéricamente
las implementaciones realizadas en las soluciones de problemas y proyectos de
los apartados previos.

5.4.1 Problemas de práctica


Problema 5.8. Verificar el orden de convergencia del método de Euler imple-
mentado para solucionar el Problema 2.5. Iniciar cada problema con el tamaño
de paso h0 “ 0.1 y redúzcalo a la mitad por cuatro veces, hasta que h4 “ 0.0125.
Debido a que el orden de convergencia se satisface de forma asintótica, puede
ser que para alguno de los problemas de Cauchy que está aproximando sea
necesario reducir el tamaño de paso en un factor mayor.
Problema 5.9. Repetir el análisis de convergencia del problema anterior pa-
ra los MPU RK22 y RK33 en la aproximación de los problemas de Cauchy
que se solucionaron numéricamente en el Problema 2.5. Realizar el análisis de
verificación numérica como se hizo en las secciones de este capı́tulo.
Problema 5.10. Reproducir el análisis de convergencia del problema anterior
para el MPML AB2.
Problema 5.11. Comparar la eficiencia de los métodos implementados para
cada uno de los problemas que logró aproximar. Discutir la estabilidad numéri-
ca con sus resultados y realizar gráficas que ayuden a sustentar sus comentarios.

5.4.2 Proyecto avanzado MPML


Implementar el método de Newton para aproximar sistemas de ecuaciones no
lineales 2 ˆ 2, como en [32]. Luego, implementar el método de AM2 en (4.23)
y realizar para este la validación numérica presentada en la Sección 5.3 para
MPML, vea el Proyecto intermedio MPML en el capı́tulo anterior. Repetir el
análisis desarrollado en la prueba de tiempos y discutir sobre cómo el método
de Newton afecta en la eficiencia de este método.
6. Resultados numéricos

En este capı́tulo se aplicarán algunos de los métodos implementados en un


modelo para el VIH/SIDA descrito en [23], el cual no posee solución analı́tica.
Además, se presentará una aplicación importante sobre cómo combinar méto-
dos para obtener un método adaptativo en el que el tamaño de paso varı́a según
el comportamiento de variación del problema que se está aproximando.

6.1 Adaptatividad y estimación para el error

En esta sección se estudian métodos en los cuales se controla en cada paso los
errores mediante la variación del tamaño de paso. Los métodos que tienen esta
propiedad se conocen como métodos adaptativos, ver [29].
En la práctica con frecuencia se presentan problemas para los cuales la solución
que se quiere aproximar es suave en algunas regiones, por lo tanto para evitar
costos computacionales en estas regiones no es necesario usar tamaños de paso
tan pequeños para obtener buenos resultados. Este tipo de problemas da origen
a los métodos adaptativos, los cuales eligen el tamaño de paso de acuerdo al
problema tratado. En esta investigación se ha implementado el método de Run-
ge Kutta Fehlberg, el cual es una combinación de los métodos RK44 y RK45
capaz de variar el tamaño de paso a fin de que el error se mantenga en una
tolerancia predefinida.

6.1.1 Estimativa del error global de discretización


Muchas de las técnicas para estimar el error global de discretización se basan
en el cálculo de dos soluciones numéricas del problema de Cauchy, de manera
que la diferencia entre estas dos soluciones pueda darnos una idea de la mag-
nitud y el comportamiento del error durante el proceso de integración. Una de
las técnicas para aproximar el error global de discretización se conoce como
método de extrapolación de Richardson presentado en [9], el cual se deduce
del siguiente teorema tomado de [26].
114 Resultados numéricos

Teorema 6.1.1. Sea la función f px, yq con N ` 2 derivadas parciales con


relación a y continuas y acotadas en pa, bq y sea yphq la solución numérica del
problema de Cauchy obtenida por la aplicación de un MPU de orden p, con
p ď N determinada con paso de integración h. Bajo estas condiciones la solu-
ción numérica yphq admite una expansión asintótica de la forma

yphq “ ypxq ` h p g p pxq ` h p`1 g p`1 pxq ` . . . ` hN gN pxq ` hpN `1q GpN `1q px, hq,
(6.1)
con g j px0 q “ 0 para j “ p, p ` 1, . . ., válidas para todo x P pa, bq y para todo
h ą 0.
Nótese que las funciones g j son independientes del valor de h y que GN `1 px, hq
es un residuo.
Aplicando la expansión asintótica del Teorema (6.1.1), se puede escribir una
expresión para el error global de discretización ası́
» fi
N
ÿ
ek “ ypxk q ´ ypk,hq “ ´ – h j g j pxq ` hN `1 GN `1 px, hqfl . (6.2)
j“ p

La expresión (6.2) será usada para obtener una aproximación numérica al error
global de discretización. El proceso es el siguiente.
Para un paso de integración h se calcula la solución numérica yph,kq y para el
mismo xk se obtiene la solución numérica yph{2,kq . Luego para h lo suficiente-
mente pequeño se tiene que
epk,hq “ ypxk q ´ ypk,hq « ´g p pxqh p , (6.3)
ˆ ˙p
h
epk,h{2q “ ypxk q ´ ypk,h{2q « ´g p pxq . (6.4)
2
Restando (6.3) y (6.4), se tiene
„ ˆ ˙ p ˆ ˙p
p h h
ypk,hq ´ ypk,h{2q « g p pxq h ´ “ g p px q p2 p ´ 1q. (6.5)
2 2
Por lo tanto
ypk,hq ´ ypk,h{2q
g p pxqph{2q p « . (6.6)
2p ´ 1
Sustituyendo (6.6) en (6.4), se tiene una expresión para aproximar el error
global de discretización
ypk,hq ´ ypk,h{2q
epk,h{2q « ´ .
2p ´ 1
Resultados numéricos 115

6.1.2 Estimativa del error local de discretización


La idea consiste en obtener una aproximación numérica del error local de dis-
cretización a partir de la aplicación de dos MPU, uno de orden n y otro de orden
n ` 1. Este método fue desarrollado por Merson en 1957 y cobra una particular
importancia al aplicarse en los métodos de Runge Kutta.
Inicialmente se consideran dos MPU, uno de orden n y otro de orden n ` 1.
Luego al aplicar estos métodos al problema de Cauchy (2.30), con tamaño de
paso fijo h, se obtienen respectivamente las soluciones numéricas
yk`1 “ yk ` hφ pxk , yk , hq, (6.7)
yk`1 “ yk ` hφ pxk , yk , hq. (6.8)
Observe que para la aproximación (6.7) de orden n el error local τk`1 “ Ophn q,
mientras que para la aproximación (6.8) de orden n ` 1 el error local
τ k`1 phq “ Ophn`1 q. Los dos errores locales de discretización satisfacen la ecua-
ción (3.5), por lo tanto
1
τk`1 phq “ pypxk`1 q ´ yk`1 q , (6.9)
h
1` ˘
τ k`1 phq “ ypxk`1 q ´ yk`1 . (6.10)
h
Sumando y restando yk`1 en la expresión (6.9) y agrupando términos se tiene
1 “` ˘ ` ˘‰
τk`1 “ ypxk`1 q ´ yk`1 ` yk`1 ´ yk`1
h
1` ˘
“ τ k`1 ` yk`1 ´ yk`1 .
h
Pero τk`1 es Ophn q y τ k`1 es Ophn`1 q, por lo tanto el término τ k`1 no es sig-
nificativo en la expresión de τk`1 . Si se omite este término, se obtiene una
expresión para aproximar el error local de discretización para el método Ophn q
tal que
1` ˘
τk`1 « yk`1 ´ yk`1 . (6.11)
h
Al igual que el método de extrapolación de Richardson este método para apro-
ximar el error local de discretización tiene un elevado costo computacional. Sin
embargo, si se aplica este método a los métodos de Runge Kutta es posible
calcular una expresión más eficiente para aproximar el error local, evitando el
cálculo de las dos soluciones numéricas en la expresión (6.11) tal y como se
presenta en [26].
Ejemplo 6.1. Determinar una expresión para aproximar el error local de
discretización del método de Euler modificado (3.24).
116 Resultados numéricos

Solución. Dado que el método de Euler modificado (3.24) es un método de


segunda orden, se debe considerar para aproximar el error un método de orden
3. En este caso se toma el método RK33 de orden 3 (3.25). Luego, aplicando la
ecuación (6.11) con estos dos métodos, se tiene
„ 
1 h
τk`1 « yk ` pk1 ` 4k2 ` k3 q ´ pyk ` hk2 q
h 6
1
“ pk1 ´ 2k2 ` k3 q .
6
Por lo tanto, se determinó una expresión para aproximar el error local de dis-
cretización para el método de Euler modificado
1
τk`1 « pk1 ´ 2k2 ` k3 q .
6

La aproximación del error local obtenida de combinar los métodos RK44 y


RK45 es muy importante en la práctica ya que de esta se obtiene el método
de Runge Kutta Fehlberg, RKF, un método que controla automáticamente el
tamaño de paso.

6.1.3 Control del tamaño de paso


Tanto el método de extrapolación de Richardson como el método de Melene
pueden ser usados para controlar el paso de integración, el objetivo es modificar
el tamaño de paso de tal forma que no se permita un error por encima de cierta
tolerancia fijada para el problema de estudio, estos métodos se conocen como
métodos adaptativos, ver [7] y [29].
Las modificaciones en el tamaño de paso consisten en multiplicarlo por un fac-
tor adecuado δ , que aumenta o disminuye el tamaño de paso. Evidentemente el
error disminuye en la medida en que el tamaño de paso h disminuye, por tanto
si el error estimado sobrepasa la tolerancia fijada ε, se debe disminuir el tamaño
de paso. Por otro lado, trabajar con tamaños de paso muy pequeños en lugares
donde la función que define el problema de Cauchy presenta un buen compor-
tamiento conlleva a realizar esfuerzos innecesarios, lo cual se traduce en altos
costos computacionales por lo cual en el caso en el que los errores estimados
no sean significativos se puede aumentar el tamaño de paso.
Una idea general de estas conclusiones, se presentan en los siguientes pasos
algorı́tmicos:
1. Estimar el error (puede ser el error global o local).
2. Si errorą ε (ε es la tolerancia fijada) entonces reducir el tamaño de paso
h Ð δ h, 0 ă δ ă 1 y regresar a 1. Caso contrario ir a 3.
Resultados numéricos 117

3. Almacenar aproximación numérica en el vector yk , hacer xk Ð mı́n txk ` h, bu


y aumentar el tamaño de paso h Ð δ h, δ ą 1.
4. Si 0 ă xk ă b entonces regresar a 1. Caso contrario parar.

Es de especial interés mantener controlado el error global de discretización ya


que en gran medida la validez de los resultados de la integración numérica
dependen de este valor, sin embargo estimar numéricamente el error global de
discretización demanda un alto costo computacional. Por esta razón, en muchos
métodos adaptativos se trabaja con técnicas de estimaciones del error local de
discretización como por ejemplo el método de Melene que aplicado a los méto-
dos de Runge Kutta resulta ser más eficiente que el método de extrapolación de
Richardson tal y como se muestra en [7] y [26].
Usando el método de Melene para los métodos RK45 y RK56 se puede cons-
truir un método adaptativo muy usado en la práctica conocido como el método
de Runge Kutta Fehlberg, RKF. La expresión para aproximar el error local de
discretización en este método es
1 128 2197 1 2
τk`1 “ k1 ´ k3 ´ k4 ` k5 ` k6 . (6.12)
360 4275 75240 50 55
Una ventaja de este método es que únicamente requiere 6 evaluaciones de la
función f por paso, ya que para los métodos RK45 y RK56 las evaluaciones de
esta función k1 , k2 , k3 , k4 y k5 coinciden, por lo tanto es necesario calcularlas
una sola vez junto con k6 para obtener una aproximación numérica del error
local usando (6.12).
La forma más sencilla de variar el tamaño de paso es duplicar o partir a la mitad
el tamaño de paso, es decir que δ “ 2 o δ “ 1{2 según sea el caso. Sin embargo,
esta técnica no es tan eficiente y se debe analizar que por cada intento fallido
se debe repetir el proceso y esto demanda altos costos computacionales. Una
forma más sofisticada de elegir el factor δ según el cual se aumenta o disminuye
el tamaño de paso puede verse en [7]. Esta técnica se deduce del conocimiento
del orden del método utilizado. Suponga que el método tiene orden n, de modo
que τk`1 es Ophn q, por tanto existe un K independiente de h tal que
τk`1 “ Khn .
Usando el método de Melene con tamaño de paso δ h, se tiene

n n n n δn
τk`1 « K pδ hq “ δ pKh q « δ τk`1 « pyk`1 ´ yk`1 q.
h
La aproximación del error local τk`1 debe de estar acotada por la tolerancia
fijada ε, por tanto
δn
τk`1 « pyk`1 ´ yk`1 q ď ε,
h
118 Resultados numéricos

es decir
˜ ¸1
n
εh
δď ˇ
ˇy
ˇ .
k `1 ´ y k `1
ˇ

Se calculó una cota para el factor δ , la cual es para el método de Runge Kutta
Fehlberg. Según [7], la elección común del factor δ es
˜ ¸1{4
εh
δ “ 0.84 ˇˇ ˇ .
yk`1 ´ yk`1 ˇ

6.1.4 Validación numérica del método de Runge Kutta Fehlberg

Para validar la implementación del método de Runge Kutta Fehlberg se


considera el Problema 5.4. La gráfica de la solución exacta a este problema
se muestra en la Figura 6.1.

2.5

1.5
y

0.5

0
0 0.2 0.4 0.6 0.8 1 1.2
x

Figura 6.1: Solución exacta Problema 5.4.

En la gráfica se observa que la solución exacta en general es suave, pero el


crecimiento de la función aumenta en forma un poco más acelerada en la parte
final del intervalo.
Aplicando el método RKF al Problema 5.4 con un tamaño de paso h P p0.01, 0.25q
y una tolerancia para el error de 10´6 , se obtienen los resultados presentados
en la Tabla 6.1, donde a partir de x “ 0.8 es necesario disminuir el tamaño de
paso para alcanzar la tolerancia fijada.
Resultados numéricos 119

xk hk yk Error ek
0.25 0.25 0.25534 7.11008 ˆ 10´8
0.5 0.25 0.54630 1.21433 ˆ 10´6
0.75 0.25 0.93160 9.42345 ˆ 10´6
0.872 0.122 1.19008 1.28408 ˆ 10´5
0.967 0.095 1.45125 1.70797 ˆ 10´5
1.041 0.074 1.70959 2.19929 ˆ 10´5
1.100 0.059 1.96845 2.76557 ˆ 10´5
1.149 0.048 2.23063 3.41606 ˆ 10´5
1.190 0.040 2.49801 4.16013 ˆ 10´5
1.2 0.009 2.57219 4.37629 ˆ 10´5

Tabla 6.1: Solución numérica Problema 5.4, método RKF.

6.2 Aplicación VIH/SIDA

El motivo principal por el cual se desea solucionar numéricamente SEDOP


con condiciones iniciales es aproximar modelos matemáticos relacionados con
aplicaciones reales. Para lograr este objetivo, además del estudio numérico para
aproximar SEDOP con problemas fijos, en este texto se obtienen resultados
numéricos para aproximar un modelo que describe la dinámica del VIH/SIDA.

6.2.1 Generalidades VIH/SIDA


El Sı́ndrome de Inmunodeficiencia Adquirida SIDA es la fase final de la enfer-
medad producida por el Virus de Inmunodeficiencia Humana VIH. Su princi-
pal forma de transmisión es por contacto sexual, sin embargo también se puede
transmitir por transfusiones de sangre, por usar un instrumento quirúrgico con-
taminado con VIH e incluso los bebes que nacen de una madre infectada pueden
infectarse durante el embarazo, parto o lactancia.
El virus del VIH ataca el sistema inmunitario y debilita los sistemas de vigilan-
cia y defensa contra las enfermedades infecciosas. El virus afecta principalmen-
te a las células TCD4` , que son células que controlan la respuesta del sistema
inmunológico. En la etapa final de la infección por VIH, el número de células
TCD4` funcionales disminuye y el sistema inmunológico falla dejando al in-
dividuo portador del virus expuesto a diversas infecciones y enfermedades que
normalmente personas con un sistema inmunitario saludable pueden combatir
fácilmente.
Según el Programa Conjunto de las Naciones Unidas sobre el VIH/SIDA,
ONUSIDA en [20], entre el 2000 y 2015 más de 40 millones de personas en el
mundo han muerto por esta enfermedad y en la actualidad el número de infec-
tados a nivel mundial es de 36 millones. El VIH/SIDA es un grave problema
120 Resultados numéricos

de salud pública por tanto es de suma importancia diseñar modelos matemáti-


cos que permitan determinar caracterı́sticas generales en el desarrollo de esta
enfermedad a fin de establecer estrategias de control.
Infección de las células TCD4` por el virus del VIH
Como los virus no son capaces de reproducirse por sı́ mismos necesitan utilizar
a otros seres vivos para poder multiplicarse y sobrevivir, para lo cual usan a las
células de nuestro sistema inmune, especı́ficamente a las células TCD4` .
Inicialmente el virus del VIH se adhiere a la superficie de la célula, una vez fijo
el virus libera su material genético en el interior de la célula, el material genéti-
co del VIH es ARN pero para poder actuar sobre la célula tiene que convertirse
en ADN, de esto se encarga la proteı́na viral denominada Transcriptasa, pues
esta convierte la cadena simple de ARN vı́rico en una cadena doble de ADN.
El nuevo ADN vı́rico entra en el núcleo de la célula y se adhiere al ADN ce-
lular formando un pro-virus, este madura y genera varias copias de virus VIH.
Terminado el proceso de formación del nuevo virus en el interior de la célula
TCD4` infectada, estos brotan por la superficie de la célula.
Una ilustración de esta dinámica se presenta en la Figura 6.2, e información
complementaria se tiene en [5, 12] y [23].

Figura 6.2: Ciclo de vida del VIH, según [34].


Resultados numéricos 121

Se cree que la salida de las partı́culas virales hace que la membrana de la célula
TCD4` se torne más permeable lo cual permite la entrada excesiva de diferen-
tes sustancias que provocan la muerte de la célula. Como las células TCD4`
son esenciales para el correcto funcionamiento del sistema inmunológico, la
muerte de estas por acción del VIH deja al sistema inmune incapaz de reaccio-
nar de forma eficiente frente a diferentes enfermedades infecciosas, esta etapa
de la enfermedad se conoce como SIDA.

6.2.2 Formulación del modelo


Cuando se quiere determinar si un individuo está infectado con el VIH se hace
una medición o conteo del número de células TCD4` presentes en un milı́metro
cúbico de sangre pmm3 q, que para un individuo infectado suele estar por debajo
de las 200 células por mm3 , el recuento de células TCD4` es indispensable
pues permite tomar decisiones importantes acerca del tratamiento y la atención
médica del VIH como se muestra en la Tabla 6.2.
Concentración células T Diagnóstico
Entre 500 y 1200 células/mm3 Lo normal entre personas sin VIH.
Por encima de 350 células/mm3 No se recomienda, en general, el tratamiento
anti-VIH.
Por debajo de 350 células/mm3 Si se recomienda iniciar el tratamiento anti-VIH.
Por debajo de 200 células/mm3 Se diagnostica SIDA. Existe mayor riesgo de
infecciones y enfermedades, se recomienda
tratamiento anti-VIH.

Tabla 6.2: Conteo de células T sanas y diagnóstico, según [25].

Para modelar esta dinámica numéricamente, se usará el modelo matemático


propuesto en [23], el cual ha sido estudiado, modificado y simulado a profun-
didad en [5, 12, 19] y [25]. El modelo presentado en [23] ha sido el punto de
partida de modelos actuales y en el se considera la variación en la concentra-
ción de tres poblaciones T , I y V , que corresponden a la población de células
TCD4` sanas, células TCD4` infectadas y virus VIH libre, respectivamente.
Con el fin de describir el modelo se presentan las siguientes hipótesis:

El número de células sanas T producidas por el organismo en cada instante


de tiempo es s.
Las células sanas T se multiplican a una tasa pT y mueren de forma natural
a una tasa dT .
Las células sanas T mueren por acción del virus del VIH a una tasa cI.
122 Resultados numéricos

Cada célula infectada I produce N nuevos virus al morir.


La tasa de infección al contacto entre un virus libre V y una célula sana T
es dada por kV T .
Los virus libres V son removidos del organismo a una tasa uV .

Al estudiar la variación de T , I y V en base a las hipótesis anteriores se tiene un


modelo de EDO no lineal que describe la dinámica del VIH, dado por
$
1
&T pt q “ s ` pT ´ dT ´ kV T

I 1 pt q “ kV T ´ cI (6.13)

%V 1 pt q “ NcI ´ uV.

Sin embargo, a fin de tener un modelo más acorde con la realidad, se cambia el
término
´ que controla
¯ el aumento de células T sanas pT por el término logı́stico
T `αI
pT 1 ´ TM , donde TM es el número máximo de células T sanas en el or-
ganismo y α es un valor constante. De aquı́, al modificar el modelo (6.13), se
obtiene el modelo de interés
$ ´ ¯
1 T `αI
&T pt q “ s ` pT 1 ´ TM ´ dT ´ kV T


I 1 pt q “ kV T ´ cI (6.14)

%V 1 pt q “ NcI ´ uV.

Este nuevo modelo es más realista pues existen limites biológicos para la pro-
ducción de células T , sin esta sustitución puede pasar que el número de células
T crezca indefinidamente, lo cual no acompaña a la realidad.
La constante α, la cual se introdujo en esta investigación, permite que este
modelo sea versátil con la literatura dado que algunas investigaciones ignoran
el efecto de la población de células infectadas en el término logı́stico al ser
muy pequeño, del orden de 10´4 a 10´5 , en este caso se toma α “ 0 o en caso
contrario α “ 1.

6.2.3 Modelo con estrategia de control


El modelo (6.14) no tiene en cuenta el comportamiento de la enfermedad al
suministrarse medicamentos, pero es claro que al enterarse un paciente de la
enfermedad intentará combatirla. De aquı́ es importante el estudio de modelos
con estrategias de control. Se sigue la estrategia presentada en [12] y [23].
Suponiendo que se aplica un tratamiento anti viral que afecta la tasa de infec-
ción al contacto entre células T y virus V , el tratamiento consiste en la admi-
nistración de un medicamento que impide que un virus infecte nuevas células.
Resultados numéricos 123

Si se denota por D la eficiencia del medicamento, se puede modelar la acción


de este médicamente en el organismo sustituyendo en (6.14) el término kV T
por el término p1 ´ DqkV T , obteniendo ası́ el siguiente modelo con estrategia
de control de la infección.
$ ´ ¯
1 T ` αI
&T pt q “ s ` pT 1 ´ TM ´ dT ´ p1 ´ Dq kV T


I 1 pt q “ p1 ´ Dq kV T ´ cI (6.15)

%V 1 pt q “ NcI ´ uV.

6.2.4 Simulaciones numéricas para el modelo VIH


El objetivo en esta sección se centra en presentar los resultados numéricos obte-
nidos al aplicar al modelo (6.14) algunos de los métodos numéricos implemen-
tados. Debido a que el interés es sobre los métodos numéricos, no se presentarán
detalles analı́ticos ni sugerencias sobre los modelos tratados.
Inicialmente se comparan aproximaciones al modelo (6.14) presentadas en [12,
19] y [25] con aproximaciones obtenidas de aplicar la implementación RK44,
e incluso como varios investigadores usan el Toolbox ode45 de Matlab tam-
bién se realizan comparaciones con este método, los parámetros usados en cada
caso se muestran en la Tabla 6.3. Luego se encuentran aproximaciones usan-
do algunos de los métodos numéricos estudiados a fin de concluir eficiencia y
coherencia en los resultados para cada método. Finalmente, se aplica el método
más eficiente al modelo (6.15) para simular la acción de un tratamiento en la
dinámica de la enfermedad. En esta sección también se presenta el comporta-
miento del tamaño de paso en un método adaptativo en relación a la variación
de células T , I y virus libre V en una simulación.

Parámetros Valor ref[12] Valor ref[19] Valor ref[22] Valor ref[25]


s pdia´1 mm´3 q 10 0.1 10 10
p pdia´1 q 0.03 3 0.03 0.022
TM pmm´3 q 1500 1500 1500 1500
d pdia´1 q 0.02 0.02 0.02 0.02
k pmm3 dia´1 q 2.4 ˆ 10´5 2.7 ˆ 10´3 2.4 ˆ 10´5 2.9274 ˆ 10´5
c pdia´1 q 0.24 0.3 0.24 0.3
u pdia´1 q 2.4 2.4 2.4 2.4
N 230 10 774 128
α 0 1 0 0
T p0q pmm´3 q 1000 0.1 1000 500
Ip0q pmm´3 q 0 0 0 50
V p0q pmm´3 q 10´3 0.1 10´3 800

Tabla 6.3: Parámetros del modelo, según [22].


124 Resultados numéricos

Para empezar se aplica la implementación RK44 al modelo (6.14) sujeto a los


parámetros presentados en la columna 3 de la Tabla 6.3, esto con el fin de
comparar los resultados de la implementación realizada contra los resultados
numéricos presentados en el artı́culo [19]. Aunque en este artı́culo también
se presentan resultados de métodos que no se han estudiado, únicamente se
considera los resultados presentados para un método de Runge Kutta de cuarta
orden.
En el artı́culo [19] no se da detalles sobre el tamaño de paso que se usó con
el método de Runge Kutta de orden 4, por lo tanto para comparar estos resul-
tados contra los resultados de la implementación RK44 inicialmente se tomó
un tamaño de paso de h “ 0.2. A pesar de que se observó similitud entre los
resultados con una diferencia máxima del orden 10´1 , al reducir el tamaño de
paso a h “ 0.01 se obtuvo resultados más similares, con una diferencia máxima
del orden 10´7 , tal y como se puede observar en las tablas 6.4-6.6.

t RK44 h “ 0.2 RK44 h “ 0.01 ref [19] ode45


0.2 0.2087153941 0.2088080834 0.2088080833 0.2088080843
0.4 0.4059043039 0.4062405394 0.4062405393 0.4062405456
0.6 0.7635094172 0.7644238893 0.7644238890 0.7644239510
0.8 1.411837346 1.414046829 1.414046831 1.414047303
1.0 2.586595129 2.591594801 2.591594802 2.591596560

Tabla 6.4: Comparación numérica para T ptq.

t RK44 h “ 0.2 RK44 h “ 0.01 ref [19] ode45


0.2 6.019536413 ˆ 10´6 6.032702150 ˆ 10´6 6.032702150 ˆ 10´6 6.032702243 ˆ 10´6
0.4 1.312991789 ˆ 10´5 1.315834072 ˆ 10´5 1.315834073 ˆ 10´5 1.315834121 ˆ 10´5
0.6 2.117812628 ˆ 10´5 2.122378507 ˆ 10´5 2.122378506 ˆ 10´5 2.122378974 ˆ 10´5
0.8 3.011243552 ˆ 10´5 3.017741955 ˆ 10´5 3.017741955 ˆ 10´5 3.017744898 ˆ 10´5
1.0 3.995116228 ˆ 10´5 4.003781469 ˆ 10´5 4.003781468 ˆ 10´5 4.003789327 ˆ 10´5

Tabla 6.5: Comparación numérica para Iptq.

t RK44 h “ 0.2 RK44 h “ 0.01 ref [19] ode45


0.2 0.06189950205 0.06187984331 0.06187984331 0.06187984323
0.4 0.03831922214 0.03829488787 0.03829488788 0.03829488787
0.6 0.02372713945 0.02370455013 0.02370455014 0.02370455079
0.8 0.01469899971 0.01468036376 0.01468036377 0.01468036633
1.0 0.00911525297 0.00910084505 0.00910084504 0.00910084895

Tabla 6.6: Comparación numérica para V ptq.


Resultados numéricos 125

Adicionalmente, en las tablas 6.4-6.6 se incluyen resultados de aplicar la


función ode45 de Matlab con una tolerancia de 10´10 , donde se observa que
la diferencia máxima con los resultados de la implementación RK44 es del
orden 10´5 . Por lo tanto se considera que los resultados obtenidos de la imple-
mentación RK44 son consistentes con los resultados disponibles en el artı́culo
[19] y los obtenidos de aplicar la función ode45 de Matlab.
Seguidamente, usando la implementación RK44 con los parámetros de las
columnas 2 y 5 de la Tabla 6.3 que corresponden a los artı́culos [12] y [25]
respectivamente, se obtienen las figuras 6.3 y 6.4. En ambos casos al comparar
con las gráficas incluidas en cada artı́culo se observa que se obtiene comporta-
mientos similares.

1000 250

Población células T infectadas


900
Población células T sanas

200
800
700 150
600
500 100

400
50
300
200 0
0 100 200 300 400 500 600 700 0 100 200 300 400 500 600 700
t (días) t (días)

(a) Células T. (b) Células I.

5000
4500
4000
Población virus libre

3500
3000
2500
2000
1500
1000
500
0
0 100 200 300 400 500 600 700
t (días)

(c) Virus libre V.

Figura 6.3: Comparación entre la solución numérica del método RK44 y [12].
126 Resultados numéricos

750 50
45

Población células T infectadas


Población células T sanas 700
40
650 35
30
600
25
550 20
15
500
10
450 5
0 100 200 300 400 500 0 100 200 300 400 500
t (días) t (días)

(a) Células T. (b) Células I.

800

700

600
Población virus libre

500

400

300

200

100
0 100 200 300 400 500
t (días)

(c) Virus libre V.

Figura 6.4: Comparación entre la solución numérica del método RK44 y [25].

Los parámetros de la columna 4 en la Tabla 6.3 corresponden a una persona


contagiada con VIH, aplicando la implementación RK44 al modelo (6.14) su-
jeto a estos parámetros con tamaño de paso h “ 0.1 se obtiene la Figura 6.5,
donde se observa que el modelo describe importantes caracterı́sticas de la en-
fermedad para una persona infectada en el periodo de tiempo considerado.

Inicialmente el número de células TCD4` sanas disminuye rápidamente mien-


tras que la población de virus libre en la sangre aumenta de forma exponencial.
Después de alcanzar un mı́nimo la población de células TCD4` sanas aumen-
ta lentamente manteniéndose en niveles muy bajos y el número de virus libre
después de alcanzar un punto máximo disminuye rápidamente. Finalmente las
poblaciones se estabilizan y permanecen ası́ hasta el fin del periodo de tiempo
considerado.
Resultados numéricos 127

1000 600

Población células T infectadas


900
Población células T sanas 800 500

700
400
600
500 300
400
300 200

200
100
100
0 0
0 50 100 150 0 50 100 150
t (días) t (días)

(a) Células T. (b) Células I.


x104
4.5
4
Población virus libre

3.5
3
2.5
2
1.5
1
0.5
0
0 50 100 150
t (días)

(c) Virus libre V.

Figura 6.5: Solución numérica para modelo VIH/SIDA, método RK44.

Para este mismo caso, la Tabla 6.7 presenta las aproximaciones numéricas a T
para determinados periodos de tiempo usando diferentes métodos con el mismo
tamaño de paso h “ 0.1. La diferencia entre las soluciones numéricas de cada
método parece no ser significativa.
t Euler RK22 RK33 RK44 RK56 RK44-AB4
10 999.867020 999.780968 999.777113 999.777011 999.777008 999.778740
30 31.119532 34.396355 34.509947 34.513049 34.513111 34.634371
50 146.393706 149.122702 149.268031 149.271438 149.271512 149.484933
70 135.912513 133.152404 133.036372 133.033476 133.033414 132.868112
90 120.987027 122.140415 122.180238 122.181294 122.181316 122.238010
110 135.659506 134.967235 134.954927 134.954559 134.954551 134.937244
130 125.985445 126.291317 126.292036 126.292084 126.292084 126.292926
150 130.439863 130.330041 130.332391 130.332441 130.332442 130.336054

Tabla 6.7: Solución numérica modelo VIH/SIDA.


128 Resultados numéricos

Por otro lado, a diferencia de lo observado con los resultados en la anterior


tabla, en la Tabla 6.8 se observa que en el intervalo de tiempo p15, 22q se pre-
sentan grandes diferencias entre las soluciones numéricas.

t Euler RK22 RK33 RK44 RK56 RK44-AB4


15 980.570607 959.740511 958.717880 958.690738 958.690163 960.263332
16 948.548818 892.019087 889.304917 889.233252 889.231730 894.896136
17 869.393706 738.070435 732.311699 732.161499 732.158290 748.753427
18 700.295172 482.377732 474.595957 474.397487 474.393194 504.292239
19 436.744082 230.448930 224.813031 224.675766 224.672715 246.861543
20 194.509817 91.544408 89.056851 89.002172 89.000859 93.399884
21 72.397152 39.654764 38.756125 38.739342 38.738879 37.786878
22 31.248216 22.849677 22.535457 22.530898 22.530741 21.610893

Tabla 6.8: Solución numérica modelo VIH/SIDA, falla Euler.

Ası́, por ejemplo, considerando la interpretación biológica del modelo para el


método de Euler en el dı́a 19 de acuerdo a la Tabla 6.2 se concluye que no es
conveniente que el paciente reciba tratamiento. Mientras que si se observa los
resultados obtenidos con métodos de mayor orden como RK44 por ejemplo,
se concluye que el paciente debe recibir tratamiento anti-VIH. Por lo tanto el
método de Euler no ofrece buenos resultados en el modelo con el tamaño de
paso considerado.

Si se aplica el método de Euler con tamaño de paso h “ 0.01 se obtiene que para
el dı́a 19 el número de células T sanas es de 242.114808, por lo tanto con este
tamaño de paso el método de Euler ofrece buenos resultados. Este fenómeno
se debe a que la solución exacta del modelo presenta un cambio brusco en el
periodo de tiempo p15, 22q tal y como se muestra en la Figura 6.5, por lo tanto
se deberı́a usar un tamaño de paso más pequeño en este intervalo.

El uso del método de Euler puede llevar a concluir resultados erróneos si no se


tiene cuidado con el análisis numérico de las soluciones y regiones de estabili-
dad de los métodos. Además, al tomar en consideración estos detalles sumado
a la facilidad de implementación del método de Euler, se concluye la razón por
la cual este método aún se usa en investigaciones actuales.

Aplicando el método RKF, en la Figura 6.6 se observa que para el periodo de


tiempo p15, 22q se considera tamaños de paso más pequeños.
Resultados numéricos 129

0.2
0.18
0.16
0.14
0.12
h

0.1
0.08
0.06
0.04
0.02
0
0 10 20 30 40 50 60 70 80 90 100 110 120 130 140 150
x

Figura 6.6: Variación del tamaño de paso modelo VIH/SIDA, método RKF.

6.2.5 Solución numérica del modelo con estrategia de control


Debido a los buenos resultados numéricos obtenidos en la sección anterior para
el modelo (6.14) con el método RK44, se aplica esta implementación con ta-
maño de paso h “ 0.1 al modelo (6.15) sujeto a los parámetros en la columna 4
de la Tabla 6.3.
Tanto en los resultados que se presentan en la Tabla 6.9 como en los incluidos
en la Figura 6.7, se observan caracterı́sticas importantes del efecto de un medi-
camento en la dinámica del VIH. Se puede observar como el tratamiento anti
viral retrasa la infección de células TCDA` sanas y hace que esta población no
alcance niveles tan bajos.

Eficiencia Mı́nimo T Máximo I Máximo V


0% 17.01 575.6 4.35241 ˆ 104
10 % 20.99 549.2 3.49712 ˆ 104
50 % 75.07 381.9 2.93308 ˆ 104
70 % 233.3 214.3 1.65542 ˆ 104

Tabla 6.9: Solución numérica para modelo VIH/SIDA, eficiencia tratamiento,


método RK44.

Por otro lado, de estos resultados también se concluye que como es esperado,
el tratamiento retrasa el crecimiento en las poblaciones de virus libres y célu-
las infectadas, haciendo que no alcancen niveles tan altos lo cual muestra la
efectividad.
130 Resultados numéricos

0% 10% 50% 70%


1000
900

Población células T sanas


800
700
600
500
400
300
200
100
0
0 50 100 150
t (días)

(a) Efectos tratamiento anti viral células T.

0% 10% 50% 70%


600
Población células T infectadas

500

400

300

200

100

0
0 50 100 150
t (días)

(b) Efectos tratamiento anti viral células I.

x104 0% 10% 50% 70%


4.5
4
Población virus libre

3.5
3
2.5
2
1.5
1
0.5
0
0 50 100 150
t (días)

(c) Efecto tratamiento anti viral virus libre V.

Figura 6.7: Solución numérica para modelo VIH/SIDA con estrategia de control,
tratamiento con 0 %, 10 %, 50 % y 70 % de eficiencia, método RK44.
Resultados numéricos 131

6.3 Proyecto avanzado de aplicación

La necesidad numérica de solucionar problemas de Cauchy que modelan apli-


caciones reales es evidente desde situaciones básicas como el sistema Lotka-
Volterra de EDO no lineales que modelan la dinámica presa-predador entre dos
especies que comparten un mismo entorno y una de ellas es el alimento de la
otra especie.
De forma introductoria el sistema Lotka-Volterra se describe por
#
p11 pt q “ α p1 pt q ´ δ1 p1 pt q p2 pt q
(6.16)
p12 pt q “ ´β p2 pt q ` δ2 p1 pt q p2 pt q,
donde p1 es la cantidad de presas, p2 la cantidad de predadores, α p1 el aumento
natural por nacimientos de la cantidad de presas en ausencia de predadores y
´β p2 pt q representa la mortandad o disminución de predadores en ausencia de
presas. Por otro lado, ´δ1 p1 pt q p2 pt q y δ2 p1 pt q p2 pt q representan respectivamente
la interacción entre ambas especies donde las presas disminuyen en la presencia
de predadores con tasas δ1 y δ2 , según el caso.
Primero, intente solucionar el sistema (6.16) teóricamente, empleando los méto-
dos de solución para sistemas de EDO que se presentaron en los preliminares de
este libro. Luego, asignar una cantidad inicial de cada especie y aplicar inicial-
mente el método de Euler, luego RK44 y posteriormente AB2. Graficar en una
misma figura la cantidad de presas y de predadores en cada instante de apro-
ximación hasta llegar a un tamaño de paso final. Investigar que sucede cuando
la tasa de nacimientos de presas es alta (baja), o la tasa de mortandad de los
predadores es alta (baja), incluso varı́e las tasas δ1 y δ2 que se relacionan con
la interacción de las especies. No olvide cambiar la cantidad inicial de presas
y predadores, además de observar la dinámica en un tiempo final lo suficien-
temente grande para examinar los cambios entre la cantidad de individuos de
cada especie.
Finalmente, dado que este sistema de EDO no tiene solución analı́tica, aproxi-
mar el error y justificar la convergencia de sus implementaciones con el fin de
garantizar que los resultados numéricos tienen sentido. Comparar con la reali-
dad biológica.
Al observar en las gráficas de las aproximaciones que obtiene la dependen-
cia sobre la cantidad de individuos al variar las diferentes tasas, es importante
detenerse a pensar en cómo pueden ser aproximados estos parámetros en las
aplicaciones con datos reales en la cual se hace un seguimiento del número de
habitantes de cada especie en el transcurso de los dı́as. Incluso, este módulo
asume que lo único que afecta la dinámica entre presa y predador es su inter-
acción ignorando los efectos del clima, la edad fértil y otros factores. En este
sentido, es conveniente investigar modelos matemáticos más completos para
este problema. Sobre variación de parámetros se recomienda ver [1].
132 Resultados numéricos

Para finalizar, analizar el comportamiento de sus resultados numéricos cuando


se tiene una alta diferencia entre los valores de los parámetros. Es decir, un
parámetro con un valor muy pequeño y el otro muy alto. Esto puede llevar a
que el sistema se comporte de forma rı́gida o también conocido como stiff, los
cuales presentan regiones de estabilidad con altas restricciones cuando se usan
métodos explı́citos para aproximarlos y por lo tanto, necesitan de la aplicación
de métodos implı́citos para obtener su solución numérica. Para desarrollar este
análisis se sugiere resolver estos problemas con el método de Euler implı́cito
(2.39), usando diferentes valores de tamaño de paso.
Aplicaciones como las relacionadas con reacciones quı́micas y cadenas de
decaimientos radioactivos, usualmente son modeladas con sistemas rı́gidos, co-
mo puede ser visto en [21, 28] y [33]. Estas referencias pueden servir de guı́a
para complementar la discusión desarrollada en este libro para la solución de
sistemas de EDO empleando principalmente métodos implı́citos.
Apéndices
A. Apéndice

A.1 Interpolación

El problema de la interpolación consiste en encontrar una función real g cuyo


gráfico coincida con un conjunto de puntos dado px0 , f px0 qq, px1 , f px1 qq, . . . ,
pxn , f pxn qq; es decir que
gpxi q “ f pxi q para 0 ď i ď n. (A.1)
En otras palabras, se busca una función g que aproxime a la función f en el
intervalo rx0 , xn s.
El proceso de interpolación es de suma importancia en diferentes tópicos del
análisis numérico tales como la integración numérica, el cálculo de raı́ces en
ecuaciones no lineales. Incluso es frecuentemente usado en la práctica para en-
contrar valores intermedios que no están en una tabla de datos experimentales.
En este texto se usa el concepto de interpolación para la deducción de MPM
para aproximar la solución al problema de Cauchy (2.30). El método de inter-
polación a usarse es el método de Lagrange.
Considerando que los polinomios son funciones sencillas y ampliamente
estudiadas es conveniente considerar que la función g en (A.1) sea un po-
linomio. Por lo tanto el problema de interpolación se ha transformado en la
búsqueda de un polinomio, llamado polinomio interpolador, que cumpla con
las condiciones (A.1), este tipo de interpolación se conoce como interpolación
polinómica.
Definición A.1.1. Sean px0 , y0 q, px1 , y1 q, . . . , pxn , yn q un conjunto de números
reales o complejos, siendo todos los valores xi diferentes. El problema de inter-
polación polinómica consiste en encontrar un polinomio Ppxq de grado m ď n,
tal que
Ppxi q “ yi , para i “ 0, 1, 2, . . . , n.

El siguiente teorema muestra que este polinomio existe y que es único.


136 Apéndice

Teorema A.1.1. Dados n ` 1 puntos distintos x0 , x1 , . . . , xn , reales, y sus


correspondientes valores y0 , y1 , . . . , yn . Existe uno y solo un polinomio, Ppxq,
de grado menor o igual a n, tal que
Ppxi q “ yi , para i “ 0, 1, 2, . . . , n. (A.2)

Demostración. Sea Ppxq “ a0 ` a1 x ` ¨ ¨ ¨ ` an xn , un polinomio de grado menor


o igual a n, con los n ` 1 coeficientes a0 , a1 , . . . , an a ser determinados. Usando
la ecuación (A.2) se tiene
a0 ` a1 x0 ` a2 x02 ` ¨ ¨ ¨ ` an x0n “ y0 ,
a0 ` a1 x1 ` a2 x12 ` ¨ ¨ ¨ ` an x1n “ y1 ,
..
.
a0 ` a1 xn ` a2 xn2 ` ¨ ¨ ¨ ` an xnn “ yn .
Este es un sistema lineal de n ` 1 ecuaciones con n ` 1 incógnitas. En notación
matricial este sistema se puede escribir como
Va “ y, (A.3)
donde
» fi
x02 . . . x0n
» fi » fi
1 x0 a0 y0
— 1 x1 x12 . . . x1n ffi — a1 ffi — y1 ffi
V“— , a y y .
— ffi
.. .. .. ffi “ — .. fl
ffi “ — .. ffi
– . . ... . fl – . – . fl
1 xn xn2 . . . xnn an yn

Claramente resolver el sistema (A.3) es equivalente a encontrar el polinomio


interpolador Ppxq. Para garantizar la existencia y unicidad del polinomio Ppxq
basta probar que el sistema (A.3) tiene solución única, es decir, se debe probar
que el determinante de la matriz V es diferente de 0. La matriz V es llamada
matriz de Vandermonde, y su determinante es
ź
det pVq “ pxi ´ x j q,
0ď jăiďn

y por hipótesis los puntos x0 , x1 , . . . , xn son distintos, por lo tanto se concluye


que det pVq ‰ 0, ver [4].
El Teorema A.1.1 asegura la existencia y unicidad de un polinomio interpo-
lador, sin embargo no es posible usar este teorema para obtener tal polinomio.
A continuación se presenta una de las técnicas más básicas que permite calcular
un polinomio interpolador, conocida como fórmula de Lagrange.
El problema es construir un polinomio de grado no máximo n cuyo gráfico pase
por los n ` 1 puntos px0 , y0 q, px1 , y1 q, . . . , pxn , yn q, a este fin para k “ 0, 1, . . . , n se
Apéndice 137

construye una función Ln,k pxq tal que


#
0, si k ‰ i,
Ln,k pxi q “
1 si k “ i.

La función que cumple con esta propiedad es


n
px ´ x0 q ¨ ¨ ¨ px ´ xk qpx ´ xk`1 q ¨ ¨ ¨ px ´ xn q ź px ´ xi q
Ln,k pxq “ “ . (A.4)
pxk ´ x0 q ¨ ¨ ¨ pxk ´ xk´1 qpxk ´ xk`1 q ¨ ¨ ¨ pxk ´ xn q i“0 pxk ´ xi q
i‰k

El siguiente teorema describe el proceso para obtener el polinomio de Lagrange


usando (A.4).
Teorema A.1.2. Si x0 , x1 , . . . , xn son n ` 1 números distintos y si f es una
función cuyos valores están dados en estos números, entonces existe un único
polinomio Ppxq de grado menor o igual que n, con la propiedad
Ppxk q “ f pxk q para cada k “ 0, 1, . . . , n.
Este polinomio está dado por
Ppxq “ f px0 qLn,0 pxq ` f px1 qLn,1 pxq ` ¨ ¨ ¨ ` f pxn qLn,n pxq
n
ÿ (A.5)
“ f pxk qLn,k pxq
k “0

y se conoce como polinomio interpolador de Lagrange.


Teorema A.1.3. Sean x0 , x1 , . . . xn , n ` 1 números distintos del intervalo ra, bs
y f P Cn`1 en ra, bs. Entonces, para cada x P ra, bs existe un número ς pxq en
pa, bq tal que
n
f pn`1q pς pxqq ź
f pxq “ Ppxq ` px ´ xi q,
pn ` 1q! i“0
donde Ppxq es el polinomio interpolador de Lagrange (A.5).
Del Teorema A.1.3 se obtiene una fórmula para el error del método de
Lagrange, esta expresión es de suma importancia en la deducción de métodos
de integración numérica, tal y como se presenta en [7].

A.2 Ecuaciones de diferencias

Mientras que las ecuaciones diferenciales se ocupan de las funciones de una


variable continua, las ecuaciones de diferencias se ocupan de las funciones de
una variable discreta. En lugar de una fórmula para la derivada de una función
138 Apéndice

escrita en términos de la función en sı́, se tienen que considerar las sucesiones


para las cuales cada miembro está relacionado de una manera especı́fica con su
predecesor inmediato o varios de sus predecesores más recientes, tal y como se
muestra en [9]. Ası́ se puede escribir
y j “ φ j py j´1 , y j´2 , . . . , y j´k q para 0 ď j ď k,
donde k es el orden de la ecuación de diferencias.
En el presente libro se usa las ecuaciones de diferencias para analizar la
estabilidad de los MPML, ya que las expresiones que definen los MPML son
ecuaciones de diferencias lineales, las cuales se definen a continuación.
Definición A.2.1. Se denomina ecuación de diferencias lineal con coeficien-
tes constantes a una expresión de la forma
γN yk`N ` γN ´1 yk`N ´1 ` ¨ ¨ ¨ ` γ0 yk “ φk para 0 ď j ď k, (A.6)
donde cada γ j , 0 ď j ď N, son constantes, con γ0 ‰ 0 y γN ‰ 0.
la solución de (A.6) es una sucesión
yk , yk`1 , yk`2 , . . . ,
(
lo cual se denota y j j PN .

La ecuación (A.6) se denomina ecuación de diferencias homogénea si


φk “ 0 para todo k P N, caso contrario se denomina ecuación de diferencias
no homogénea.
Considérese la ecuación de diferencias homogénea
γN yk`N ` γN ´1 yk`N ´1 ` ¨ ¨ ¨ ` γ0 yk “ 0. (A.7)
(
Si la solución de (A.7) se denota por ŷ j jPN y una solución particular de la
(
ecuación de diferencias no homogénea (A.6), se denota por ψ j jPN . La solu-
(
ción general de (A.6) es entonces una sucesión y j jPN donde cada elemento
está dado por
y j “ ŷ j ` ψ j , j P N.
Un caso básico para calcular la solución particular de (A.6) se presenta cuando
φk es constante, es decir cuando φk “ φ P R para todo k P N.
Una solución particular de la ecuación en diferencias no homogénea viene dada
por
φ
ψk “ řN , k “ 0, 1, 2, . . . ,
j “0 γ j

siempre que el denominador sea diferente de cero.


Apéndice 139

Definición A.2.2. El conjunto de K soluciones


( de la ecuación de diferencias
homogénea (A.7), denotado por ypN,xq , x “ 1, 2, . . . , K, se dice linealmente
independiente si la combinación lineal
a1 y j,1 ` a2 y j,2 ` ¨ ¨ ¨ ` aK y j,K “ 0 para j P N,
implica que ax “ 0 para x “ 1, 2, . . . , K.
(
El conjunto de K soluciones yn,x , x “ 1, 2, . . . , K, linealmente independientes,
forma un sistema fundamental y toda solución es dada por
# +
ÿK
d j y j,t . (A.8)
x “1 j PN

Una técnica para calcular la solución de la ecuación de diferencias homogénea


(A.7) es suponer que la solución es de la forma

yk “ zk . (A.9)
Remplazando (A.9) en (A.8) se tiene
N
ÿ
k
z α jz j. (A.10)
j “0

La expresión (A.10) puede escribirse como

zk ρN pzq,

donde ρn pzq “ Nj“0 α j z j .


ř

Por lo tanto una solución trivial de (A.10) será zk “ 0 y la solución general se


presenta cuando z es una raı́z del polinomio ρN pzq. Luego la solución general
de (A.8) es
N
ÿ
yk “ α j zkj .
j“1

En el caso de raı́ces múltiples, la solución se modifica. Si ρ pzq tiene raı́ces r j ,


j “ 1, 2, . . . , p; y la raı́z r j tiene multiplicidad m j , la solución general de (A.8)
es tyn u, donde

yk “ d1,1 ` d1,2 k ` ¨ ¨ ¨ ` d1,m1 kpk ´ 1qpk ´ 2q ¨ ¨ ¨ pk ´ m1 ` 2q r1k `


“ ‰

` d2,1 ` d2,2 k ` ¨ ¨ ¨ ` d2,m2 kpk ´ 1qpk ´ 2q ¨ ¨ ¨ pk ´ m2 ` 2q r2k `


“ ‰
..
.
` d p,1 ` d p,2 k ` ¨ ¨ ¨ ` d p,m p kpk ´ 1qpk ´ 2q ¨ ¨ ¨ pk ´ m p ` 2q rkp .
“ ‰
140 Apéndice

A.3 Implementaciones

En este apéndice se presentan las implementaciones para los siguientes


MNEDO usando el software Matlab, [17]: el método de Euler y los métodos
Runge Kutta 44, tanto para el caso real como para sistemas. Adicionalmente
se incluye la implementación para el caso real del método de paso múltiplo de
Adams Bashforth 2. Las implementaciones de los otros métodos desarrolladas
en esta investigación pueden ser obtenidas contactando a los autores de este
texto, sin embargo se incentiva al lector para que realice sus propias imple-
mentaciones y realice las validaciones numéricas realizadas en este texto. Se
aclara que, estas implementaciones no se realizaron pensando en eficiencia de
memoria, ni de cómputos.
Las implementaciones de los métodos de Euler y Runge Kutta 44 resuelven el
problema de cauchy #
y1 pxq “ f px, ypxqq,
ypx0 q “ y0 ,
donde f : ra, bs ˆ R Ñ R y x P ra, bs.
1. Implementación método de Euler (2.32)

1 % M étodo de E u l e r
2 %
3 % P a r á m e t r o s de e n t r a d a
4 % a : E x t r e m o i n i c i a l d e l i n t e r v a l o de i n t e g r a c i ó n .
5 % b : E x t r e m o f i n a l d e l i n t e r v a l o de i n t e g r a c i ó n .
6 % n : N úmero de d i v i s i o n e s d e l i n t e r v a l o de i n t e g r a c i ó n
7 % y0 : C o n d i c i ó n i n i c i a l .
8 % f : F u n c i ó n p r o b l e m a de Cauchy y ’= f ( x , y ) . E s t a
9 % f u n c i ó n s e d e f i n e en un a r c h i v o e x t e r n o .
10 % Salida
11 % x : V e c t o r de p u n t o s d e l i n t e r v a l o [ a , b ] p a r a l a
12 % d i s c r e t i z a c i ó n .
13 % y : V e c t o r s o l u c i ó n n u m é r i c a p a r a l o s p u n t o s x
14 % considerados .
15

16 f u n c t i o n [ x , y ] = E u l e r ( a , b , n , y0 )
17

18 h = ( b´a ) / n ; % Tama ño de p a s o .


19 x = zeros ( 1 , n +1) ;
20 y = zeros ( 1 , n +1) ;
21 y ( 1 ) = y0 ;
22 x (1) = a ;
23

24 for k = 1: n
25 x ( k +1) = x ( k ) + h ;
26 y ( k +1) = y ( k ) + h∗ f ( x ( k ) , y ( k ) ) ;
27 end
28 end
Apéndice 141

2. Implementación método de Runge Kutta 44 (3.26)

1 % M étodo de Runge K u t t a 44
2 %
3 % P a r á m e t r o s de e n t r a d a
4 % a : E x t r e m o i n i c i a l d e l i n t e r v a l o de i n t e g r a c i ó n .
5 % b : E x t r e m o f i n a l d e l i n t e r v a l o de i n t e g r a c i ó n .
6 % n : N úmero de d i v i s i o n e s d e l i n t e r v a l o de i n t e g r a c i ó n
7 % y0 : C o n d i c i ó n i n i c i a l .
8 % f : F u n c i ó n p r o b l e m a de Cauchy y ’= f ( x , y ) . E s t a
9 % f u n c i ó n s e d e f i n e en un a r c h i v o e x t e r n o .
10 %
11 % Salida
12 % x : V e c t o r de p u n t o s d e l i n t e r v a l o [ a , b ] p a r a l a
13 % d i s c r e t i z a c i ó n .
14 % y : V e c t o r s o l u c i ó n n u m é r i c a p a r a l o s p u n t o s x
15 % considerados .
16

17 f u n c t i o n [ x , y ] = R u n g e K u t t a 4 4 ( a , b , n , y0 )
18

19 h = ( b´a ) / n ; % Tama ño de p a s o .


20 x = zeros ( 1 , n +1) ;
21 y = zeros ( 1 , n +1) ;
22

23 y ( 1 ) = y0 ;
24 x (1) = a ;
25

26 for k = 1: n
27 x ( k +1) = x ( k ) + h ;
28 k1 = f ( x ( k ) , y ( k ) ) ;
29 k2 = f ( x ( k ) +h ∗ 0 . 5 , y ( k ) +h ∗ 0 . 5 ∗ k1 )
;
30 k3 = f ( x ( k ) +h ∗ 0 . 5 , y ( k ) +h ∗ 0 . 5 ∗ k2 )
;
31 k4 = f ( x ( k ) +h , y ( k ) +h ∗ k3 ) ;
32

33 y ( k + 1 ) = y ( k ) + h ∗ ( k1 + 2 . 0 ∗ k2
+ 2 . 0 ∗ k3+k4 ) / 6 . 0 ;
34 end
35

36 end
142 Apéndice

3. Implementación método Adams Bashforth de 2 pasos (4.21)

1 % M étodo de Adams B a s h f o r t h 2
2 %
3 % P a r á m e t r o s de e n t r a d a
4 % a : E x t r e m o i n i c i a l d e l i n t e r v a l o de i n t e g r a c i ó n .
5 % b : E x t r e m o f i n a l d e l i n t e r v a l o de i n t e g r a c i ó n .
6 % n : Numero de d i v i c i o n e s d e l i n t e r v a l o de i n t e g r a c i ó n
7 % y0 : C o n d i c i o n i n i c i a l .
8 % f : F u n c i ó n p r o b l e m a de Cauchy y ’= f ( x , y ) . E s t a
9 % f u n c i o n s e d e f i n e en un a r c h i v o e x t e r i o r .
10 %
11 % Salida
12 % x : V e c t o r de p u n t o s d e l i n t e r v a l o [ a , b ] p a r a l a
13 % d i s c r e t i z a c i ó n .
14 % y : V e c t o r s o l u c i ó n n u m é r i c a p a r a l o s p u n t o s x
15 % considerados .
16

17 f u n c t i o n [ x , y ] = A d a m s B a s h f o r t h 2 ( a , b , n , y0 )
18

19 h = ( b´a ) / n ; % Tama ño de p a s o .


20 x = zeros ( 1 , n +1) ;
21 y = zeros ( 1 , n +1) ;
22

23 y ( 1 ) = y0 ;
24 x (1) = a ;
25

26 % C á l c u l o de v a l o r e s i n i c i a l e s
27 x (2)= x (1) + h ;
28 y ( 2 ) = R u n g e K u t t a 3 3 ( a , x ( 2 ) , n , y0 )
29 % y ( 2 ) = g ( x ( 2 ) ) ; %V a l o r e x a c t o p a r a a n á l i s i s de e r r o r
30

31 for k = 2: n
32 x ( k +1) = x ( k ) + h ;
33 y ( k + 1 ) = y ( k ) + h / 2 ∗ ( 3 ∗ f ( x ( k ) , y ( k ) ) ´ f ( x ( k ´ 1) , y (
k ´ 1) ) ) ;
34 end
35

36 end
Apéndice 143

La siguiente implementación corresponde al método de Runge Kutta de 4


estados y de orden 4 para sistemas y resuelve el problema de Cauchy
#
y1 pxq “ fpx, ypxqq,
ypx0 q “ y0 ,
donde f : ra, bs ˆ Rn Ñ Rn y x P ra, bs.

4. Implementación método de Runge Kutta 44 sistema (3.26)

1 % M étodo de Runge K u t t a 44 p a r a s i s t e m a s de 3 EDO .


2 %
3 % P a r á m e t r o s de e n t r a d a
4 % a : E x t r e m o i n i c i a l d e l i n t e r v a l o de i n t e g r a c i ó n .
5 % b : E x t r e m o f i n a l d e l i n t e r v a l o de i n t e g r a c i ó n .
6 % n : N úmero de d i v i s i o n e s d e l i n t e r v a l o de i n t e g r a c i ó n
7 % y1 : C o n d i c i ó n i n i c i a l p a r a l a p r i m e r a e c u a c i ó n d e l
8 % sistema .
9 % y2 : C o n d i c i ó n i n i c i a l p a r a l a s e g u n d a e c u a c i ó n d e l
10 % sistema .
11 % y3 : C o n d i c i ó n i n i c i a l p a r a l a t e r c e r a e c u a c i ó n d e l
12 % sistema .
13 % f 1 : P r i m e r a f u n c i ó n d e l s i s t e m a en e l p r o b l e m a de
14 % Cauchy y1 ’= f 1 ( x , y ) .
15 % f 2 : Segunda f u n c i ó n d e l s i s t e m a en e l p r o b l e m a de
16 % Cauchy y2 ’= f 2 ( x , y ) .
17 % f 3 : T e r c e r a f u n c i ó n d e l s i s t e m a en e l p r o b l e m a de
18 % Cauchy y3 ’= f 3 ( x , y ) .
19 %
20 % Las f u n c i o n e s f 1 , f 2 y f 3 s e d e f i n e n en a r c h i v o s
21 % externos .
22 %
23 % Salida
24 % x : V e c t o r de p u n t o s d e l i n t e r v a l o [ a , b ] p a r a l a
25 % d i s c r e t i z a c i ó n .
26 % y : M a t r i z s o l u c i ó n n u m é r i c a d e l s i s t e m a p a r a l o s
27 % puntos x considerados .
28 %
29

30 f u n c t i o n [ y , x ] = R u n g e K u t t a 4 4 S i s t e m a ( a , b , n , y1 , y2 , y3 )
31

32 h = ( b´a ) / n ; % Tama ño de p a s o .


33 x = zeros ( 1 , n +1) ;
34 y = zeros ( 3 , n +1) ;
35

36 y ( 1 , 1 ) = y1 ;
37 y ( 2 , 1 ) = y2 ;
38 y ( 3 , 1 ) = y3 ;
39 x (1) = a ;
40

41 for k = 1: n
42 x ( k +1) = x ( k ) + h ;
43
144 Apéndice

44 % C á l c u l o v e c t o r K1
45 k1 = f 1 ( x ( k ) , y ( 1 , k ) , y ( 2 , k ) , y (3 , k) ) ;
46 w1 = f 2 ( x ( k ) , y ( 1 , k ) , y ( 2 , k ) , y (3 , k) ) ;
47 z1 = f 3 ( x ( k ) , y ( 1 , k ) , y ( 2 , k ) , y (3 , k) ) ;
48 K1 = [ k1 ; w1 ; z1 ] ; % V e c t o r K1
49

50 % C á l c u l o v e c t o r K2
51 k2 = f 1 ( x ( k ) + 0 . 5 ∗ h , y ( 1 , k ) + 0 . 5 ∗ h ∗ k1 , y ( 2 , k ) + 0 . 5 ∗
h ∗ w1 , y ( 3 , k ) + 0 . 5 ∗ h ∗ z1 ) ;
52 w2 = f 2 ( x ( k ) + 0 . 5 ∗ h , y ( 1 , k ) + 0 . 5 ∗ h ∗ k1 , y ( 2 , k ) + 0 . 5 ∗
h ∗ w1 , y ( 3 , k ) + 0 . 5 ∗ h ∗ z1 ) ;
53 z2 = f 3 ( x ( k ) + 0 . 5 ∗ h , y ( 1 , k ) + 0 . 5 ∗ h ∗ k1 , y ( 2 , k ) + 0 . 5 ∗
h ∗ w1 , y ( 3 , k ) + 0 . 5 ∗ h ∗ z1 ) ;
54 K2 = [ k2 ; w2 ; z2 ] ; % V e c t o r K2
55

56 % C á l c u l o v e c t o r K3
57 k3 = f 1 ( x ( k ) + 0 . 5 ∗ h , y ( 1 , k ) + 0 . 5 ∗ h ∗ k2 , y ( 2 , k ) + 0 . 5 ∗
h ∗ w2 , y ( 3 , k ) + 0 . 5 ∗ h ∗ z2 ) ;
58 w3 = f 2 ( x ( k ) + 0 . 5 ∗ h , y ( 1 , k ) + 0 . 5 ∗ h ∗ k2 , y ( 2 , k ) + 0 . 5 ∗
h ∗ w2 , y ( 3 , k ) + 0 . 5 ∗ h ∗ z2 ) ;
59 z3 = f 3 ( x ( k ) + 0 . 5 ∗ h , y ( 1 , k ) + 0 . 5 ∗ h ∗ k2 , y ( 2 , k ) + 0 . 5 ∗
h ∗ w2 , y ( 3 , k ) + 0 . 5 ∗ h ∗ z2 ) ;
60 K3 = [ k3 ; w3 ; z3 ] ; % V e c t o r K3
61

62 % C á l c u l o v e c t o r K4
63 k4 = f 1 ( x ( k + 1 ) , y ( 1 , k ) +h ∗ k3 , y ( 2 , k ) +h ∗ w3 , y ( 3 , k )
+h ∗ z3 ) ;
64 w4 = f 2 ( x ( k + 1 ) , y ( 1 , k ) +h ∗ k3 , y ( 2 , k ) +h ∗ w3 , y ( 3 , k )
+h ∗ z3 ) ;
65 z4 = f 3 ( x ( k + 1 ) , y ( 1 , k ) +h ∗ k3 , y ( 2 , k ) +h ∗ w3 , y ( 3 , k )
+h ∗ z3 ) ;
66 K4 = [ k3 ; w3 ; z3 ] ; % V e c t o r K4
67

68 y ( : , k + 1 ) = y ( : , k ) + h ∗ ( K1 + 2 ∗ K2 + 2 ∗ K3 + K4 )
/6.0;
69 end
70

71 end
Referencias
Referencias

[1] Alpala, J. (2017). Soluciones numéricas para un modelo lineal y otro no-
lineal aplicados a la diabetes. Trabajo de grado, Universidad de Nariño,
Pasto, Colombia.
[2] Apostol, T. M. (1996). Análisis matemático, 2da ed. Barcelona: Editorial
Reverté.
[3] Akinfenwa, O. A., Jator, S. N., & Yao, N. M. (2013). Continuous block
backward differentiation formula for solving stiff ordinary differential
equations. Computers & Matematics with Applications , 65(7), 996-1005.
[4] Atkinson, K., Han, W., & Stewart, D. E. (2011). Numerical solution of
ordinary differential equations. New York: John Wiley & Sons.
[5] Bevilacqua, J. S., Rafikov. M., & Guedes, C. D. (2002). Modelagem em
biomatemática. São José do Rio Preto: USP.
[6] Braun, M. (1993). Differential equations and their applications, 4ta ed.
New York: Springer.
[7] Burden, R. L., Faires, J. D., & Burden, A. M. (2017). Análisis numérico,
10ma ed. México: Cengage Learning Editores.
[8] Butcher, J. C. (2000). Numerical methods for ordinary differential equa-
tions in the 20th century. Journal of Computational and Applied Mathe-
matics, 125(1), 1-29.
[9] Butcher, J. C. (1933). Numerical methods for ordinary differential equa-
tions. New York: John Wiley & Sons.
[10] Fatunla, S. O. (1982). Nonlinear multistep methods for initial value pro-
blems. Computers & Mathematics with Applications, 8(3), 231-239.
[11] Fatunla, S. O. (2014). Numerical methods for initial value problems in
ordinary differential equations. New York: Academic Press.
148 Referencias

[12] Grapiglia, G. N., Angelossi, K. H., & Rizzi, R. L. (2008). Modelos Ma-
temáticos da Dinámica do HIV. Anais da XXII Semana Académica da
Matemática. Cascavel: Universidade Estadual do Oeste do Paraná.
[13] Grossman, S. I., & Flores, G. (2019). Álgebra lineal, 8va ed. México:
McGraw-Hill Interamericana.
[14] Hairer, E., Nørsett, S. P., & Wanner, G. (1993). Solving ordinary diffe-
rential equations I. Nonstiff problems, 2da ed. New York: Springer-Verlag
Berlin Heidelberg.
[15] Lambert, J. D. (1973). Computational methods in ordinary differential
equations. New York: John Wiley & Sons.
[16] Loch, G. G. (2016). Sistemas rı́gidos associados a cadeias de decaimento
radioactivo. Tesis de Maestrı́a, IME-USP, São Paulo, Brasil.
[17] MATLAB. (2017). version 9.3.0.713579 (R2017a). Natick, Massachu-
setts: The MathWorks Inc.
[18] Nagle, R. K., Saff, E. B., & Snider, A. D. (2001). Ecuaciones diferenciales
y problemas con valores en la frontera. México: Pearson Educación.
[19] Ongun, M. Y. (2011). The Laplace adomian decomposition method for
solving a model for HIV infection of CD4+ T cells. Mathematical and
Computer Modelling, 53(5), 597-603.
[20] ONUSIDA. (2016). Programa Conjunto de las Naciones Unidas sobre el
VIH/SIDA. Disponible en http://www.unaids.org/es/dataanalysis
[21] Ordoñez, C. (2021). Estudio Numérico para la Aproximación de Sistemas
Rı́gidos. Trabajo de grado, Universidad de Nariño, Pasto.
[22] Perelson, A. S., Kirschner, D. E., & De Boer, R. (1993). Dynamics of HIV
infection of CD4+ T cells. Mathematical biosciences, 114(1), 81-125.
[23] Perelson, A. S., & Nelson, P. W. (1999). Mathematical analysis of HIV-1
dynamics in vivo. SIAM review, 41(1), 3-44.
[24] Perko, L. (2013). Differential equations and dynamical. New York: Sprin-
ger Science & Business Media.
[25] Ramı́rez, J. A., Estrada, J. L., De León, C. V., & Cano, M. V. (2016). Un
modelo matemático para el VIH/SIDA. Journal of Basic Sciences, 1(3).
[26] Roma, A. M., Bevilacqua, J. S. & Nós, R. L. (2021). Tratamento numérico
de equações diferenciais. Notas de aula, IME-USP, São Paulo, Brasil.
[27] Saldarriaga, O., & Giraldo, H. (2017). Álgebra lineal con el uso de Matlab.
Colombia: Editorial Universidad de Antioquia.
Referencias 149

[28] Sehnem, R., Quadros, R. S., & Buske, D. (2018). Método Numérico para
Solução de EDOs Rı́gidas na Modelagem de Reações Quı́micas. Revista
Mundi Engenharia, Tecnologia e Gest ao (ISSN: 2525-4782), 3(2). DOI:
10.21575/25254782rmetg2018vol3n2581.
[29] Sotolongo, A., & Jiménez, J. C. (2014). Construcción y estudio de códigos
adaptativos de linealización local para ecuaciones diferenciales ordina-
rias. Revista de Matemática: Teorı́a y Aplicaciones, 21(1), 21-53. DOI:
10.15517/RMTA.V21I1.14136.
[30] Spiegel, M. R. (1983). Ecuaciones diferenciales aplicadas. New York:
Prentice Hall.
[31] Süli, E. (2014). Numerical solution of ordinary differential equations. No-
tas de aula, Mathematical Institute, University of Oxford, Oxford, Ingla-
terra.
[32] Terán J., & Rúa-Alvarez, C. (2018). El método de Newton para raı́ces
complejas. Fractales en el problema de Cayley. Revista EIA, 15 (29), 97-
108.
[33] Valencia, E. (2019). Estudio numérico para ecuaciones diferenciales or-
dinarias rı́gidas utilizando ode45, ode23, ode15s y ode23s. Tesis de
maestrı́a, Universidad Pontifica Bolivariana, Medellı́n, Colombia.
[34] Yang, H., Nkeze, J., & Zhao, R. Y. (2012). Effects of HIV-1 protease on ce-
llular functions and their potential applications in antiretroviral therapy.
Cell & bioscience, 2(1),1.
[35] Zill, D. G. (2018). Ecuaciones diferenciales con aplicaciones de modela-
do, 11va ed. México: Cengage Learning Editores.
Índice alfabético
Índice alfabético

Condición de Lipschitz, 26, 27 Método de Adams Moulton de 2 pasos, 77


Condiciones iniciales, 25, 56, 79, 80 Método de Adams Moulton de 4 pasos, 77
Conjunto fundamental de soluciones, 30 Método de Euler, 38, 42, 110
Consistencia, 55, 78, 82 Método de Euler implı́cito, 46, 105
Convergencia, 55, 79, 82, 93, 107 Método de Euler mejorado, 54, 61
Costo computacional, 38, 59, 106, 109, 111 Método de Euler modificado, 61
Método de paso único explı́cito, 53
Discretización, 38 Método de paso único implı́cito, 53
Ecuación caracterı́stica, 31 Método de Runge Kutta de orden cinco con seis
Ecuación de diferencias, 70, 81, 137 estados, 62
Ecuación diferencial de orden superior, 24 Método de Runge Kutta de orden cuatro con
cuatro estados, 61
Ecuación diferencial ordinaria, 23
Método de Runge Kutta de orden tres con tres
Ecuación diferencial parcial, 23
estados, 61
Error global de discretización, 41, 54, 92, 113
Método de Simpson, 47, 75
Error local de discretización, 39, 54, 77, 115
Método de Taylor de orden 2, 59
Estabilidad, 56, 82
Método del punto medio, 71
Estabilidad absoluta, 62, 83, 96
Método del trapecio, 72
Estabilidad MPML, 79
Método del trapecio , 46
Estabilidad MPU, 64
Métodos adaptativos, 113, 116
Forma canónica de Jordan, 35 Métodos de Adams Bashforth, 75, 77, 110
Función incremento, 53 Métodos de Adams Moulton, 75
Métodos de paso único, 53, 92, 111
Integración numérica, 72 Métodos de paso múltiple, 69
Interpolación, 72, 75, 135 Métodos de paso múltiple lineales, 69, 107, 111
Intervalo de estabilidad absoluta, 65, 85, 97 Métodos de Runge Kutta, 59, 110
Métodos de Taylor, 58
Lotka-Volterra, 131
Métodos implı́citos, 46
Método de Adams Bashforth de 2 pasos, 76 Matriz diagonalizable, 35
Método de Adams Bashforth de 3 pasos, 77 Matriz exponencial, 34
Método de Adams Bashforth de 4 pasos, 77 Matriz no diagonalizable, 36
154 Índice alfabético

Norma infinito, 43 Simulación numérica, 126, 129


Sistema de ecuaciones diferenciales ordinarias de
Orden de consistencia, 55, 62, 79 primer orden, 24, 25
Orden de convergencia, 55, 79, 92 Sistema de ecuaciones diferenciales ordinarias de
primer orden lineal, 28
Polinomio caracterı́stico, 80, 82
Sistema de ecuaciones diferenciales ordinarias
Polinomio de Lagrange, 137
homogéneo, 28
Principio de superposición, 29
Sistema de ecuaciones diferenciales ordinarias no
Problema de Cauchy, 25, 27
homogéneo, 28
Puntos de malla, 39
Sistema rı́gido, 132
Raı́z principal, 82 Sistema Stiff, 132
Región de estabilidad, 65
Tamaño de paso, 39, 83, 116, 118
Región de estabilidad absoluta, 85, 96, 106
Regla de Simpson, 74 Valores propios, 31, 63, 96
Regla del trapecio, 74 Vectores propios, 31
Runge Kutta Fehlberg, 113, 117, 128 VIH/SIDA, 111, 119, 123

Series de Taylor, 39, 70, 78 Wronskiano, 29


Sobre los autores

Catalina Marı́a Rúa Alvarez: Matemática, de la Uni-


versidad de Antioquia. Realizó estudios de Maestrı́a en
Computación Cientı́fica en la Universidad de Puerto Rico
Recinto Mayagüez y Doctorado en Matemática Aplicada
en el Instituto de Matemáticas y Estadı́stica de la Uni-
versidad de Sao Paulo, Brasil. Actualmente es Profesora
Asociada del Departamento de Matemáticas y Estadı́sti-
ca de la Universidad de Nariño. Fundadora e integrante del Comité Organizador de
las Olimpiadas Regionales de Matemáticas de la Universidad de Nariño. Las áreas
de interés son: mecánica de fluidos computacional, análisis numérico, álgebra lineal
numérica, redes complejas, simulación computacional serial y distribuida, modela-
ción matemática y aplicaciones; además del planteamiento y resolución de problemas
matemáticos en olimpiadas y concursos matemáticos.

Christiam Fernando Pistala Ceballos: Licenciado en


Matemáticas, de la Universidad de Nariño. Realizó un
curso de verano en Métodos Numéricos para Ecuaciones
Diferenciales Ordinales en el Instituto de Matemáticas
y Estadı́stica de la Universidad de Sao Paulo, Brasil.
Actualmente cursa Maestrı́a en Estadı́stica Aplicada en
la Universidad de Nariño y se dedica a la enseñanza en niveles de educación bási-
ca secundaria y media. Las áreas de interés son: análisis numérico, álgebra lineal
numérica, programación, machine learning, big data, estadı́stica aplicada, modela-
ción matemática y aplicaciones.
;

También podría gustarte