2 Parcial
2 Parcial
2 Parcial
Contents
1 Resolución de Sistemas de Ecuaciones no Lineales 2
1.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Método de Aproximaciones Sucesivas . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Método de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1
1 Resolución de Sistemas de Ecuaciones no Lineales
1.1 Introducción
Sea D ∈ Rn y sean f, g : D ∈ Rn → Rn funciones continuas. Consideraremos en este
tema sistemas (algebraicos) no lineales, que escribimos en forma homogénea o en forma
de punto fijo, como:
(SH)
f1 (x1 , ..., xn ) = 0
f (x) = 0 ⇔ ...
fn (x1 , ..., xn ) = 0
(SPF)
g1 (x1 , ..., xn ) = x1
g(x) = x ⇔ ...
g (x , ..., x ) = x
n 1 n n
2
1.2 Método de Aproximaciones Sucesivas
Consideremos el sistema no lineal en forma de punto fijo
(SPF)
g1 (x1 , ..., xn ) = x1
g(x) = x ⇔ ...
gn (x1 , ..., xn ) = xn
Entonces:
1.∃!α ∈ D solución del (SPF).
2.El (MAS) es globalmente convergente hacia α.
3. Se tienen las siguientes estimaciones de error
∥xk+1 − α∥ ≤ L∥xk − α∥ y ∥xk − α∥ ≤ Lk ∥x0 − α∥(a priori)
L Lk
∥xk − α∥ ≤ ∥xk − xk−1 ∥ y ∥xk − α∥ ≤ ∥x1 − x0 ∥(a posteriori)
1−L 1−L
En particular, la convergencia es al menos lineal.
Lema B
Sea D ⊆ Rn convexo y compacto, y sea g ∈ C 1 (D) (es decir, que existe un abierto
G tal que D ⊆ G y g ∈ C 1 (G)). Si
∂gi (x)
maxx∈D ∥g ′ (x)∥ ≤ L (g ′ (x) = ( )ij )
∂xj
para alguna norma matricial ∥A∥ (que es consistente con alguna norma vectorial ∥u∥),
entonces
∥g(x) − g(y)∥ ≤ L∥x − y∥, ∀x, y ∈ D
Teorema C
(Convergencia local).
Entonces, ∃ρ ≥ 0 tal que el (MAS) converge hacia α, ∀x0 ∈ B(α, ρ), con convergencia
al menos lineal.
3
1.3 Método de Newton
Sea f : D ⊆ Rn → Rn derivable. Se considera el sistema no lineal homogéneo
(SH)
f (x) = 0
Por razones análogas a las del caso escalar, (SH) se escribe como el sistema de punto fijo
(SPF)
x = x − (f ′ (x))−1 f (x)
que será equivalente al (SH) si la matriz jacobiana f ′ (x) es regular. El método de
Newton es el (MAS) asociado al anterior (SPF):
(MN)
x0 ∈ Rn dado
xk+1 = xk − (f ′ (xk ))−1 f (xk )∀k ≥ 0
Desde el punto de vista algorı́tmico, el método consiste en, dado xk ,
1. Hallar la solución, δ k , del sistema lineal (f ′ (xk ))δ k = f (xk ).
2. Hacer: xk+1 = xk − δ k .
Teorema D
(Convergencia local).
Variante de Whittaker
(MW)
x0 ∈ Rn dado
xk+1 = xk − M −1 f (xk )∀k ≥ 0
4
2 Interpolación Polinómica Avanzada y Ajuste de Curvas
Cuando hablamos del problema de interpolación hablamos de hallar una función que
pase por un soporte dado, sin embargo, cuando hablamos de un problema de ajuste de
datos, buscamos una función que se parezca a la dada, sin necesariamente pasar por
los puntos dados.
Dada f ∈ C 0 ([a, b]) y un soporte S = {x0 < ... < xn } ⊆ [a, b] de n+1 puntos
distintos, consideramos el siguiente problema de interpolación:
Hallar p ∈ Pn [x] tal que
p(xi ) = f (xi ), ∀i = 0, ..., n
Teorema A
(Existencia y Unicidad)
Fijados un soporte de n+1 puntos distintos S = {xi }n y unos valores reales {yi }n
cualesquiera, existe un único p.i. de los valores {xi , yi }n , es decir existe un único
p ∈ Pn [x] tal que p(xi ) = yi , i = 0, ..., n.
Demostración
5
Teorema B
(Expresión del error y acotación)
Sea f ∈ C n+1 ([a, b]). Fijados un soporte S = {xi }n ⊆ [a, b], y los valores asociados
{f (xi )}n y el p.i. p ∈ Pn [x] tal que p(xi ) = f (xi ), i = 0, ..., n, entonces se tiene que
∀x ∈ [a, b], ∃ξx ∈ (a, b) tal que
f n+1) (ξx )
f (x) − p(x) = ωS (x)
(n + 1)!
donde ωS (x) = (x − x0 )(x − x1 )...(x − xn ) es el polinomio soporte asociado a S.
Demostración
6
Algoritmos de Construcción
Algoritmo de Newton
Fijados un soporte de n+1 puntos distintos S = {x0 , ..., xn } y unos valores reales {yi}n
cualesquiera, el algoritmo de Newton de construcción del polinomio de
interpolación consiste en buscar el polinomio de interpolación pn ∈ Pn [x] de la forma:
pn (x) = c0 + c1 (x − x0 ) + ... + cn (x − x0 )...(x − xn−1 )
Se trata de ir calculando los coeficientes de forma iterativa.
La ventaja del método es que permite la fácil incorporación de nuevos puntos al soporte,
pero si queremos calcular distintos polinomios con mismo soporte y distintos puntos
asociados, los cálculos son completamente distintos.
Algoritmo de Lagrange
Fijados un soporte de n+1 puntos distintos S = {x0 , ..., xn } y unos valores reales {yi}n
cualesquiera, el algoritmo de Lagrange de construcción del polinomio de
interpolación consiste en buscar el polinomio de interpolación pn ∈ Pn [x] de la forma:
pn (x) = y0 L0 (x) + ... + yn Ln (x)
donde Li ∈ Pn [x], tal que Li (xi ) = 1 y Li (xj ) = 0 para cada j ̸= i (es decir, es un p.i.
asociado a los valores canónicos {0, ..., 1, ..., 0}). No es difı́cil comprobar que Li (x) es
de la forma:
(x − x0 )...(x − xi−1 )(x − xi+1 )...(x − xn )
Li (x) = ∀i = 0, ..., n
(xi − x0 )...(xi − xi−1 )(xi − xi+1 )...(xi − xn )
El conjunto de polinomios {Li }n se llama la base de Lagrange asociada a los puntos
{xi }n , es decir, una base del espacio vectorial de polinomios de interpolación asociados
a dicho soporte.
Identificando el polinomio de interpolación con los valores {yi }n , la base de Lagrange
son los polinomios de interpolación correspondientes a la base canónica de Rn+1 .
La ventaja del método es que permite calcular distintos polinomios con mismo so-
porte y distintos puntos asociados fácilmente, pero si queremos añadir nuevos puntos
al soporte, es necesario calcular de nuevo la base de polinomios de Lagrange asociada.
Convergencia Uniforme
Sean f ∈ C 0 ([a, b]) y {Sn}n una sucesión de soportes contenidos en [a,b] tales que
Sn tiene n+1 puntos distintos. Sea pn el polinomio de interpolación asociado a f y Sn .
Se plantea la siguiente cuestión: ¿ Existe limn→∞ pn (x) = f (x), ∀x ∈ [a, b]?
7
Problema B (Interpolación global de Hermite)
Dada f ∈ C 1 ([a, b]) y un soporte S = {x0 < ... < xn } ⊆ [a, b] de n+1 puntos
distintos, consideramos el siguiente problema de interpolación:
Hallar p ∈ P2n+1 [x]tal que
p(xi ) = f (xi ), p′ (xi ) = f ′ (xi ), ∀i = 0, ..., n
Teorema C
(Existencia y Unicidad)
Fijados un soporte de n+1 puntos distintos S = {xi }n y unos valores reales {yi }n
y {zi }n cualesquiera, existe un único p.i. de los valores {xi , yi , zi }n , es decir existe un
único p ∈ P2n+1 [x] tal que p(xi ) = yi , p′ (xi ) = zi , i = 0, ..., n.
Demostración
8
Teorema D
(Expresión del error y acotación)
Sea f ∈ C 2n+2 ([a, b]). Fijados un soporte S = {xi }n ⊆ [a, b], y los valores asocia-
dos {f (xi )}n , {f ′ (xi )}n y el p.i. p ∈ P2n+1 [x] tal que p(xi ) = f (xi ), p(xi ) = f ′ (xi ),
i = 0,...,n, entonces se tiene que ∀x ∈ [a, b], ∃ξx ∈ (a, b) tal que
f 2n+2) (ξx )
f (x) − p(x) = ωS (x)2
(2n + 2)!
donde ωS (x) = (x − x0 )(x − x1 )...(x − xn ) es el polinomio soporte asociado a S.
Demostración
Si x ∈
/ S, consideremos la función auxiliar
ϕ(t) = f (t) − p(t) − λωS (t)2 , t ∈ R, λ ∈ R
Ahora bien, como p ∈ P2n+1 [x], tenemos ϕ2n+2) (t) = f 2n+2) (t) − λ(2n + 2)!.
9
2.2 Interpolación a trozos y convergencia uniforme
Se fija una partición P = {a = x0 < ... < xn = b} del intervalo [a,b] y se usa
la interpolación (simple) en cada subintervalo Ii = [xi−1 , xi ],i=1,...,n por polinomios
de grado ≤ m con m pequeño, m < n (en la práctica m = 1, 2, 3). Si llamamos
h = max1≤i≤n (xi − xi−1 ) (el diámetro de la partición), se trata de aproximar f en [a,b]
haciendo h → 0 (en particular n → ∞).
Dada f ∈ C 0 ([a, b]) y una partición P = {x0 < ... < xn } ⊆ [a, b]. Dado m ∈ N
i
(m pequeño en la práctica), en cada Ii = [xi−1 , xi ], elegimos un soporte Sm
de m+1 puntos distintos (por simplicidad considerando sus extremos):
i
Sm = {xi−1 , ξi,1 , ..., ξi,m−1 , xi }
El problema de interpolación a trozos consiste en
Hallar ph ∈ Vh = {qh ∈ C 0 ([a, b]) : qh |Ii ∈ Pm [x]} tal que
ph (xi ) = f (xi ), ∀i = 0, ..., n y ph (ξi,j ) = f (ξi,j ), ∀j = 1, ..., m − 1
Es claro que, gracias a la existencia y unicidad del polinomio de interpolación de la
i
función f en Sm ⊆ Ii , i = 0,...,n, se tiene la existencia y unicidad del polinomio de
interpolación a trozos ph . Notemos que, en cada Ii , la función ph es un polinomio de
grado ≤ m y que, en principio, ph es solo continua en los extremos de los subintervalos.
Por ejemplo, para m = 1 la interplación a trozos no es más que una poligonal.
Teorema E
(Estimaciones de error en norma uniforme)
Demostración
Dado x ∈ [a, b], existe i=1,...,n tal que x ∈ Ii . Luego, para cada i=1,...,n,
ph (x) = pim (x), siendo pim (x) el polinomio de interpolación asociado al soporte Sm
i
⊆ Ii .
Como f ∈ C m+1 ([a, b]), podemos usar el teorema sobre el error de interpolación de
Lagrange en cada subintervalo Ii , i=1,...,n y afirmar que
Mm+1
∥f − ph ∥∞,Ii ≤ ∥ωSm
i ∥∞,I
i
(m + 1)!
m+1
Usando que ∥ωSm
i ∥∞,I ≤ h
i
concluimos la demostración del teorema. ■
10
2.3 Splines
Se fija una partición P = {a = x0 < ... < xn = b} del intervalo [a,b] y unos
valores {yi }n ,se trata de construir funciones polinómicas a trozos (en cada subintervalo
Ii = [xi , xi+1 ],i=0,...,n-1) que interpolan los valores yi en los nodos xi (se obtienen ası́
funciones continuas globalmente) y además se les impone más regularidad global.
Definición
(Función spline)
Sean P = {a = x0 < ... < xn = b} una partición del intervalo [a,b], {yi }n unos
valores cualesquiera y k ∈ N. Diremos que sh : [a, b] → R es una función spline de
grado k que interpola {yi }n en {xi }n , si sh ∈ Vh con
Vh = {qh ∈ C k−1 ([a, b]) : qh |[xi−1 ,xi ] ∈ Pk [x], i = 1, ..., n}
Cuando k=1 se habla de un spline lineal (que coincide con la interpolante a trozos con
rectas), para k=2 se refiere a un spline cuadrático y k=3 corresponde a un spline cúbico.
Splines Cúbicos
Para cada i=1,...,n, sh |Ii ∈ P3 [x] viene determinado por 4 coeficientes. Luego, como
hay n subientervalos, tenemos 4n incógnitas a determinar. Los grados de libertad
disponibles son:
1. 2n condiciones de interpolación:
sh |Ii (xi−1 ) = f (xi−1 ), i = 1, ..., n; sh |Ii (xi ) = f (xi ), i = 1, ..., n
11
Splines Cuadráticos
Sea f ∈ C 0 ([a, b]), P = {a = x0 < ... < xn = b} una partición del intervalo [a,b] e
Ii = [xi−1 , xi ], i=1,...,n. Determinar un spline cuadrático sh consiste en hallar sh tal
que
sh ∈ Vh = {qh ∈ C 1 ([a, b]) : qh |[xi−1 ,xi ] ∈ P2 [x], i = 0, ..., n − 1}
y que verifica sh (xi ) = f (xi ), i = 0, ..., n.
Para cada i=1,...,n, la restricción sh |Ii ∈ P2 [x] viene determinado por 3 coeficientes
y, como hay n subintervalos, tenemos 3n incógnitas a determinar. Por otra parte, de
entre los grados de libertad disponibles, hay 2n condiciones de interpolación y n-1
condiciones al exigir la regularidad global C 1 . En total son 3n-1 grados de libertad.
En consecuencia, sobra una incógnita, que se puede fijar por ejemplo con una condición
sobre la derivada en uno de los extremos, para tener existencia y unicidad de spline
cuadrático interpolador.
12
2.4 Mejor Aproximación Mı́nimos Cuadrados
Problema D (Ajuste de Curvas)
Dada f ∈ C 0 ([a, b]), hallar una función “fácil de calcular” g que se “ajuste” bien a
f en [a,b], es decir, que dist(f, g) ≤ ϵ, para una cierta distancia entre funciones.
Definición
(Mejor aproximación)
Demostración
13
Unicidad. Del cálculo anterior, se tiene
∥f − u∥2 = ∥f − u∥2 + ∥u − u∥2 , ∀u ∈ U
de donde, en particular, se tiene la unicidad del Problema. ■
Teorema G
Demostración
Las igualdades previas pueden ser escritas como el siguiente sistema lineal:
Ga=b [Ecuaciones normales],G [Matriz Grammiana] donde
a0 ⟨f, φ1 ⟩
G = {⟨φi , φi ⟩}ni,j=1 ; a = . ; b = .
aN ⟨f, φN ⟩
Ahora bien, G es una matriz simétrica y definida positiva. En efecto, sea a ∈ RN − {0}
cualquiera, se tiene
N
X XN N
X N
X
t
a Ga = ⟨φi , φj ⟩ai aj = ⟨ ai φ i , aj φ j ⟩ = ∥ ai φi ∥2 > 0
i,j=1 i=1 j=1 i=1
porque N
P
i=1 ai φi ̸= 0 ya que el vector a ̸= 0 y los φi , i=1,...,N son linealmente
independientes. ■
14
Resolución de ecuaciones normales con base ortogonal
Para la resolución del sistema lineal de ecuaciones normales, las mejores bases {φ1 , ..., φN }
son las bases ortogonales y ortonormales respecto del producto escalar ⟨., .⟩, ya que
entonces la matriz grammiana es diagonal.
De hecho, si {φ1 , ..., φN } es una base ortogonal, i.e. ⟨φi , φj ⟩ = 0 para i ̸= j, entonces
la matriz Grammiana G es diagonal, con G = diag(∥φi ∥2 ) y, en consecuencia,
N
X ⟨f, φi ⟩
u= φi
i=1
∥φi ∥2
Para una base ortonormal, i.e. ⟨φi , φj ⟩ = δi,j , la matriz Grammiana G es la matriz
identidad, luego
XN
u= ⟨f, φi ⟩φi
i=1
2.Construcción directa. Por ejemplo, 1, cos(x), sen(x), cos(2x), sen(2x), ..., cos(nx), sen(nx)
es un sistema ortogonal en L2 (−π, π). Con un cambio de variable afı́n [a, b] ⇔ [−π, π],
llegamos a un sistema ortogonal en L2 (a, b).
15
Mejor aproximación en seminormas hilbertianas (caso discreto)
16
3 Resolución Numérica de Ecuaciones Diferenciales Ordinarias (EDO)
3.1 Introducción al problema de valor inicial (PVI). Algunos resultados teóricos
Por simplicidad, en este tema analizaremos problemas de valor inicial (PVI) en donde
conocida la solución en t = t0 , se pretende aproximar en t ∈ [t0 , t0 + T ], y para EDO
escalares, es decir N = 1. (Las soluciones a izquierda son análogas).
Definición
17
Vamos a considerar el análisis numérico de (PVI). Para ello, supondremos que
f ∈ C 0 ([t0 , t0 + T ] × R) y localmente Lipschitz/y
T
h= ,N ∈ N
N
yn+1 − yn
δt yn+1 := (derivada discreta)
h
tn+1 = tn + h
h
tn+ 1 = tn +
2 2
h2
φ(tn+1 ) = φ(tn + h) = φ(tn ) + hφ′ (tn ) + φ′′ (ξn )
2
Veremos métodos iterativos de un paso y con paso de tiempo (o parámetro de
discretización) h.
Más concretamente, fijada una partición uniforme del intervalo
[t0 , t0 + T ]:t0 < ... < tn < tN = t0 + T, {tn = t0 + nh}N n=0 y, dado el valor de arranque
(inicialización) y0 ≈ ỹ0 = φ(t0 ), en cada paso de tiempo, dado yn ≈ φ(tn ) se trata de
calcular yn+1 ≈ φ(tn+1 ), tales que:
18
3.2 El método de Euler
(EE)
y0 dado (inicialización)
δt yn+1 = f (tn , yn ), n = 0, ..., N − 1 (iteración n+1)
Consistencia y orden
Definición
Definición
Diremos que el método (EE) es consistente (con la EDO y ′ = f (t, y)) si, para toda
solución φ de (PVI), se verifica que
Diremos que el método (EE) es de orden (al menos) p > 0, si existen dos constantes
positivas K y h∗ (independientes de h) tal que
∥ε(φ)∥∞ ≤ Khp , ∀h ≤ h∗
Teorema A
19
Convergencia, orden de convergencia y estimaciones del error
Definición
(Error de discretización)
Se llama error de discretización de (EE) asociado a la solución φ al vector e = (en )N
n=0 ,
donde en = φ(tn ) − yn es el error de discretización (local) en el instante tn .
Definición
(Convergencia)
Diremos que el esquema (EE) es convergente si, bajo la condición limh→0 |e0 | = 0, se
verifica que
limh→0 ∥e∥∞ ≡ limh→0 (max0≤n≤N −1 |e|) = 0
Definición
(Orden de convergencia)
Diremos que el orden de convergencia de (EE) es (al menos) p > 0 si, partiendo una
condición inicial tal que |e0 | ≤ C0 hp , se verifica
∥e∥∞ ≤ Chp , ∀h ≤ h∗
para ciertas constantes positivas C0 ,C y h∗ independientes de h.
Definición
(Esquema acotado)
Diremos que el esquema (EE) es acotado si existe un compacto K ⊆ R tal que
yn ∈ K, ∀n = 0, ..., N ; ∀h ≤ h∗
A continuación se demostrarán dos resultados de carácter técnico que usaremos más
adelante.
Lema B
Sean (an )n≥0 , (bn )n≥0 dos sucesiones de números reales no negativos y K > 1 tales
que an+1 ≤ Kan + bn , ∀n ≥ 0. Entonces, se verifica
Kn − 1
an ≤ K n a0 + max0≤k≤n−1 |bk |
K −1
Demostración
Usando la hipótesis junto con la expresión explı́cita de una suma parcial geométrica,
podemos escribir
an ≤ Kan−1 + bn−1 ≤ K(Kan−2 + bn−2 ) + bn−1 = K 2 an−2 + Kbn−2 + bn−1 ≤ ...
≤ K n a0 + K n−1 b0 + K n−2 b1 + ... + Kbn−2 + bn−1
Kn − 1
≤ K n a0 + (K n−1 + K n−2 + ... + K + 1)max0≤k≤n−1 |bk | = K n a0 + max0≤k≤n−1 |bk |
K −1
de donde se deduce el resultado. ■
20
Lema C
Sean (an )n≥0 , (cn )n≥0 dos sucesiones de números reales no negativos y Λ > 0 tales
que an+1 ≤ (1 + hΛ)an + hcn , ∀n ≥ 0. Entonces, se verifica
enhΛ − 1
an ≤ enhΛ a0 + max0≤k≤n−1 |ck |
Λ
Demostración
Teorema D
Corolario E
Bajo las hipótesis del Teorema D, supongamos además que φ ∈ C 2 ([t0 , t0 +T ]). Entonces
el método de Euler (EE) es convergente con orden de convergencia uno si |e0 | ≤ C0 h.
Además, se verifica la siguiente estimación del error de discretización:
h
∥e∥∞ ≤ C1 C0 h + C2 ∥φ′′ ∥∞;[t0 ,t0 +T ] , ∀h ≤ h∗
2
21
Estabilidad
La estabilidad estudia la dependencia continua del esquema (EE) respecto a los datos
del esquema. En concreto, se trata de comparar el esquema (EE) con un esquema
perturbado
(EPE)
z0 = y0 + δ0 dado (inicialización)
δt zn+1 = f (tn , zn ) + δn , n = 0, ..., N − 1 (iteración n+1)
N −1
con (δn )n=0 ∈ RN .
Definición
(Error de estabilidad)
−1
Se llama error de estabilidad de (EE) al vector s = (sn )Nn=0 , donde sn = zn − yn es el
−1
error de estabilidad en el instante tn . Denotamos δ al vector (δn )N
n=0 .
Definición
Diremos que el método de Euler es estable si, para cada ε > 0, existen constantes
−1
γ > 0 y h∗ > 0 tal que, si δ = (δn )N
n=0 ∈ R
N
satisface ∥δ∥∞ ≤ γ, entonces,
∥s∥∞ ≤ ϵ, ∀h ≤ h∗
El hecho de que un esquema sea estable es fundamental para que dicho esquema sea
aplicable en la práctica.
La estabilidad es una propiedad difı́cil de demostrar con hipótesis generales. Aquı́, solo
veremos un caso muy particular, imponiendo que f sea globalmente Lipschitz respecto
de la variable y.
Teorema F
22
Aplicándolo el Lema C para an = |sn |, cn = |δn |, Λ = L y, teniendo en cuenta que
nh = tn − t0 , obtenemos la siguiente estimación
El resultado del Teorema continua siendo cierto si solo suponemos que f es localmente
Lipschitziana respecto de su segunda componente y que las sucesiones {yn } y {zn } están
acotadas en R respecto de h, ∀h ≤ h∗ . En efecto, basta razonar como en la prueba del
Teorema D, usando que f es globalmente Lipschitz/y en un compacto que contenga a
{yn } y {zn }.
23
Demostración
1. Veamos que se trata de un método bien definido. En efecto, en cada etapa, hay
que resolver la ecuación no lineal:
yn+1 = yn + hf (tn + h, yn+1 )
con incógnita yn+1 y datos tn , yn , h. De forma genérica, tenemos que estudiar la ecuación
no lineal
z = g(z) := y + hf (t + h, z)
con incógnita z ∈ R y datos t,y,h. La aplicación g : R → R es continua. Además,
veamos que g es contractiva en R, con lo que la ecuación anterior tiene una única
solución z = z(t, y, h) ∈ R. En efecto,
|g(z1 ) − g(z2 )| = h|f (y, z1 ) − f (y, z2 )| ≤ hL|z1 − z2 |
Aquı́, hemos usado el carácter globalmente Lipschitz de f. Luego la hipótesis hL < 1
implica la contractividad de g en K.
24
3.3 Métodos generales de un paso
(G1P)
y0 dado (inicialización)
δt yn+1 = ϕ(tn , yn , h), n = 0, ..., N − 1 (iteración n+1)
donde ϕ : [t0 , t0 +T ]×R×[0, h∗ ] → R una función continua dada (depende de la función
f del (PVI)) y h∗ > 0. Los conceptos de consistencia, estabilidad y convergencia
considerados para el método de Euler (EE) se pueden generalizar para el esquema
(G1P), obteniendo resultados generales de consistencia, estabilidad y convergencia.
Consistencia y orden
−1
El error de consistencia asociado al esquema (G1P) viene definido por ε(φ) = (εn (φ))N
n=0
siendo
εn (φ) = δt φ(tn+1 ) − ϕ(tn , φ(tn ), h)
Se tiene
h2 ′′ h3 ∂ϕ h2 ∂ 2 ϕ
εn (φ) = φ′ (tn )+ φ (tn )+ φ′′′ (tn )+...−ϕ(tn , φ(tn ), 0)−h (tn , φ(tn ), 0)− (tn , φ(tn ), 0)−...
2! 3! ∂h 2! ∂ 2 h
1 ∂ϕ
= (f (tn , φ(tn )) − ϕ(tn , φ(tn ), 0)) + h( f ′ (tn , φ(tn )) − (tn , φ(tn ), 0))
2 ∂h
h2 1 ∂ 2ϕ
+ ( f ′′ (tn , φ(tn )) − 2 (tn , φ(tn ), 0)) + ...
2! 3 ∂ h
Teorema H
25
Convergencia, orden de convergencia y estimaciones del error
Teorema I
Demostración
Por otra parte, gracias a que el orden de consistencia es p y que ∥ε(φ)∥∞ ≤ Khp
(por el Teorema H), llegamos fácilmente al segundo resultado, de donde concluimos la
prueba del teorema. ■
26
Estabilidad
(G1PP)
z0 dado (inicialización)
δt zn+1 = ϕ(tn , zn , h) + δn , n = 0, ..., N − 1 (iteración n+1)
Como en el caso del esquema de Euler, en el apartado de estabilidad supondremos que
la función ϕ es globalmente Lipschitz/y con constante de Lipschitz Λ > 0.
Teorema J
e(tn −t0 )Λ − 1
|sn | ≤ e(tn −t0 )Λ |s0 | + max0≤k≤N −1 |δk |
Λ
donde sn = zn − yn , ∀n ≥ 0.
Demostración
Corolario K
(Teorema de Lax)
Demostración
27
3.4 Métodos de Taylor
Hemos visto que cuanto más grande sea p, más rápido converge el método. Interesa, por
tanto idear métodos de un paso con p elevados. Dado p ∈ N, la idea más simple para
construir un método de orden p es utilizar el desarrollo de Taylor. Más concretamente,
tenemos
h2 hp+1 p+1)
φ(tn+1 ) = φ(tn ) + hφ′ (tn ) + φ′′ (tn )... + φ (ξn )
2! (p + 1)!
h2 ′ hp+1 p−1)
= φ(tn ) + hφ′ (tn ) + f (tn , φ(tn )) + ... + f (tn , φ(tn )) + O(hp+1 )
2! (p + 1)!
siendo ξn ∈ (tn , tn+1 ). Aproximando φ′ (tn ) ≈ φ(tn+1h)−φ(tn ) , llegamos al método de
Taylor, es decir al esquema (G1P) para la función ϕ definida
h hp−1 p−1)
ϕ(t, y, h) = f (t, y) + f ′ (t, y) + ... + f (t, y)
2 p!
Para esta función ϕ, el Teorema H se verifica trivialmente, luego el método de Taylor
es de orden p > 0.
p−1
Por otra parte, este método es estable si las {f n) }n=0 son globalmente Lipschitz/y con
p−1
constantes de Lipschitz {Li }n=0 .
En efecto, según el Teorema J, basta comprobar que ϕ es globalmente Lipschitziana
p−1
respecto de su segunda variable con constante de Lipschitz Λ = L1 + h2 L2 +...+ h p! Lp−1 .
Luego, el método converge con orden de convergencia p.
28
3.5 Métodos de Runge-Kutta (explı́citos)
La idea principal de los métodos de Runge-Kutta es, dado p ∈ N, obtener esquemas
de orden al menos p, sin usar derivadas parciales de f, sino evaluaciones de f en puntos
intermedios entre (tn , yn ) y (tn+1 , yn+1 ).
(RK)
y0 dado (inicialización)
δt yn+1 = qi=1 bi ki , n ≥ 0 (iteración n+1)
P
En (RK), los parámetros que podemos elegir son q, bi , ci , aij . Obsérvese que c1 = 0, es
decir, k1 = f (tn , yn ). Se trata de un método de un paso para
q
X
ϕ(t, y, h) = bi ki
i=1
29
3.6 Problemas de Contorno (P.Co) para EDO
(P.Co)
y ′′ = f (x, y, y ′ ), x ∈ [a, b]
y(a) = α, y(b) = β
donde f : [a, b] × R × R → R es una función continua dada y a, b, α, β ∈ R.
Los problemas de contorno no siempre tienen solución (y si la tienen, no tiene por qué
ser única).
Teorema L
(P.CoL)
y ′′ = p(x)y ′ + q(x)y + r(x), x ∈ [a, b]
y(a) = α, y(b) = β
Corolario M
30
3.7 Método de las diferencias finitas para (P.Co) lineales
Supondremos las hipótesis del Corolario M: p, q, r ∈ C 0 ([a, b]) y q > 0 en [a,b].
Para el caso general, veamos hipótesis sobre h para que la matriz A sea de diagonal
estrictamente dominate. Queremos verificar:
h h
|2 + h2 q(x1 )| > | − 1 + p(x1 )|; |2 + h2 q(xN )| > | − 1 − p(xN )|
2 2
h h
|2 + h2 q(xj )| > | − 1 + p(xj )| + | − 1 − p(xj )|; j = 2, ..., N − 1
2 2
h 2
Suponiendo h pequeño tal que 2 |p(x)| ≤ 1, ∀x ∈ [a, b], es decir h ≤ maxx∈[a,b] |p(x)|
se
cumplen las 3 desigualdades. En consecuencia, entonces A es de diagonal estrictamente
dominante, luego en particular A es regular para h suficientemente pequeño y el
problema discreto (PD) admite una única solución.
Podemos considerar también otras condiciones de contorno, por ejemplo de tipo Neu-
mann, Dirichlet-Neumann y algunas condiciones mixtas.
31