Gracias A Que Usamos La Norma Matricial Inducida Por La Norma Vectorial 2. Tomando X Como El Vector Propio Asociado Al Valor Propio Mas Grande de A A
Gracias A Que Usamos La Norma Matricial Inducida Por La Norma Vectorial 2. Tomando X Como El Vector Propio Asociado Al Valor Propio Mas Grande de A A
Considere el problema
1
mı́nn kAx − bk2 + kxk1 ,
x∈R 2
donde A ∈ Rm×n , y da respuesta a las siguientes preguntas:
(a) Para cuales valores del tamaño de paso τ converge forward-backward splitting
aplicado a este problema?
(b) Cómo puedes aplicar PDPS a este problema, y para cuales valores de los tamaños
del paso τ , σ converge el método?
Demostración.
(a) Consideramos F (x) = 12 kAx − bk2 y G (x) = kxk1 para el método forward-
backward splitting. Es sencillo ver que F es Fréchet diferenciable y su derivada
es ∇F (x) = AT Ax − AT b. Más aún, ∇F es L-Lipschitz, efectivamente
k∇F (x) − ∇F (x)k =
AT Ax − AT b − AT Ay + AT b
=
AT A (x − y)
≤
AT A
kx − yk
donde
AT A
es la norma inducida
por la norma vectorial 2. Ya que AT A
es diagonalizable tenemos que1
AT A
≤ ρ AT A , donde ρ AT A es el ra-
T
dio espectral
de A
A, adicionalmente
T
para toda norma
inducida se tiene que
T T T
ρ A A ≤ A A , de modo que A A = ρ A A . De modo que, la constante
de Lipschitz continuidad es L = ρ AT A . Luego, del Teorema 9.6 [CV20, pg.
−1
111] el algoritmo forward-backward splitting converge si τ < 2ρ AT A .
El Corolario 9.13 [CV20, pg. 116] nos indica que el método PDPS converge si
τ σ < ρ(A1T A) .
1
Gracias a que usamos la norma matricial inducida por la norma vectorial 2.
2
Tomando x como el vector propio asociado al valor propio mas grande de AT A.
1
Ejercicio 2. Sean F : Rn → R y G : Rm → R convexas, propias y semicontinuas
inferiores. Sea también K ∈ Rm×n . Consideramos el problema
0 ∈ H uk+1 + M uk+1 − uk
(1)
de donde
Luego, para que el método sea convergente basta dar condiciones para K de modo
que cumpla el Lema 9.11 [CV20, pg. 115]. Es sencillo ver que M es auto-adjunto y
acotado.
hM u, vi = hτ −1 x + K T y, v1 i + hKx + σ −1 y, v2 i = hu, M vi ,
kM uk =
τ −1 x + K T y
+
Kx + σ −1 y
≤ C kuk ,
donde C = 1 + kKkL(Rn ×Rm ) máx {τ −1 , σ −1 } > 0.
2
Ahora, para que M sea definida positiva se tiene que cumplir τ kKk2L(Rn ×Rm ) < 1 y
σ < 1. En efecto, sea u = (x, y) ∈ Rn × Rm , cualquiera. Entonces
hM u, ui = hτ −1 x + K T y, xi + hKx + σ −1 y, yi
= τ −1 kxk2 + σ −1 kyk2 + 2hKx, yi.
Consideramos el término hKx, yi. Tenemos la siguiente acotación
2hKx, yi = kKxk2 + kyk2 − kKx − yk2
≥ kKxk2 + kyk2 − 2 kKxk2 − 2 kyk2
≥ − kKk2L(Rn ×Rm ) kxk2 − kyk2 .
Usando esta acotación, tenemos que
hM u, ui ≥ τ −1 kxk2 + σ −1 kyk2 − kKk2L(Rn ×Rm ) kxk2 − kyk2 (2)
= τ −1 − kKk2L(Rn ×Rm ) kxk2 + σ −1 − 1 kyk2
(3)
e kxk2 + kyk2
=C (4)
n o
donde Ce = mı́n τ −1 − kKk2 n m , (σ −1 − 1) > 0. Ası́, hM u, ui ≥ C e kuk2 , para
L(R ×R )
todo u ∈ Rn × Rm . Esto muestra que M es positiva definida. Con estas hipótesis,
y usando el Corolario 9.13 [CV20, pg. 116], aseguramos la convergencia del método
generado por H y M de este ejercicio.
3
Note que si k → ∞, tk+1 diverge. Esto muestra que el método diverge con un tamaño
de paso que no cumple τ L < 2.
Demostración. Por un lado, tenemos que todo x∗ que minimiza f cumple el principio de
Fermat [CV20, pg. 38], además del Teorema 4.6 [CV20, pg. 39] tenemos que ∇f (x∗ ) =
0. Con esto podemos mostrar que todo mininizador de f es un punto fijo de T = I−τ ∇f
y viceversa, efectivamente
T (x∗ ) = x∗ − τ ∇f (x∗ ) = x∗ .
Por otro lado, del ejercicio 5 de la hoja #4 sabemos que T es firmemente no ex-
pansivo sı́ y solo sı́ τ L ≤ 1; más aún, del Teorema 6.15 [CV20, pg. 70] tenemos que
f es (1/2)-average sı́ y solo sı́ τ L ≤ 1. Ası́, usando el teorema de punto fijo de Brow-
der [CV20, pg. 120] tenemos que la sucesión del método de descenso del gradiente,
k+1 k 4
x = T x , converge fuertemente a x e, punto fijo de T . Es decir, el método de
descenso del gradiente converge a un minimizador de f
4
El teorema de punto fijo de Browder nos da convergencia débil, sin embargo, en Rn , la convergencia
débil y fuerte son equivalentes.
4
Bibliografı́a