Tema 4 ESP

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 7

May 9, 2023

4. OPTIMIZACIÓN CON RESTRICCIONES DE DESIGUALDAD:


EL MÉTODO DE KUHN-TUCKER

A lo largo de todo el capı́tulo, D denota un conjunto abierto de Rn .

1. Introducción
Estudiamos en este tema problemas de optimización con restricciones de desigual-
dad.
(1.1) max f (x) s.a: x ∈ S,
donde S = {x ∈ D : g1 (x) ≤ b1 , . . . , gm (x) ≤ bm } y donde f : D ⊆ Rn −→ R,
g = (g1 , . . . , gm ) : D −→ Rm . En contraste con los problemas de Lagrange, no
existe limitación del número finito de restricciones.
Nota 1.1. Una restricción del tipo gi (x) ≥ bi es equivalente a −gi (x) ≤ −bi . El
problema
min f (x) s.t.: x ∈ S,
tiene las mismas soluciones que
max −f (x) s.a: x ∈ S.

2. Condiciones necesarias de Khun-Tucker


Definición 2.1. Dado un punto x0 ∈ D, decimos que la restricción i-ésima del
problema (1.1), i = 1, 2, . . . , m, está saturada en el punto x0 , si gi (x0 ) = bi . Si
gi (p) < bi , entonces decimos que la restricción i-ésima no está saturada en el punto
x0 (o que x0 no satura la restricción).
Definición 2.2. Sea g de clase C 1 en D. El punto x0 ∈ D es regular si x0 no satura
ninguan restricción, o bien los vectores gradiente de las restricciones saturadas en
x0 forman una matriz de rango máximo (es decir, en el caso de que k ≤ m sea el
número de restricciones saturadas en el punto x0 , entonces ma matriz mencionada
tiene rango k).
Definición 2.3. La función Lagrangiana asociada a (1.1) es
(2.1) L(x, λ) = f (x) + λ · (b − g(x)),
donde λ = (λ1 , . . . , λm ).
Teorema 2.4 (Método de Kuhn-Tucker). Suponemos que las funciones f : D ⊆
Rn −→ R, g = (g1 , . . . , gm ) : D −→ Rm son de clase C 1 en D y que x0 es un punto
regular de (1.1). Si x0 es una solución del problema (1.1), entonces existe un vector
de multiplicadores λ0 = (λ01 , . . . , λ0m ) ∈ Rm tal que
∂L
∀i ∈ {1, . . . , n} (x0 , λ0 ) = 0,
∂xi
 0
 λi (bi − gi (x0 )) = 0,
∀i ∈ {1, . . . , m} λ0i ≥ 0,
gi (x0 ) ≤ bi .

Nota 2.5. Las ecuaciones


1
2
4. OPTIMIZACIÓN CON RESTRICCIONES DE DESIGUALDAD: EL MÉTODO DE KUHN-TUCKER

(1) ∇x L(x, λ) = 0,
(2) λ1 (b1 − g1 (x)) = 0, · · · , λm (bm − gm (x)) = 0,
(3) λ1 ≥ 0, . . . , λm ≥ 0,
(4) g1 (x) ≤ b1 , . . . , gm (x) ≤ bm .

se llaman ecuaciones de Kuhn-Tucker del problema (1.1).

Nota 2.6. Una forma de aplicar las condiciones necesarias del Teorema 2.4 es solu-
cionar el sistema de n + m ecuaciones y n + m incoǵnitas

 ∂L
 ∂x1 (x, λ) = 0
.. .. ..



. . .



 ∂L
(x, λ) = 0

∂xn

 λ01 (b1 − g1 (x0 )) = 0
.. .. ..





 . . .
λ0m (bm − gm (x0 ))

= 0.

De las ecuaciones (x, λ) encontradas, sólo se retienen aquéllas que satisfacen el resto
de las condiciones necesarias: x ∈ S y λi ≥ 0.

Ejemplo 2.7 (Substitutos perfectos). Supongamos que la renta de un agente es 5 y


que su función de utilidad obre dos bienes de consumo es u(x, y) = 2x + y. Si los
precios de los bienes son p1 = 3, p2 = 1 ¿cuál es la demanda de cada bien?
El problema de maximización de la utilidad del agente es

max 2x + y
s.a. 3x + y ≤ 5
x≥0
y≥0

En primer lugar escribimos este problema en la forma (1.1)

max 2x + y
s.a. 5 − 3x − y ≥ 0
x≥0
y≥0

El Lagrangiano asociado es

L(x, y) = 2x + y + λ1 (5 − 3x − y) + λ2 x + λ3 y
4. OPTIMIZACIÓN CON RESTRICCIONES DE DESIGUALDAD: EL MÉTODO DE KUHN-TUCKER
3

y las ecuaciones de Kuhn-Tucker del problema son


∂L
= 2 − 3λ1 + λ2 = 0
∂x
∂L
= 1 − λ1 + λ3 = 0
∂y
λ1 (5 − 3x − y) = 0
λ2 x = 0
λ3 y = 0
3x + y ≤ 5
x≥0
y≥0
λ1 , λ2 , λ3 ≥ 0
Observamos que si λ1 = 0 entonces la primera ecuación implica que λ2 = −2 < 0,
que contradice la ecuación λ1 , λ2 , λ3 ≥ 0. Por lo tanto, λ1 > 0. De la ecuación
λ1 (5 − 3x − y) = 0 concluimos ahora que 5 − 3x − y = 0 por lo que
y = 5 − 3x
Supongamos que x > 0. En este caso, la ecuación λ2 x = 0 implica que λ2 = 0. De
la primera ecuación deducimos que λ1 = 2/3 y sustituyendo en la segunda ecuación
obtenemos que λ3 = λ1 − 1 = −1/3 < 0 que contradice la ecuación λ1 , λ2 , λ3 ≥ 0.
Concluimos entonces que x = 0 y por tanto y = 5. Vemos que
x = 0, y = 5, λ1 = λ2 = 1, λ3 = 0
es la única solución del sistema.
Nota 2.8. Las ecuaciones Kuhn-Tucker de la proposición 2.4 sólo son válidas cuando
el problema está escrito en la forma 1.1. Si, por ejemplo, se pide resolver un prob-
lema de minimización o las desigualdades son ≥ en lugar de ≤, entonces el problema
se puede transformar de forma trivial para convertirlo en uno que venga descrito
en la forma 1.1. Por ejemplo, si nos piden minimizar f (x), esto es equivalente a
maximizar −f (x); o bien, si la restricción i-śima es gi (x) ≤ ai , eso equivale a la
restricción ai − gi (x) ≥ 0.
Nota 2.9. Si S es compacto, el Teorema de Weierstrass asegura la existencia de
soluciones globales de (1.1). Asumiendo que la hipótesis de regularidad se cumple,
estas soluciones globales serán puntos crı́ticos de f relativos a S. Estas soluciones
globales se determinan evaluando los puntos crı́ticos en la función objetivo f . Los
valores extremosl aon loa máximos y mı́nimos de f en S.

3. Condiciones suficientes. Programas convexos


Sean f : D ⊆ Rn −→ R, g = (g1 , . . . , gm ) : D −→ Rm de clase C 1 en D.
Teorema 3.1. Si en el problema (1.1), la función objetivo f es cóncava y las
restricciones g1 , . . . , gm son convexas (recordar que las restricciones son de la forma
gi (x) ≤ bi ), las condiciones necesarias de Khun-Tucker establecidas en el Teorema
(2.4) son también suficientes y si x0 ∈ S las verifica, entonces x0 es un máximo
global de f en S.
4. OPTIMIZACIÓN CON RESTRICCIONES DE DESIGUALDAD: EL MÉTODO DE KUHN-TUCKER

Nota 3.2. Si además de las hipótesis anteriores, f es estrictamente cóncava, entonces


el máximo global, de existir, es único. Por tanto, una vez que una solución (x0 , λ0 )
de las condiciones de KT ha sido hallada, podemos parar la búsqueda, puesto que
no habrá mś soluciones.

4. Restricciones de no negatividad
Muy a menudo los problemas con restricciones incluyen la no negatividad de las
variables. A pesar de que este caso es un caso particular de la teorı́a desarrollada an-
teriormente, en muchos libros de texto se describen las condiciones de Khun-Tucker
para este caso que, a primera vista, pueden parecer diferentes a las ya descritas.
En realidad, las condiciones son equivalentes, y tienen la siguiente estructura. Sea
el problema de optimización con restricciones de no negatividad siguiente:
(4.1) max f (x) s.a: x ∈ S,
donde S = {x ∈ D : g1 (x) ≤ b1 , . . . , gm (x) ≤ bm , x1 ≥ 0, . . . , xn ≥ 0} y f : D ⊆
Rn −→ R, g = (g1 , . . . , gm ) : D −→ Rm .
Definición 4.1. La función Lagrangiana asociada a (4.1) es
(4.2) L(x, λ) = f (x) + λ · (b − g(x)),
donde λ = (λ1 , . . . , λm ).
Observar que es este caso la Lagrangiana no incorpora las restricciones de no ne-
gatividad. Simplemente asigna multiplicadores al resto de restricciones gi (x) ≤ bi .
Teorema 4.2 (Método de Kuhn-Tucker para problemas con restricciones de no
negatividad). Supongamos que las funciones f : D ⊆ Rn −→ R, g = (g1 , . . . , gm ) :
D −→ Rm son de clase C 1 en D y que x0 es un punto regular de1 (4.1). Si x0 es
una solución del problema 1.1, entonces existe un vector λ0 = (λ01 , . . . , λ0m ) ∈ Rm
tal que
( ∂L
xi ∂x i
(x0 , λ0 ) = 0,
∀i ∈ {1, . . . , n} ∂L
∂xi (x0 , λ0 ) ≤ 0
 0
 λi (bi − gi (x0 )) = 0,
∀i ∈ {1, . . . , m} λ0i ≥ 0,
gi (x0 ) ≤ bi .

5. Optimización con funciones cóncavas y con funciones convexas


Seat C un subconjunto un conjunto no vacı́o convexo de Rn . Consideramos de
manera independiente los problemas de optimización siguientes:
(1) La función objetivo f : C → R es cóncava en C y el problema consiste en
max f (x)
x∈C

1Para ello, basta que la matriz cuyas columnas son los vectores gradiente
∇g1 (x0 )t , . . . , ∇gm (x0 )t , tenga rango m; no es necesario considerar las restricciones de no
negatividad en esta condición.
4. OPTIMIZACIÓN CON RESTRICCIONES DE DESIGUALDAD: EL MÉTODO DE KUHN-TUCKER
5

(2) La función objetivo f : C → R es convexa em C y el problema consiste en


min f (x)
x∈C

Proposición 5.1. Sea C un subconjunto un conjunto no vacı́o convexo de Rn . Sea


f : C → R.
(1) si f es cóncava y x0 es un máximo local de f en C, entonces x0 es un
máximo global de f en C.
(2) si f es convexa y x0 ∈ C es un mı́nimo local de f en C, entonces x0 es aun
mı́nimo global de f en C.
Proposición 5.2. Sea C ⊂ Rn un conjunto no vacı́o, abierto y convexo, x0 ∈ C y
sea f de clase C 1 en C.
(1) Si f es cóncava en C, entonces, x0 es un máximo global de f en C si y sólo
si ∇f (x0 ) = 0.
(2) Si f es convexa en C, entonces x0 es un mı́nimo global de f en C isi y sólo
si ∇f (x0 ) = 0.
Demostración Si, por ejemplo, f es cóncava, entonces para cada x ∈ D tenemos
que
f (x) ≤ f (p) + ∇f (p)(x − p) = f (p)
ya que ∇f (p) = 0.
Nota 5.3. Si una función es estrictamente cóncava (resp. convexa) entonces se
verifica que
f (x) < f (p) + ∇f (p)(x − p) = f (p)
6
4. OPTIMIZACIÓN CON RESTRICCIONES DE DESIGUALDAD: EL MÉTODO DE KUHN-TUCKER

y vemos que si tiene un máximo (resp. mı́nimo), entonces éste es único. Tambión
se puede demostrar directamente a partir de la definición, sin necesidad de utilizar
las condiciones de primer orden.
Proposición 5.4. Sea C ⊆ Rn no vacı́ y convexo let f : C → R. Entonces
(1) El conjunto formado por los mı́nimos globales de una función convexa, es
convexo.
(2) El conjunto formado por los máximos globales de una función cóncava, es
convexo.
Proof Probaremos sólo la primera afirmación, pues la segunda es inmediata con-
siderando −f , que es una función cóncava si f es convexa. Sea M el conjunto de
minimizadores de f . Si M = ∅, entones el resultado es trivial.. Sean x1 , x2 ∈ M y
sea λ ∈ [0, 1]. Tenemos m = f (xi ) ≤ f (x), para todol x ∈ M , para i = 1, 2. Dado
que f es convexa, f (λx1 + (1 − λ)x2 ) ≤ λf (x1 ) + (1 − λ)f (x2 ) = m, por lo que
λx1 + (1 − λ)x2 es un mı́nimo global de f , luego λx1 + (1 − λ)x2 ∈ M y M es
convexo.
Teorema 5.5. Sean C ⊆ Rn un conjunto no vaciı́ y convexo, f : C → R y sea x0
un punto interior de C. Entonces
(1) Si f es convexa y x0 es un máximo global de f en C, entonces f es constante.
(2) Si f es cóncava y x0 is mı́nimo global de f en C, entoncesn f es constante.
Definición 5.6. Sea C ⊆ Rn un conjunto convexo. Un punto x0 ∈ C es un vértice
de C si x0 = λx1 + (1 − λ)x2 para x1 , x2 ∈ C y λ ∈ [0, 1], implica λ = 0 o λ = 1.
Es decir, un punto del conjunto es un vértice, si no puede expresarse como combi-
nación convexa no trivial de otros dos puntos del conjunto. Notar que los vértices
son siempre puntos frontera que pertenecen al conjunto (pero no todo punto fron-
tera es un vértice, ¿por qué?). Por ejemplo, consideremos los conjuntos
C1 = {(x, y) ∈ R2 : x + y < 1},
C2 = {(x, y) ∈ R2 : x + y ≤ 1},
C3 = {(x, y) ∈ R2 : x + y ≤ 1, x ≥ 0, y ≥ 0},
C4 = {(x, y) ∈ R2 : x2 + y 2 ≤ 1}.
Todos son conjuntos convexos. Ni C1 ni C2 tienen vértices. C3 tiene tres vértices,
los puntos (0, 0), (0, 1) y (1, 0). C4 tiene un número infinito de vértices (la circun-
ferencia x2 + y 2 = 1).
Teorema 5.7. Sea C ⊆ Rn un conjunto no vacı́o, convexo y compacto, y sea
f : C → R continua. Entonces C tiene vértices y además:
(1) Si f es convexa, entonces f alcanza máximo global en alguno de los vértices
de C.
(2) Si f es cóncava, entonces f alcanza mı́nimo global en alguno de los vértices
de C.
Ejemplo 5.8. La función f (x, y) = −x2 −y 2 +ln(1+x+y) es (estrictamente) cóncava
en el conjunto compacto y convexo C3 descrito anteriormente. Las derivadas de f
son  
1 1
∇f (x, y) = −2x + , −2y +
1+x+y 1+x+y
4. OPTIMIZACIÓN CON RESTRICCIONES DE DESIGUALDAD: EL MÉTODO DE KUHN-TUCKER
7

1 1
 
−2 − −
 (1 + x + y)2 (1 + x + y)2 
Hf (x, y) =  .
 1 1 
− 2
−2 − 2
(1 + x + y) (1 + x + y)
1
Los menores principales de la matriz Hessiana de f son: ∆1 = −2 − (1+x+y) 2 < 0,
4
y ∆2 = 4 + (1+x+y)2 > 0 .
Los vértices de C3 fueron determinados como (0, 0), (0, 1) y (1, 0). Por el teorema
anterior, los mı́nimos globales de f en C3 se encuentran entre estos puntos. Dado
que f (0, 0) = 0, f (0, 1) = f (1, 0) = −1 + ln 2 < −1 + ln e = −1 + 1 = 0, los puntos
(0, 1) y (1, 0) son mı́nimos globales de f en C3 .
Notar que el teorema no dice nada sobre los máximos de f . Podrı́an localizarse
sobre el interior o sobre la frontera de C3 . Para hallarlos, habrı́a que resolver el
problema de KT correspondiente. Sin embargo, en este caso, las condiciones de
primer orden de optimalidad
∂f 1
(x, y) = −2x + = 0,
∂x 1+x+y

∂f 1
(x, y) = −2y + = 0,
∂y 1+x+y
√ √
tienen como única solución el punto ( 14 ( 5 − 1), 14 ( 5 − 1)), que pertenece al con-

junto C3 , pues sus componentes son no negativas y suman 12 ( 5 − 1) ≤ 1. Por
tanto, dicho punto es el único máximo global de f en C3 (y en todo R2+ ).

También podría gustarte