Capítulo 5 Teoría Lagrangiana

Anuncio
Capítulo 5
Teoría Lagrangiana
5.1.
Condiciones para problemas con restricciones
de igualdad.
Se desea resolver el problema
P : mı́n
s.a :
(5.1)
f (x)
hi (x) = 0 i = 1, 2 . . . , m
donde f : IR n −→ IR y hi : IR n −→ IR m son funciones diferenciables con continuidad. Por simplicidad h(x) = (h1 (x), . . . , hm (x)).
Nótese que la intersección de las restricciones hi (x) = 0 formarán un recinto
convexo entonces podemos utilizar las técnicas presentadas en el capitulo 3 y 4.
Lo que se va a desarrollar es una herramienta alternativa a los métodos iterados
del tema anterior que permitirá identicar los mínimos locales del problema (5.1).
1o ) Sea x∗ un mínimo local del problema (P) y sea α > 0. Consideremos la familia
de funciones
k
α
F k (x) = f (x) + kh(x)k2 + kx − x∗ k2 ,
2
2
k = 1, 2, . . .
Por ser x∗ mínimo local existe un > 0 tal que f (x∗ ) ≤ f (x) para todo x
factible y con x ∈ S(x∗ ) = {x : kx − x∗ k ≤ }. Nótese que el conjunto S(x∗ )
es acotado y cerrado. Tomemos los problemas
P k : mı́n
s.a :
F k (x)
∗
x ∈ S(x )
(5.2)
(5.3)
La norma kh(x)k y la función f (x) son continuas por tanto la función F k (x)
es continua y además S(x∗ ) es compacto entonces existe un mínimo en el
5.1 Condiciones para problemas con restricciones de igualdad.
68
problema P k . Sea xk solución de P k , y {xk }k sucesión de soluciones de (P k )k .
Como {xk } ⊂ S(x∗ ) entonces contiene una subsucesión convergente que por
comodidad denominaremos igual. Por tanto
{xk } −→ x̄ ∈ S(x∗ )
2o Puesto que x∗ ∈ S(x∗ ), se tiene que
F k (xk ) ≤ F k (x∗ ) = f (x∗ ) ∀k
donde F k (x∗ ) = f (x∗ ) + k2 kh(x∗ )k2 + α2 kx∗ − x∗ k2 . Como F k (xk ) está acotada
∀k entonces kh(xk )k2 −→ 0 cuando k −→ ∞ y por continuidad se obtiene que
h(x̄) = 0.
Así pues cuando k −→ ∞ se tiene que f (x̄) + α2 kx̄ − x∗ k2 ≤ f (x∗ ). Ahora bien
como x∗ es el mínimo local debería ocurrir que f (x∗ ) ≤ f (x̄) + α2 kx̄ − x∗ k2
en consecuencia tenemos que kx̄ − x∗ k2 = 0 y esto ocurre si y sólo si x̄ = x∗ .
Como consecuencia de esto para k sucientemente grande xk ∈ intS(x∗ ).
Como puede observarse este razonamiento nos permite obtener el mínimo local del problema original como límite de las soluciones de problemas perturbados
irrestringidos.
Teorema 5.1.1 Sea x∗ un mínimo local de f con h(x) = 0. Supongamos que las
restricciones verican 5h1 (x∗ ), . . . , 5hm (x∗ ) son linealmente independientes (x∗ es
regular). Entonces existe un único vector λ∗ = (λ∗1 , . . . , λ∗m ) tal que:
5f (x∗ ) +
m
X
λ∗i 5 hi (x∗ ) = 0.
i=1
Si f y h son dos veces diferenciables con continuidad se tiene
0
2
∗
y (5 f (x ) +
m
X
λ∗i 52 hi (x∗ ))y ≥ 0 ∀i = 1, . . . , m
∀y ∈ V (x∗ )
i=1
V (x∗ ) = {y : 5hi (x∗ )0 y = 0, ∀i = 1, . . . , m}.
Demostración. Puesto que los mínimos de xk de F k son interiores para k sucientemente grande, la condición necesaria de optimalidad en xk para F k es:
0 = 5F k (xk ) = 5f (xk ) + k 5 h(xk )h(xk ) + α(xk − x∗ ).
(5.4)
Dado que 5hi (x∗ ) son linealmente independientes, la matriz ∇h(x∗ ) es de rango
total. Por tanto, la matriz (5h(x∗ )0 5 h(x∗ )) tiene inversa. Por tanto existe un
5.1 Condiciones para problemas con restricciones de igualdad.
69
entorno de x∗ en la que la matriz (5h(x)0 5 h(x)) también tiene inversa. Así pues,
tiene sentido considerar
0
0
(5h(xk ) 5 h(xk ))−1 5h(xk ) .
Ahora multiplicamos por la izquierda la expresión (5.4)
0
0
0 = k(5h(xk ) 5 h(xk ))−1 5h(xk ) 5 h(xk )h(xk )
0
+(5h(xk ) 5 h(xk ))−1 5 h(xk )[5f (xk ) + α(xk − x∗ )]
luego
0
0
k.h(xk ) = −(5h(xk ) 5 h(xk ))−1 5h(xk ) [5f (xk ) + α(xk − x∗ )].
0
Tomando límite a ambas partes de la igualdad −(5h(xk ) 5h(xk ))−1 es diferenciable
y continua entonces tomar límite en esa expresión es tomar limite dentro de ella)
como el límite de la derecha existe podemos escribir
λ∗ = lı́m k.h(xk ) = −(5h(x∗ )0 5 h(x∗ ))−1 5h(x∗ )0 [5f (x∗ )];
k−→∞
es decir existe un λ∗ = lı́m k.h(xk ). Ahora tomemos límite en la expresión (5.4)
k−→∞
cuando k −→ ∞
0 = 5f (x∗ ) + λ∗ 5 h(x∗ ) + α(x∗ − x∗ )
0 = 5f (x∗ ) + λ∗ 5 h(x∗ )
m
X
0 = 5f (x∗ ) +
(λ∗i ) 5 hi (x∗ )
i=1
Luego hemos probado que existe un único λ tal que
∗
0 = 5f (x ) +
m
X
λi 5 hi (x∗ ).
i=1
Observar que se ha llegado a una expresión exacta de los multiplicadores de Lagrange
que depende del mínimo local x∗ que es desconocido, pero resolviendo el sistema dado
anteriormente se obtienen a la vez x∗ y λ. Nótese que el hessiano de F k (xk ) viene
dado por
0
52 F k (xk ) = 52 f (xk ) + k5h(xk ) 5 h(xk ) +
m
X
k · h(xk ) · 52 hi (xk ) + α · I.
i=1
5.1 Condiciones para problemas con restricciones de igualdad.
70
Tomemos en forma arbitraria y ∈ V (x∗ ) y sea y k la proyección de y sobre V (xk ) =
0
{z : 5h(xk ) z = 0 }. Si queremos proyectar un vector sobre la variedad lineal
Az = 0 aplicamos la fórmula
0
0
y k = y − 5h(xk )(5h(xk ) 5 h(xk ))−1 5h(xk ) y.
Tomamos límite cuando k −→ ∞; por la continuidad y la diferenciabilidad de
0
5h(xk )(5h(xk ) 5 h(xk ))−1 se tiene
lı́m y k = y − 5h(x∗ )(5h(x∗ )0 5 h(x∗ ))−1 5h(x∗ )0 y
k
pero cuando k −→ ∞ se obtiene 5h(x∗ )0 y = 0 por tanto y k tiende a y .(i.e. lı́mk y k =
y)
Aplicando la condición necesaria de segundo orden
∀k
0
0 ≤ y k 52 F k (xk )y k
m
X
k0
2
k
= y [5 f (x ) +
khi (xk ) 52 hi (xk )]y k +
i=1
k0
k 2
0
αky k + y 5 h(xk )5h(xk ) y k
0
Sea y ∗ es la proyección de y sobre {z : 5hi (x∗ )0 z = 0, ∀i}. Puesto que y k 5h(xk ) = 0
0
y 5h(xk ) y k = 0 entonces para todo y k
0
0 ≤ y k 52 F k (xk )y k
k0
2
k
= y [5 f (x ) +
m
X
khi (xk ) 52 hi (xk )]y k + αky k k2
i=1
luego como y k −→ y y xk −→ x∗ cuando k −→ ∞, si tomamos límite tenemos
0
2
∗
0 ≤ y [5 f (x ) +
m
X
λ∗i 52 hi (x∗ )]y + αkyk2 ,
∀y ∈ V (x∗ ),
∀α > 0
i=1
Si esta expresión es cierta ∀α > 0 también es cierta cuando α −→ 0 con lo que
0
2
∗
0 ≤ y [5 f (x ) +
m
X
λ∗i 52 hi (x∗ )]y
∀y ∈ V (x∗ ).
i=1
La interpretación geométrica de la condición del teorema de multiplicadores es
que en un mínimo local x∗ , el gradiente de la función objetivo debe pertenecer al
subespacio generado por los gradientes de las restricciones en x∗ . Esto es, ∇f (x∗ ) +
∇h(x∗ )λ∗0 = 0. Igualmente se puede interpretar como que el gradiente de la función
5.1 Condiciones para problemas con restricciones de igualdad.
71
objetivo en el óptimo debe ser ortogonal al espacio de variaciones factibles de primer
orden V (x∗ ).
Para continuar introducimos un problema auxiliar, cuyas soluciones coinciden
con el problema original (P), y que se utilizará en la demostración de la condición
suciente. Consideremos
mı́n
s.a
f (x)
h(x) = 0
construimos funciones Lagrangianas Lc (x, λ) = f (x) + 2c kh(x)k2 + λ0 h(x). Su gradiente tiene la forma
5x L(x∗ , λ∗ ) = 5x f (x∗ ) + λ0 5x h(x∗ )
puesto que h(x∗ ) = 0. Entonces x∗ es un mínimo local si
5x L(x∗ , λ∗ ) = 0, 5λ L(x∗ , λ∗ ) = 0, y 0 52xx L(x∗ , λ∗ )y ≥ 0 ∀y ∈ V ∈ (x∗ )
Las condiciones necesarias las pueden vericar mínimos, máximos u otros puntos. A
continuación desarrollaremos condiciones sucientes. Para ello nos basaremos en un
resultado técnico sobre matrices.
Lema 5.1.2 Sean P y Q matrices simétricas, Q semidenida positiva y P denida
positiva sobre el subespacio {x : x0 Qx = 0}. (x0 P x > 0 ∀x/x0 Qx = 0). Entonces
existe un c̄ > 0 tal que la matriz P + cQ es denida positiva para todo c > c̄.
Observación: Si es denida positiva debe ocurrir que x0 (P + cQ)x > 0 ∀x 6= 0
La condición suciente nos la da el siguiente teorema
Teorema 5.1.3 Sean f y h dos veces diferenciables con continuidad y sean x∗ y λ∗
tales que
i) 5x L(x∗ , λ∗ ) = 0,
5λ L(x∗ , λ∗ ) = 0
ii) y 0 52xx L(x∗ , λ∗ )y > 0,
∀y 6= 0,
5h(x∗ )0 y = 0
entonces x∗ es un mínimo local estricto de f sujeto a h(x) = 0. De hecho, existen
γ > 0, > 0 tales que:
γ
f (x) ≥ f (x∗ ) + kx − x∗ k2
2
y
kx − x∗ k < .
∀x, h(x) = 0
5.1 Condiciones para problemas con restricciones de igualdad.
72
Demostración. Consideremos la función
c
Lc (x, λ) = f (x) + λ0 h(x) + kh(x)k2 ,
2
c ∈ IR .
Esta es la función Lagrangiana del problema:
mı́n
s.a :
c
f (x) + kh(x)k2
2
h(x) = 0
que tiene el mismo mínimo del problema original. Los gradientes de Lc son
5x Lc (x, λ) = 5f (x) + 5h(x)(λ + ch(x))
52xx Lc (x, λ) = 52 f (x) +
m
X
(λi + chi (x)) 52 hi (x) + c 5 h(x)5h(x)0
i=1
Ahora por (i) e (ii)
5x Lc (x∗ , λ∗ ) = 5f (x∗ ) + 5h(x∗ )λ∗ = 5x L(x∗ , λ∗ ) = 0
52xx Lc (x∗ , λ∗ ) = 52xx f (x∗) +
=
m
X
λ∗i 52 hi (x∗ ) + c 5 h(x∗ )5h(x∗ )0
i=1
2
∗
5xx L(x , λ∗ ) +
(5.5)
(5.6)
c 5 h(x∗ )∇h(x∗ )0 .
Entonces por (5.6) y (5.5) tenemos que:
y 0 52xx L(x∗ , λ∗ )y > 0 ∀y 6= 0
tal que
y 0 5 h(x∗ )5h(x∗ )0 y = 0,
luego aplicando el lema anterior existe un c̄ tal que:
52xx Lc (x∗ , λ∗ ) es denida positiva
∀c > c̄.
(5.7)
Ahora aplicamos la condición suciente de optimalidad a Lc (., λ∗ ) para c > c̄. Por
(5.2), (5.5)y(5.6) deducimos que x∗ es un mínimo local estricto de Lc (., λ∗ ) y además
existen γ > 0, > 0 tales que:
γ
Lc (x, λ∗ ) ≥ Lc (x∗ , λ∗ ) + kx − x∗ k2
2
∀x, kx − x∗ k < .
Puesto que para todo x con h(x) = 0, Lc (x, λ∗ ) = f (x) sigue que:
γ
f (x) ≥ f (x∗ ) + kx − x∗ k2
2
∀x, h(x) = 0, kx − x∗ k ≤ 5.2 Condiciones para problemas con desigualdades
73
Con lo que x∗ es un mínimo local estricto de f (x) sujeto a h(x) = 0. Los multiplicadores tienen una interpretación económica muy interesante. Se
pueden entender como la tasa de cambio del valor objetivo como función del lado
derecho de las restricciones (nivel de las restricciones).
Lo veremos en el caso de un problema con una única restricción lineal.
mı́n
sa
f (x)
(5.8)
a0 x = b.
Supongamos que x∗ , λ∗ son la solución óptima y el multiplicador óptimo. Si cambiamos b a b + 4b el mínimo cambiará a x∗ + 4x. 4b y 4x están relacionados
mediante
a0 (x∗ + 4x) = b + 4b,
entonces como a0 x∗ = b se tiene
a0 4 x = 4b.
Usemos la condición de Lagrange 5f (x∗ ) = −λ∗ a0
4coste = f (x∗ + 4x) − f (x∗ )
= 5f (x∗ )0 4 x + o(k 4 xk)
= −λ∗ a0 4 x + o(k 4 xk)
= −λ∗ 4 b + o(k 4 xk)
por tanto
λ∗ =
− 4 coste
4b
hasta el orden 1.
Este resultado es cierto en general para restricciones no necesariamente lineales,
como puede verse en la proposición 5.2.3.
5.2.
Condiciones para problemas con desigualdades
mı́n
f (x)
sa :
h1 (x) = 0, . . . , hm (x) = 0
g1 (x) ≤ 0, . . . , gr (x) ≤ 0
(5.9)
5.2 Condiciones para problemas con desigualdades
74
que es equivalente al problema
(5.10)
mı́n
f (x)
sa :
h(x) = 0
g(x) ≤ 0
En un punto x, A(x) = {j : gj (x) = 0} es el conjunto de restricciones activas.
Si x∗ es un mínimo local de (5.10) es también un mínimo local del problema en
el que las restricciones inactivas en x∗ se han eliminado. Por otra parte en el entorno
de x∗ las restricciones activas se pueden considerar como igualdades de manera que
x∗ será un mínimo local de:
(5.11)
mı́n
f (x)
sa :
h(x) = 0
∀j ∈ A(x∗ )
gj (x) = 0,
Por tanto si x∗ es regular (los gradientes son l.i.) existirán multiplicadores λ∗ =
(λ∗1 , . . . , λ∗m ) y µ∗j ∀j ∈ A(x∗ ) tales que:
∗
5f (x ) +
m
X
X
λ∗i 5 hi (x∗ ) +
µ∗j 5 gj (x∗ ) = 0
j∈A(x∗ )
i=1
y si asociamos µ∗j = 0 ∀j ∈
/ A(x∗ ) tendríamos una denición similar a la del caso
con igualdades.
∗
5f (x ) +
m
X
λ∗i
∗
5 hi (x ) +
i=1
r
X
µ∗j 5 gj (x∗ ) = 0
j=1
µ∗j = 0 ∀j ∈
/ A(x∗ )
Además se puede argumentar intuitivamente que los µ∗j son no negativos. En
efecto, si consideramos las restricciones gj (x) ≤ bj con bj > 0 el valor óptimo del
problema será menor pues la región factible ha crecido. Por tanto como sabemos que
−4 coste debido a
bj
µ∗j =
> 0( pues ( 4 coste debido a bj ) ≤ 0 y los bj > 0)
bj
A continuación daremos la demostración rigurosa
Teorema 5.2.1 Sea x∗ un mínimo local de (5.10) y x∗ es regular. Entonces existen
multiplicadores únicos λ∗ = (λ∗1 , . . . , λ∗m ), µ∗ = (µ∗1 , . . . , µ∗r ) tales que
5x L(x∗ , λ∗ , µ∗ ) = 0,
µ∗j ≥ 0 ∀j
µ∗j = 0,
∀j ∈
/ A(x∗ )
5.2 Condiciones para problemas con desigualdades
75
donde A(x∗ ) = {j : gj (x∗ ) = 0}. Si además las funciones son dos veces diferenciables
con continuidad se verica que
y 0 52xx L(x∗ , λ∗ , µ∗ )y ≥ 0,
donde V (x∗ ) = {y|5hi (x∗ )0 y = 0 ∀i,
∀y ∈ V (x∗ )
5gj (x∗ )0 y = 0 ∀j ∈ A(x∗ )}
Demostración.
La demostración es consecuencia de la discusión del resultado para igualdades.
Solo queda por probar que µ∗j ≥ 0 ∀j. Consideremos las funciones
gj+ (x) = máx{gj (x), 0} ∀j
y para cada k = 1, 2, . . . el problema
mı́n
s.a :
k
F k (x) = f (x) + kh(x)k2 +
2
r
X
k
1
(gj+ (x))2 + kx − x∗ k2
2 j=1
2
x ∈ S = {x : kx − x∗ k ≤ };
>0
Nos damos cuenta que (gj+ (x))2 es diferenciable y su gradiente es 2gj+ (x) 5 gj (x).
Si xk minimiza F k (xk ) sobre S un argumento similar al del teorema (5.1.1) prueba
que xk −→ x∗ y que los multiplicadores λ∗ , µ∗ están dados por :
λ∗i =
µ∗j =
lı́m khi (xk ),
∀i = 1, . . . , m
lı́m kgj+ (xk ),
∀j = 1, 2, . . . , r
k−→∞
k−→∞
puesto que gj+ (x) ≥ 0 esto prueba que µ∗j ≥ 0 ∀j.
Proposición 5.2.2 (Condición suciente de segundo orden) Supongamos que
f , h, y g son dos veces diferenciables con continuidad, y sean x∗ ∈ IR n , λ∗ ∈ IR m y
µ∗ ∈ IR r satisfaciendo
5x L(x∗ , λ∗ , µ∗ ) = 0,
h(x∗ ) = 0,
g(x∗ ) ≤ 0,
(5.12)
µ∗j ≥ 0,
j = 1, . . . , r
(5.13)
µ∗j = 0,
j∈
/ A(x∗ ),
(5.14)
y 0 52xx L(x∗ , λ∗ , µ∗ )y > 0,
para todo
y 6= 0 con y ∈ V (x∗ )
(5.15)
5.2 Condiciones para problemas con desigualdades
76
donde
V (x∗ ) = {y| 5 hi (x∗ )y 0 = 0, i = 1, . . . , m, 5gj (x∗ )0 y = 0, j ∈ A(x∗ )}.
(5.16)
Asumimos también que
µ∗j > 0,
∀j ∈ A(x∗ ).
(5.17)
Entonces x∗ es un mínimo local estricto de f sujeto a h(x) = 0, g(x) ≤ 0.
Demostración. Esto es sencillo de vericar usando nuestra suposición, que para el
problema equivalente de restricciones de igualdad
mı́n
f (x)
s.a.
h1 (x) = 0, . . . , hm (x) = 0,
(5.18)
(5.19)
g1 (x) + z1 2 = 0, . . . , gr (x) + zr 2 = 0,
donde nosotros hemos introducido variables adicionales z1 , . . . , zr . La condición suciente de segundo orden es satisfecha por donde zj∗ = (−gj (x∗ ))1/2 . Por tanto
(x∗ , z1∗ , . . . , zr∗ ), λ∗ , µ∗ es un mínimo local estricto para el problema (5.17) y el siguiente resultado. La condición (5.17) es conocida como la condición de complementariedad estricta.
Proposición 5.2.3 (Sensibilidad) Sean f , h, y g dos veces diferenciables con con-
tinuidad y consideremos la familia de problemas:
mı́n
f (x)
s.a. h(x) = u,
(5.20)
g(x) ≤ v,
parametrizada por los vectores u ∈ IR m y v ∈ IR r . Suponemos que para (u, v) =
(0, 0) este problema tiene un mínimo local x∗ , que es regular y que satisface junto con
sus vectores de multiplicadores de lagrange asociados λ∗ y µ∗ , la condición suciente
de segundo orden de (5.2.2) entonces existe una esfera abierta S centrada en (u, v) =
(0, 0) tal que para todo (u, v) ∈ S existen x(u, v) ∈ Rn y λ(u, v) ∈ IR m , µ(u, v) ∈ IR r ,
que son un mínimo local y su vector de multiplicadores de Lagrange asociado (5.20).
Además, x(.), λ(.) y µ(.) son diferenciables con continuidad en S y x(0, 0) = x∗ ,
λ(0, 0) = λ∗ y µ(0, 0) = µ∗ . Además, para todo (u, v) ∈ S , se verica que
5u p(u, v) = −λ(u, v) y 5v p(u, v) = −µ(u, v),
(5.21)
donde p(u, v) es la función de valor parametrizada por (u, v)
p(u, v) = f (x(u, v)).
(5.22)
5.3 El caso de restricciones lineales
5.3.
77
El caso de restricciones lineales
Este caso es especialmente interesante pues los mínimos locales siempre poseen
multiplicadores incluso en el caso en el que los puntos no son regulares. Consideremos
el problema:
(5.23)
mı́n
f (x)
s.a :
aj 0 x ≤ b j
∀j = 1, 2, . . . , r
Los resultados en este caso son consecuencia del lema de Farkas, este establece que:
r
X
C = {x : x =
µj aj , µj ≥ 0 ∀j}
(5.24)
j=1
es cerrado y acotado y coincide con
{x : x0 y ≤ 0 para todo y
tal que a0j y ≤ 0 ∀j}
Proposición 5.3.1 Sea x∗ un mínimo local de f. Entonces existen multiplicadores
µ∗1 , . . . , µ∗r , µ∗j ≥ 0 tales que:
∗
5f (x ) +
r
X
(5.25)
µ∗j aj = 0
j=1
µ∗j = 0
∀j ∈
/ A(x∗ )
donde A(x∗ ) = {j : a0j x∗ = bj }
Demostración. El mínimo local también lo es del problema:
mı́n
f (x)
s.a :
aj 0 x ≤ b j ,
(5.26)
∀j ∈ A(x∗ )
La condición de optimalidad es:
5f (x∗ )0 (x − x∗ ) ≥ 0 ∀x/aj 0 x ≤ bj , j ∈ A(x∗ )
(5.27)
Puesto que aj 0 x ≤ bj para todo j ∈ A(x∗ ) si y sólo si aj (x − x∗ ) ≤ 0 para todo
j ∈ A(x∗ ), la condición de optimalidad es:
∀j ∈ A(x∗ ).
(5.28)
P
Aplicando el lema de Farkas sigue que : − 5 f (x∗ ) = j∈A(x∗ ) µj aj , µj ≥ 0 ∀j ∈
A(x∗ ) y µj = 0 ∀j ∈
/ A(x∗ ). 5f (x∗ )0 y ≥ 0 ∀y/aj 0 y ≤ 0,
Si además la función objetivo es convexa se obtienen unas condiciones necesarias
y sucientes más potentes que en el caso restringido usual.
5.3 El caso de restricciones lineales
78
Proposición 5.3.2 Sea f convexa y diferenciable con continuidad y J ⊂ {1, 2, . . . ,
r} entonces x∗ es un mínimo global si y sólo sí x∗ es factible y existen escalares µ∗j ,
/ A(x∗ )
j ∈ J , µ∗j ≥ 0 j ∈ J, µ∗j = 0 ∀j ∈ J j ∈
X
x∗ = arg 0 mı́n {f (x) +
µ∗j (aj 0 x − bj )}
(5.29)
aj x≤bj ,j ∈J
/
j∈J
Demostración.
Supongamos que x∗ es mínimo local. Aplicamos Lagrange, y existen µ∗1 , . . . , µ∗r ≥
0
µ∗j (aj 0 x∗ − bj ) = 0, i = 1, . . . , r
r
X
∗
5f (x ) +
µ∗j aj = 0
j=1
Por la convexidad de f , de esta última ecuación deducimos que:
∗
x ∈ arg mı́nn f (x) +
x∈IR
∗
f (x ) = mı́nn f (x) +
x∈IR
r
X
µ∗j (aj 0 x − bj )
j=1
r
X
µ∗j (aj 0 x − bj )
i=1
a su vez implica
f (x∗ ) ≤
mı́n
0
aj x≤bj ,j ∈J
/
{f (x) +
X
µj (aj 0 x − bj )}.
Recíprocamente supongamos que x∗ es factible y existen escalares µ∗1 , . . . , µ∗j ≥
0, j ∈ J vericando las condiciones del teorema. De la condición (5.29) se deduce que:
(5f (x∗ ) +
X
µ∗j aj )0 (x − x∗ ) ≥ 0 x, aj 0 x ≤ bj ,
j∈J
si x es un vector factible y j ∈ A(x∗ ) se tiene
aj 0 x ≤ b j = aj 0 x ∗
y como µ∗j = 0 ∀j ∈ J y j ∈
/ A(x∗ )
X
µ∗j (aj 0 (x − x∗ )) ≤ 0;
j∈J
por lo tanto junto con (5.30) deducimos:
5f (x∗ )(x − x∗ ) ≥ 0 ∀x factible.
j∈
/J
(5.30)
5.3 El caso de restricciones lineales
79
Lo que con la convexidad de f implica mínimo global. Importante notar que dado
x∗ los vectores µ∗ no dependen del conjunto J . Para establecer las relaciones de dualidad necesitamos introducir el problema
dual de un problema dado. Consideremos el problema siguiente, que llamaremos
primal (P):
mı́n
f (x)
s.a: e0i x = di i = 1, . . . , m,
a0j x ≤ bj j = 1, . . . , r, x ∈ X
siendo X un conjunto poliédrico y f una función convexa, continuamente diferenciable. Denimos la función lagrangiana:
L(x, λ, µ) = f (x) +
m
X
λi (e0i x − di ) +
i=1
r
X
µj (a0j x − bj ).
(5.31)
j=1
Esta función da lugar a la función dual q : R(m+r) 7→ R:
q(λ, µ) = ı́nf L(x, λ, µ).
x∈X
(5.32)
El problema dual (D) es:
máx
q(λ, µ)
s.a: λ ∈ Rm , µ ≥ 0.
Es claro que si X es acotado entonces la función dual (5.32) toma valores reales.
En general podría tomar el valor −∞. Para evitar este hecho se dene el conjunto
factible de (D) como:
Q = {(λ, µ) : µ ≥ 0, q(λ, µ) > −∞}.
El resultado básico de dualidad es el siguiente teorema.
Teorema 5.3.3
1. Si el problema primal (P) tiene una solución óptima, el correspondiente dual
(D) también y los valores óptimos de ambos problemas coinciden.
2. Para que x∗ y (λ∗ , µ∗ ) sean soluciones óptimas primales y duales, respectivamente, es necesario y suciente que x∗ sea factible en (P), µ∗ > 0 y
f (x∗ ) = L(x∗ , λ∗ , µ∗ ) = mı́n L(x, λ∗ , µ∗ ).
x∈X
(5.33)
5.3 El caso de restricciones lineales
80
Demostración.
1. Para todo x factible de (P) y todo λ y µ ≥ 0 tenemos que
q(λ, µ) ≤ f (x) +
m
X
λi (e0i x
− di ) +
i=1
r
X
µj (a0j x − bj ) ≤ f (x).
(5.34)
j=1
Tomando mínimo en el lado derecho de la expresión anterior para todo x ∈ X
obtenemos:
q(λ, µ) ≤ f (x∗ ),
∀λ,
µ ≥ 0,
siendo x∗ la solución óptima de (P). Por la proposición anterior, existen λ∗ y
µ∗ ≥ 0 tales que µ∗j (a0j x∗ − bj ) = 0 para todo j , y
x∗ = arg mı́n L(x, λ∗ , µ∗ ),
x∈X
entonces utilizando la denición de (5.32) se tiene:
q(λ∗ , µ∗ ) = L(x∗ , λ∗ ,P
µ∗ )
Pr
∗ 0 ∗
∗ 0 ∗
∗
= f (x ) + m
j=1 µj (aj x − bj )
i=1 λi (ei x − di ) +
= f (x∗ ).
Combinando las relaciones anteriores se deduce que (λ∗ , µ∗ ) es una solución de
(D) y q(λ∗ , µ∗ ) = f (x∗ ).
2. Si x∗ y (λ∗ , µ∗ ) son óptimas en (P) y (D) respectivamente, se tiene:
f (x∗ ) = q(λ∗ , µ∗ ),
lo que al combinarse con (5.34), da:
f (x∗ ) = L(x∗ , λ∗ , µ∗ ) = q(λ∗ , µ∗ ) = mı́n L(x∗ , λ, µ).
x∈X
Recíprocamente, la relación f (x∗ ) = mı́nx∈X L(x, λ∗ , µ∗ ) se puede reescribir
como f (x∗ ) = q(λ∗ , µ∗ ) y puesto que x∗ es factible en (P) y µ∗ ≥ 0, la ecuación
(5.34) implica que x∗ y (λ∗ , µ∗ ) son óptimas en (P) y (D) respectivamente.
Las hipótesis del teorema anterior se puede debilitar para funciones no necesariamente diferenciables exigiendo solamente convexidad a la función f .
Descargar