KUHN-TUCKER Sean: - la función objetivo f : ℝ n → ℝ , x = ( xi )i =1,...,n = ( x1 ,..., xn ) ∈ ℝ n - Las restricciones g k : ℝ n → ℝ, k = 1,..., m Supondremos que tanto la función objetivo f como las restricciones g k son diferenciables. Vamos a considerar el siguiente problema de optimización: Max f ( x) s.a. g 1 ( x ) ≤ 0 ⋮ g m ( x) ≤ 0 x1 ≥ 0,..., xn ≥ 0 Construimos la siguiente función Lagrangiana m L ( x, λ ) = f ( x) − ∑ λk g k ( x) k =1 Donde λ = ( λ1 ,..., λm ) ∈ ℝ m Definición: Diremos que x verifica KT si existe un λ tal que: ∂L ∂L - KT1: ∀i = 1,..., n : ≤ 0, xi ≥ 0, xi =0 ∂xi ∂xi - ∂L = 0 . Solución positiva si xi > 0 ⇒ ∂xi k k KT2: ∀k = 1,..., m : λk ≥ 0, g ( x) ≤ 0, λk g ( x) = 0 ( si λ k > 0 ⇒ g k = 0. Restricción saturada ) Tenemos los siguientes resultados: T.1 (Condiciones necesarias) Si x es solución óptima entonces x verifica KT. T.2 (Condiciones necesarias y suficientes) Si f es una función cuasicóncava ( ⇔ {x ∈ ℝ : f ( x ) ≥ k} es convexo ∀k ) y ∀k = 1,..., m las funciones g son convexas (⇒ {x ∈ ℝ : g ( x ) ≤ 0} es convexo ) , entonces x es un óptimo si y sólo si verifica KT. n n k k Ejemplo gráfico Dos variables x = ( x1 , x2 ) y una restricción g Supondremos que se dan las condiciones necesarias y suficientes para aplicar el T.2. Supondremos también que f es una función estrictamente creciente, ∂f por lo tanto > 0, i = 1, 2 . Denotamos por: ∂xi ∂L ∂L ∂f ∂f ∂g ∂g ∇L = , , , , ∇f = , ∇g = ∂x1 ∂x2 ∂x1 ∂x2 ∂x1 ∂x2 L ( x, λ ) = f ( x ) − λ g ( x ) Haremos el análisis para el caso de soluciones positivas: x > 0 . Como ∇f ( x) > 0, ∀x , no pueden existir máximos incondicionados: ∇f ( x) = 0 . Esto impide que λ = 0 , ya que si no, tendríamos L( x, λ ) = f ( x) y por KT1, ∇L = ∇f = 0 en contradicción con ∇f > 0 . Entonces, como λ > 0 , por KT2 se tiene que g ( x) = 0 (se agota la restricción) Como x > 0 , por KT1, tenemos ∇L = ∇f − λ∇g = 0 ⇔ ∇f = λ∇g x2 g ( x) = 0 f ( x) ∇L = 0 ⇔ ∇f = λ∇g , λ > 0 ∇f ∇g g ( x) ≤ 0 x≥0 x1