A - x

advertisement
Módulo 1
ANÁLISIS
MATEMÁTICO DE LA
OPTIMIZACIÓN
Copyright ©2005 by South-Western, a division of Thomson Learning. All rights reserved.
1
Matemática de la Optimización
• Muchas teorías económicas empiezan con el
supuesto de que un agente económico quiere
encontrar el valor óptimo de alguna función
– consumidores buscan maximizar utilidad
– empresas buscan maximizar utilidad
• Este capítulo introduce a las matemáticas que
se emplean en estos problemas
2
Maximización de una función de una
variable
• Ejemplo: Administrador de una firma desea
maximizar beneficios
  f (q)

Utilidad máxima
* ocurre en q*
*
 = f(q)
q*
Cantidad
3
Maximización de una función de una
variable
• El admimistrador posiblemente intentará variar q para
ver dónde se obtienen los beneficios máximos
– un incremento de q1 a q2 produce un aumento en 


0
q
*
2
 = f(q)
1
q1
q2
q*
Cantidad
4
Maximización de una función de una
variable
• Si el producto se incrementa más alla de q*, las
utilidades disminuirán
– un incremento de q* a q3 conduce a una caída en 


0
q
*
 = f(q)
3
q*
q3
Cantidad
5
Derivadas
• La derivada de  = f(q) es el límite de /q para
cambios muy pequeños en q
d df
f (q1  h)  f (q1 )

 lim
dq dq h  0
h
• El valor de este ratio depende del valor de
q1
6
Valor de una derivada en un punto
• La evaluación de la derivada en el punto q =
q1 puede ser denotado
d
dq q  q
1
• En nuestros ejemplos previos,
d
0
dq q q
1
d
0
dq q q
3
d
0
dq q  q *
7
Condición de primer orden para un
máximo
• Para que una función de una variable to
alcance su valor máximo en algún punto, la
derivada en ese punto debe ser cero
df
dq
0
q q*
8
Condiciones de segundo orden
• La condición de primer orden (d/dq) es una
condición necesaria para un máximo, pero no es
una condición suficiente

Si la función de utilidad tuviese forma de
u, con la condición de primer orden se
obtendría q* donde  se minimizaría
*
q*
Cantidad
9
Condiciones de segundo orden
• Esto puede significar que para que q* sea
un óptimo,
d
 0 para q  q *
dq
y
d
 0 para q  q *
dq
• Por lo tanto, en q*, d/dq debe ser
decreciente
10
Segundas derivadas
• La derivada de una derivada se denomina
segunda derivada
• La segunda derivada puede denotarse por
d 2 d 2 f
o 2 o f " (q)
2
dq
dq
11
Condiciones de segundo orden
• La condición de segundo orden para un
máximo (local) es
d 
 f " (q ) q  q *  0
2
dq q q *
2
12
Reglas para hallar derivadas
db
1. Si b es una constante, entonces
0
dx
d [bf ( x)]
2. Si b es una constante, entonces
 bf ' ( x)
dx
dx b
3. Si b es constante, entonces
 bx b 1
dx
d ln x 1
4.

dx
x
13
Reglas para hallar derivadas
da x
x
5.
 a ln a para cualquier constante a
dx
– un caso especial de esta regla es dex/dx = ex
14
Reglas para hallar derivadas
• Supongamos que f(x) y g(x) son dos
funciones de x y f’(x) y g’(x) existe
• Entonces
d [f ( x )  g ( x )]
6.
 f '(x)  g'(x)
dx
d [f ( x )  g ( x )]
7.
 f ( x )g ' ( x )  f ' ( x )g ( x )
dx
15
Reglas para hallar derivadas
 f ( x) 

d 
g ( x)  f ' ( x) g ( x)  f ( x) g ' ( x)

8.

2
dx
[ g ( x)]
dado que g ( x)  0
16
Reglas para hallar derivadas
• Si y = f(x) y x = g(z) y si existen f’(x) y
g’(x), entonces:
dy dy dx df dg
9.




dz dx dz dx dz
• Se denomina la regla de la cadena. La regla
de la cadena nos permite estudiar cómo una
variable (z) afecta otra variable (y) a través
de su influencia sobre alguna variable
intermedia (x)
17
Reglas para hallar derivadas
• Algunos ejemplos de la regla de la cadena
incluyen
deax
deax d (ax )
10.


 eax  a  aeax
dx
d (ax ) dx
d [ln( ax )] d [ln( ax )] d (ax )
11.


 ln( ax )  a  a ln( ax )
dx
d (ax )
dx
d [ln( x 2 )] d [ln( x 2 )] d ( x 2 ) 1
2
12.


 2  2x 
2
dx
d(x )
dx
x
x18
Ejemplo de maximización de utilidad
• Suponga que la relación entre utilidad y producto es
 = 1,000q - 5q2
• La condición de primer orden para un máximo es
d/dq = 1,000 - 10q = 0
q* = 100
• Dado que la segunda derivada es siempre -10, q =
100 es un máximo global
19
Funciones de varias variables
• La mayoría de los objetivos de los agentes
económicos dependen de varias variables
– existen trade-offs (disyuntivas)
• La dependencia de una variable (y) sobre una serie
de otras variables (x1,x2,…,xn) se denota por
y  f (x1, x2 ,..., xn )
20
Derivadas
• La derivada parcial de y con respecto a x1 se
denota por
y f
o
o f x1 o f1
x1 x1
• Se entiende que al calcular una derivada
parcial, todas las demás x’s se mantienen
constantes
21
Derivadas parciales
• Una definición más formal de la derivada
parcial es
f
x1
x 2 ,...,x n
f ( x1  h, x 2 ,..., x n )  f ( x1, x 2 ,..., x n )
 lim
h 0
h
22
Calculando derivadas parciales
1. If y  f ( x1 , x2 )  ax12  bx1 x2  cx22 , entonces
f
 f1  2ax1  bx2
x1
y
f
 f 2  bx1  2cx2
x2
2. Si y  f ( x1 , x2 )  e ax1 bx2 , entonces
f
f
ax1  bx2
 f1  ae
y
 f 2  be ax1 bx2
x1
x2
23
Calculando derivadas parciales
3. Si y  f ( x1 , x2 )  a ln x1  b ln x2 , entonces
f
a
f
b
 f1 
y
 f2 
x1
x1
x2
x2
24
Derivadas parciales
• Las derivadas parciales son la expresión
matemática del supuesto ceteris paribus
– muestra cómo los cambios en una variable
afectan algunos resultados cuando otras
influencias se mantienen constantes
25
Derivadas parciales
• Debemos tener en cuenta cómo están
medidas las variables
– Si q representa la cantidad de gasolina
demandada (medida en billones de litros) y p
representa el precio en dólares por litro,
entonces q/p medirá el cambio en la demanda
(en billones de litros por año) para un cambio
en el precio de un dólar por litro
26
Elasticidad
• Las elasticidades miden el efecto
proporcional del cambio en una variable
sobre otra
• La elasticidad de y con respecto a x es
ey , x
y
y x y x
y


 

x x y x y
x
27
Elasticidad y forma funcional
• Suponga que
y = a + bx + otros términos
• En este caso,
ey,x
y x
x
x

  b  b
x y
y
a  bx    
• ey,x no es constante
– es importante notar el punto en el cual la
elasticidad va a ser computada
28
Elasticidad forma funcional
• Supongamos que
y = axb
• En este caso,
ey , x
y x
x
b 1

  abx  b  b
x y
ax
29
Elasticidad y forma funcional
• Supongamos que
ln y = ln a + b ln x
• En este caso,
ey , x
y x
 ln y

  b
x y
 ln x
• Las elasticidades pueden calcularse a través
de la diferenciación logarítmica
30
Derivada parcial de segundo-orden
• La derivada parcial de una derivada parcial
se denomina derivada parcial de segundoorden
(f / xi )
 2f

 fij
x j
x j xi
31
Teorema de Young
• Bajo condiciones generales, no importa el
orden en el cual se realiza la diferenciación
parcial para evaluar las derivadas parciales
de segundo orden
fij  f ji
32
Uso de las parciales de
segundo-orden
• Las parciales de segundo-orden juegan un papel
importante en muchas teorías económicas
• Una de las más importantes es la parcial de
segundo orden de la misma variable, fii
– muestra cómo la influencia marginal de xi sobre y
(y/xi) cambia a medida que se incrementa xi
– un valor de fii < 0 indica rendimiento maginal
decreciente
33
Diferencial total
• Supongamos que y = f(x1,x2,…,xn)
• Si todas las x’s varían en una pequeña
cantidad, el efecto total sobre y será
f
f
f
dy 
dx1 
dx 2  ... 
dx n
x1
x 2
xn
dy  f1dx1  f2dx 2  ...  fndx n
34
Condición de primer orden para un
máximo (o mínimo)
• Una condición necesaria para un máximo (o mínimo)
de la función f(x1,x2,…,xn) es que dy = 0 para
cualquier combinación de cambios pequeños en las x’s
• La única forma de que esto sea cierto es si
f1  f 2  ...  f n  0
• Un punto en el que esta condición se verifica se
denomina punto crítico
35
Encontrar un máximo
• Supongamos que y es una función de x1 y x2
y = - (x1 - 1)2 - (x2 - 2)2 + 10
y = - x12 + 2x1 - x22 + 4x2 + 5
• Condiciones de primer orden implican que
y
 2 x1  2  0
x1
y
 2 x 2  4  0
x 2
O
x1*  1
*
x2  2
36
Frontera de posibilidades de producción
• Ejemplo anterior: 2x2 + y2 = 225
• Puede re-escribirse: f(x,y) = 2x2 + y2 - 225 = 0
• Dado que fx = 4x y fy = 2y, la disyuntiva de coste
de oportunidad entre x e y es
dy
 fx
 4x  2x



dx
fy
2y
y
37
Teorema de la función implícita
• No siempre será posible resulver funciones
implícitas de la forma g(x,y)=0 para funciones
explícitas de la forma y = f(x)
– los matemáticos han derivado las condiciones
necesarias
– en muchas aplicaciones económicas, estas
condiciones son las mismas que las condiciones de
segundo orden para un máximo (o mínimo)
38
El teorema de la envolvente
• El teorema de la envolvente considera cómo el
valor óptimo de una función en particular
cambia cuando un parámetro de esa función
cambia
• La forma más simple de verlo es mediante un
ejemplo
39
El teorema de la envolvente
• Supongamos que y es una función de x
y = -x2 + ax
• Para valores diferentes de a, esta función
representa una familia de parábolas invertidas
• Si a a asignamos un valor específico, entonces
y es una función de x solamente y el valor de x
que maximiza y puede calcularse
40
El teorema de la envolvente
Valores óptimos de x e y para valores alternativos de a
Valor de a
0
1
2
3
4
5
6
Valor de x*
0
1/2
1
3/2
2
5/2
3
Valor de y*
0
1/4
1
9/4
4
25/4
9
41
El teorema de la envolvente
y*
10
A medida que a aumenta,
el valor máximo de
for y (y*) se incrementa
9
8
7
6
5
La relación entre a
ey
es cuadrática
4
3
2
1
a
0
0
1
2
3
4
5
6
7
42
El teorema de la envolvente
• Supongamos que estamos interesados en
cómo y* cambia a medida que a cambia
• Hay dos formas de hacer esto
– calculamos la pendiente de y directamente
– mantenemos x constante en su valor óptimo y
calculamos y/a directamente
43
El teorema de la envolvente
• Para calcular la pendiente de la función,
debemos resolver para el valor óptimo de x
para cualquier valor de a
dy/dx = -2x + a = 0
x* = a/2
• Sustituyendo, obtenemos
y* = -(x*)2 + a(x*) = -(a/2)2 + a(a/2)
y* = -a2/4 + a2/2 = a2/4
44
El teorema de la envolvente
• Por lo tanto,
dy*/da = 2a/4 = a/2 = x*
• Pero, podemos ahorrar tiempo utilizando el
teorema de la envolvente
– Para cambios pequeños en a, dy*/da puede ser
computado manteniendo x en x* y calculando y/
a directamente de y
45
El teorema de la envolvente
y/ a = x
• Manteniendo x = x*
y/ a = x* = a/2
• Es el mismo resultado obtenido anteriormente
46
El teorema de la envolvente
• El teorema de la envolvente afirma que el cambio
en el valor óptimo de una función con respecto a un
parámetro de la función puede ser encontrado
diferenciando parcialmente la función objectivo
mientras se mantiene constante x (o varias x’s) en
este valor óptimo
dy * y

{x  x * (a)}
da
a
47
El teorema de la envolvente
• El teorema de la envolvente puede extenderse al
caso donde y es una función de varias variables
y = f(x1,…xn,a)
• Encontrar un valor óptimo para y consistiría en
resolver n ecuaciones de primer orden
y/xi = 0
(i = 1,…,n)
48
El teorema de la envolvente
• Valores óptimos para estas x’s se determinarían
como una función de a
x1* = x1*(a)
x2* = x2*(a)
.
.
.
xn*= xn*(a)
49
El teorema de la envolvente
• Sustituyendo en la función objectivo original
resulta en una expresión para el valor óptimo de
y (y*)
y* = f [x1*(a), x2*(a),…,xn*(a),a]
• Diferenciando resulta
dy * f dx1 f dx 2
f dx n f




 ... 


da
x1 da x 2 da
xn da a
50
El teorema de la envolvente
• Debido a las condiciones de primer orden, todos
los términos excepto f/a son iguales a cero si
las x’s están en sus valores óptimos
• Por lo tanto,
dy * f

{x  x * (a)}
da
a
51
Maximización restringida
• ¿Qué ocurre si no son posibles todos los valores de
las x’s?
– puede ser que todos los valores de x tengan que ser
positivos
– las elecciones de los consumidores están limitadas por la
cantidad de poder adquisitivo disponible
• Un método para resolver problemas de
maximización restringidas es el método del
multiplicador Lagrangiano
52
Método del multiplicador
Lagrangiano
• Supongamos que queremos encontrar los
valores de x1, x2,…, xn que maximizan
y = f(x1, x2,…, xn)
sujeta a una restricción que permite utilizar
sólo ciertos valores de las x’s
g(x1, x2,…, xn) = 0
53
Método del multiplicador
Lagrangiano
• El método del multiplicador Lagrangiano
comienza con la siguiente expresión
L = f(x1, x2,…, xn ) + g(x1, x2,…, xn)
donde  es una variable adicional
denominada multiplicador de Lagrange
• Cuando la restricción se mantiene, L = f
porque g(x1, x2,…, xn) = 0
54
Método del multiplicador
Lagrangiano
• Condiciones de primer orden
L/x1 = f1 + g1 = 0
L/x2 = f2 + g2 = 0
.
.
.
L/xn = fn + gn = 0
L/ = g(x1, x2,…, xn) = 0
55
Método del multiplicador
Lagrangiano
• Generalmente las condiciones de primer
orden pueden resolverse para x1, x2,…, xn y 
• La solución tendrá dos propiedades:
– las x’s cumplirán con la restricción
– estas x’s harán del valor de L (y por lo tanto de
f) tan grande como sea posible
56
Método del multiplicador
Lagrangiano
• El multiplicador Lagrangiano () tiene una
importante interpretación económica
• Las condiciones de primer orden implican que
f1/-g1 = f2/-g2 =…= fn/-gn = 
– los numeradores miden el beneficio marginal que una
unidad más de xi tendrán para la función f
– los denominadores reflejan la carga agregada sobre la
restricción de utilizar más xi
57
Método del multiplicador
Lagrangiano
• En las elecciones óptimas para las x’s, el ratio del
beneficio marginal de incrementar xi y el coste
marginal de incrementar xi sería el mismo para cada
x
•  es el ratio común de coste-beneficio para todas
las x’s
beneficio marginal de xi

coste marginal de xi
58
Método del multiplicador
Lagrangiano
• Si se relajase la restricción en una pequeña
cantidad, no importaría que x está cambiando
• El multiplicador Lagrangiano provee una
medida de cómo la relajación dela restricción
afectaría el valor de y
•  provee un “precio sombra” para la
restricción
59
Método del multiplicador
Lagrangiano
• Un valor alto de  indica que y puede
incrementarse sustancialmente relajando la
restricción
– cada x tiene un alto ratio coste-benecio
• Un valor bajo de  indica que no hay mucho
que ganar al relajar la restricción
• =0 implica que la restricción no es
vinculante (cambiando la restricción no
cambia la solución óptima)
60
Dualidad
• Cualquier problema de maximización
restringida está vinculado con un problema
dual de minimización restringida que enfoca
la atención sobre las restricciones del
problema original
61
Dualidad
• Individuos que maximizan su utilidad sujeta a una
restricción presupuestaria
– problema dual: los individuos minimizan el gasto
necesario para lograr un nivel dado de utilidad
• Las firmas minimizan el coste de los insunmos para
producir un nivel dado de producto
– problema dual: las firmas maximizan el producto para
costes de insumos adquiridos
62
Maximización restringida
• Supongamos que un agricultor tiene cierta
extensión de valla (P) y desea encerrar la forma
rectangular más grande posible
• Denotemos x como la extensión de un lado
• Denotemos y como la extensión del otro lado
• Problema: escoger x e y tal que se maximiza el
área (A = x·y) sujeta a la restricción de que el
perímetro es fijo en P = 2x + 2y
63
Maximización restringida
• Configurando el multiplicador Lagrangiano
L = x·y + (P - 2x - 2y)
• Las condiciones de primer orden para un
máximo son
L/x = y - 2 = 0
L/y = x - 2 = 0
L/ = P - 2x - 2y = 0
64
Maximización restringida
• Dado que y/2 = x/2 = , x debe ser igual a y
– el campo sería cuadrado
– x e y serían escogidos tal que el ratio de beneficios
marginales y costes marginales serían iguales
• Dado que x = y e y = 2, podemos utilizar la
restricción para mostrar que
x = y = P/4
 = P/8
65
Maximización restringida
• Interpretación del multiplicador de Lagrange
– si el agricultor estuviese interesado en conocer qué
campo adicional puede tener valla agregando un
metro adicional de valla,  sugiere que puede
saberlo dividiendo el perímetro presente (P) por 8
– por lo tanto, el multiplicador Lagrangiano provee
información acerca del valor implícito de la
restricción
66
Maximización restringida
• Problema dual: escoger x e y para minimizar la
cantidad de valla requirida para rodear el
campo
minimizar P = 2x + 2y sujeta a A = x·y
• Configurando el Lagrangiano:
LD = 2x + 2y + D(A - xy)
67
Maximización restringida
• Conditiones de primer orden:
LD/x = 2 - D·y = 0
LD/y = 2 - D·x = 0
LD/D = A - x·y = 0
• Resolviendo, tenemos
x = y = A1/2
• El multiplicador Lagrangiano (D) = 2A-1/2
68
Teorema de la envolvente &
maximización restringida
• Supongamos que queremos maximizar
y = f(x1,…,xn;a)
sujeta a la restricción
g(x1,…,xn;a) = 0
• Una forma de resolver sería fijando la
expresión para el Lagrangiano y resolver las
condiciones de primer orden
69
Teorema de la envolvente &
Maximización restringida
• Alternativamente, puede demostrarse que
dy*/da = L/a(x1*,…,xn*;a)
• El cambio en el valor máximo de y que resulta
cuando a cambia puede encontrarse
diferenciando parcialmente L y evaluando la
derivada parcial en el punto óptimo
70
Restricciones con desigualdad
• En algunos problemas económicos no necesitamos
que las restricciones se cumplan exactamente
• Por ejemplo, supongamos que buscamos
maximizar y = f(x1,x2) sujeta a
g(x1,x2)  0,
x1  0, and
x2  0
71
Restricciones con desigualdad
• Una forma de resolver este problema es
introduciendo tres nuevas variables (a, b, y
c) que convierte las desigualdades en
igualdades
• Para asegurar que se cumplen las
desigualdades, elevamos al cuadrado estas
nuevas variables para asegurar que sus
valores son positivos
72
Restricciones con desigualdad
g(x1,x2) - a2 = 0;
x1 - b2 = 0; and
x2 - c2 = 0
• Cualquier solución que obedece estas tres
restricciones de igualdad también cumplirán
con las restricciones de desigualdad
73
Restricciones de desigualdad
• Podemos establecer el siguente Lagrangiano
L = f(x1,x2) + 1[g(x1,x2) - a2] + 2[x1 - b2] + 3[x2 -
c2]
• Con lo cual obtendremos ocho condiciones
de primer orden
74
Restricciones de desigualdad
L/x1 = f1 + 1g1 + 2 = 0
L/x2 = f1 + 1g2 + 3 = 0
L/a = -2a1 = 0
L/b = -2b2 = 0
L/c = -2c3 = 0
L/1 = g(x1,x2) - a2 = 0
L/2 = x1 - b2 = 0
L/3 = x2 - c2 = 0
75
Restricciones de desigualdad
• De acuerdo con la tercera condición, ya sea a o 1
=0
– si a = 0, la restricción g(x1,x2) se cumple exactamente
– si 1 = 0, la disponibilidad de alguna holgura de la
restricción implica que su valor para la función objetivo
es 0
• Similares relaciones de complementariedad de
holguras (formadas por el conjunto de las
restricciones de menor o igual multiplicadas por
su correspondiente ) también se cumplen para x1
y x2
76
Restricciones de desigualdad
• A estos resultados se los conoce como las
condiciones de Kuhn-Tucker
– muestran que las soluciones para problemas de
optimización que involucran a restricciones con
desigualdades diferirán de problemas similares que
involucran restricciones con igualdades
– no podemos equivocarnos trabajando principalmente
con restricciones con igualdades, hay que considerar las
desigualdades
77
Condiciones de segundo orden –
funciones de una variable
• Denotemos y = f(x)
• Una condición necesaria para un máximo es
que
dy/dx = f ’(x) = 0
• Para asegurar que el punto es un máximo, y
debe ser decreciente para los movimientos
fuera de él
78
Condiciones de segundo ordenfunciones de una variable
• La diferencial total mide el cambio en y
dy = f ’(x) dx
• Para estar en un máximo, dy debe ser
decreciente para incrementos pequeños en x
• Para ver los cambios en dy, debemos utilizar la
segunda derivada de y
79
Condiciones de segundo orden –
funciones de una variable
d [f ' ( x )dx ]
2
d y
 dx  f " ( x )dx  dx  f " ( x )dx
dx
2
• Notemos que d 2y < 0 implica que f ’’(x)dx2 <
0
• Dado que dx2 debe ser positivo, f ’’(x) < 0
• Esto significa que la función f debe tener una
forma cócava en el punto crítico
80
Condiciones de segundo orden –
funciones de dos variables
• Supongamos que y = f(x1, x2)
• Las condiciones de primer orden para un máximo
son
y/x1 = f1 = 0
y/x2 = f2 = 0
• Para asegurar que el punto es un máximo, y debe
disminuir para movimientos en cualquier
dirección fuera del punto crítico
81
Condiciones de segundo orden –
funciones de dos variables
• La pendiente en la dirección x1 (f1) debe ser
decreciente en el punto crítico
• La pendiente en la dirección x2 (f2) debe ser
decreciente en el punto crítico
• Pero, se deben establecer condiciones sobre las
derivadas parciales cruzadas (f12 = f21) para
asegurar que dy es decreciente para todos los
movimientos a través del punto crítico
82
Condiciones de segundo orden –
funciones de dos variables
• La diferencial total de y está dado por
dy = f1 dx1 + f2 dx2
• La diferencial de esta función es
d 2y = (f11dx1 + f12dx2)dx1 + (f21dx1 + f22dx2)dx2
d 2y = f11dx12 + f12dx2dx1 + f21dx1 dx2 + f22dx22
• Por el teorema de Young, f12 = f21 y
d 2y = f11dx12 + 2f12dx1dx2 + f22dx22
83
Condiciones de segundo ordenfunciones de dos variables
d 2y = f11dx12 + 2f12dx1dx2 + f22dx22
• Para que esta ecuación sea indefectiblemente negativa
para cualquier cambio en las x’s, f11 y f22 deben ser
negativas
• Si dx2 = 0, entonces d 2y = f11 dx12
– para d 2y < 0, f11 < 0
• Si dx1 = 0, entonces d 2y = f22 dx22
– para d 2y < 0, f22 < 0
84
Condiciones de segundo orden –
funciones de dos variables
d 2y = f11dx12 + 2f12dx1dx2 + f22dx22
• Si ni dx1 o dx2 son cero, entonces d 2y será sin
ambigüedad negativo sólo si
f11 f22 - f122 > 0
– las derivadas parciales de segundo orden (f11 y f22)
deben ser suficientemente negativas tal que compensan
cualquier tipo de efectos contratio de las derivadas
parciales cruzadas (f12 = f21)
85
Maximización restringida
• Supongamos que queremos escoger x1 y x2
para maximizar
y = f(x1, x2)
• Sujeta a la restricción linear
c - b1x1 - b2x2 = 0
• Podemos establecer el Lagrangiano
L = f(x1, x2) + (c - b1x1 - b2x2)
86
Maximización restringida
• Las condiciones de primer orden son
f1 - b1 = 0
f2 - b2 = 0
c - b1x1 - b2x2 = 0
• Para asegurar que tenemos un máximo,
debemos usar la diferencial total de “segundo”
orden
d 2y = f11dx12 + 2f12dx1dx2 + f22dx22
87
Maximización restringida
• Sólo los valores de x1 y x2 que satisfacen la
restricción pueden ser consideradas como
alternativas válidas para el punto crítico
• Por ello, debemos calcular la diferencial total de la
restricción
-b1 dx1 - b2 dx2 = 0
dx2 = -(b1/b2)dx1
• Estos son los cambios relativos permitidos en x1 y x2
88
Maximización restringida
• Debido a las condiciones de primer orden que
implican que f1/f2 = b1/b2, podemos sustituir y
obtener
dx2 = -(f1/f2) dx1
• Dado
d 2y = f11dx12 + 2f12dx1dx2 + f22dx22
podemos sustituir dx2 y tenemos
d 2y = f11dx12 - 2f12(f1/f2)dx12 + f22(f12/f22)dx12
89
Maximización restringida
• Combinando términos y reordenando
d 2y = f11 f22 - 2f12f1f2 + f22f12 [dx12/ f22]
• Por lo tanto, para d 2y < 0, debe ser cierto que
f11 f22 - 2f12f1f2 + f22f12 < 0
• Esta ecuación caracteriza un conjunto de funciones
denominadas funciones cuasi-cóncavas
– cualquier par de puntos dentro del conjunto puede formar
una línea introducida completamente en el conjunto
90
Funciones cóncavas y cuasicóncavas
• Las diferencias entre las funciones cóncavas
y cuasi-cóncavas pueden ilustrarse con la
función
y = f(x1,x2) = (x1x2)k
donde las x’s pueden tomar solamente
valores positivos y k puede tomar una
variedad de valores positivos
91
Funciones cóncavas y cuasicóncavas
• No importa que valores toma k, esta función
es cuasi-cóncava
• Si la función es cóncava o no depende del
valor de k
– si k < 0.5, la función es cóncava
– si k > 0.5, la función es convexa
92
Funciones homogéneas
• Una función f(x1,x2,…xn) es homogénea de
grado k si
f(tx1,tx2,…txn) = tk f(x1,x2,…xn)
– cuando una función es homogénea de grado uno,
duplicando todos los argumentos duplica el valor
de la función
– cuando una función es homogéna de grado cero,
duplicando todos los argumentos deja la función
sin cambios
93
Funciones homogéneas
• Si una función es homogénea de grado k, las
derivadas parciales de la función será
homogénea de grado k-1
94
Teorema de Euler
• Si diferenciamos la definición de
homogeneidad con respecto a la
proporcionalidad del factor t, obtenemos
ktk-1f(x1,…,xn)  x1f1(tx1,…,txn) + … + xnfn(x1,…,xn)
• Esta relación se denomina teorema de Euler
95
Teorema de Euler
• El teorema de Euler muestra que, para
funciones homogéneas, hay una relación
definida entre los valores de la función y
los valores de sus derivadas parciales
96
Funciones homotéticas
• Una función homotética es una que se
forma tomando una transformación
monotónica de una función homogénea
– no tienen las propiedades de homogeneidad de
sus funciones subyacentes
97
Funciones homotéticas
• Tanto para funciones homogéneas como
para las homotéticas, las disyuntivas
implícitas entre las variables en la función
dependen solamente de los ratios de
aquellas variables, no de sus valores
absolutos
98
Funciones homotéticas
• Supongamos que examinamos la función implícita
de dos variables f(x,y) = 0
• La disyuntiva implícita entre x e y para una
función de dos variables
dy/dx = -fx/fy
• Si asumimos que f es homogénea de grado k, sus
derivadas parciales serán homogéneas de grado k1
99
Funciones homotéticas
• La disyuntiva implícita entre x e y es
dy
t k 1fx (tx, ty )
fx (tx, ty )
  k 1

dx
t fy (tx, ty )
fy (tx, ty )
• Si t = 1/y,
x 
x 
F ' fx  ,1
fx  ,1
y 
y 
dy




dx
x 
x 
F ' fy  ,1
fy  ,1
y 
y 
100
Funciones homotéticas
• La disyuntiva no está afectada por la
transformación monotónica y permanece
una función solamente del ratio x e y
101
Puntos importantes a
considerar:
• Utilizando matemáticas tenemos una
forma conveniente para que los
economistas desarrollen sus modelos
– las implicaciones de varios supuestos
económicos pueden estudiarse a través de
herramientas matemáticas
102
Puntos importantes a
considerar:
• Las derivadas se usan a menudo en
economía porque los economistas están
interesados en cómo los cambios marginales
en una variable afectan a otras
– las derivadas parciales incorporan el supuesto
ceteris paribus utilizando en muchos modelos
económicos
103
Puntos importantes a
considerar:
• Las matemáticas para optimización es
una herramienta importante para el
desarrollo de modelos que asumen que
los agentes económicos racionalmente
persiguen algunas metas
– las condiciones de primer orden requieren
todas las derivadas parciales sean cero
104
Puntos importantes a
considerar:
• La mayoría de los problemas de
optimización económica involucran
restricciones en las elecciones que los
agentes pueden realizar
– las condiciones de primer orden para un
máximo sugieren que cada actividad puede
operar a un nivel en el cual el beneficio
marginal de la actividad es igual a su coste
marginal
105
Puntos importantes a
considerar:
• El multiplicador Lagrangiano se emplea
para ayudar a resolver problemas de
maximization
– el multiplicador Lagrangiano puede ser
interpretado como el valor implícito (precio
sombra) de la restricción
106
Puntos importantes a
considerar:
• El teorema de la función implícita ilustra
la dependencia de las elecciones que
resultan de un problema de optimización
sobre los parámetros del problema
107
Puntos importantes a
considerar:
• El teorema de la envolvente examina
cómo las elecciones óptimas cambiarán
a medida que cambia el parámetro del
problema
• Algunos problemas de optimización
pueden involucrar restricciones que son
desigualdades antes que igualdades
108
Puntos importantes a
considerar:
• Condiciones de primer orden son
necesarias pero no suficientes para
asegurar un máximo o un mínimo
– las condiciones de segundo orden que
describen la curvatura de una función deben
revisarse
109
Puntos importantes a
considerar:
• Ciertos tipos de funciones ocurren en muchos
problemas económicos
– funciones cuasi-cóncavas obedecen las condiciones
de segundo orden de problemas de máximo o
mínimo restringido donde las restricciones son
lineales
– las funciones homotéticas tienen la propiedad de
que las disyuntivas implícitas entre las variables
dependen solamente de los ratios de estas variables
110
Descargar