métodos de estimación no lineales

Anuncio
MÉTODOS DE ESTIMACIÓN NO LINEALES
Francisco Parra Rodríguez
Doctor en Ciencias Económicas y Empresariales. UNED.
INTRODUCCIÓN
La teoría económica propone modelos de relación entre variables económicas, pero
generalmente deja indeterminada la forma funcional de dichas relaciones, por lo que en
ocasiones dichas relaciones pueden ser de tipo no lineal. La cuantificación de dichas relaciones
exige un tratamiento distinto al del caso lineal, utilizando técnicas de estimación que
generalmente implican un mayor coste computacional pero que a cambio ofrecen un mejor
ajuste.
Por ello, en el presente capítulo se abordan algunas soluciones de cálculo para cuantificar este
tipo de relaciones, las cuales generalmente exigen la utilización de algoritmos de optimización
numérica en los que, a partir de una expresión general que representa una función de pérdida o
de ganancia, de forma iterativa se evalúa una función objetivo, que variará dependiendo del
procedimiento de estimación elegido, para las distintas combinaciones de los valores numéricos
de los parámetros. El resultado de la estimación final será aquel conjunto de valores
paramétricos que hagan mínima o máxima (según se defina) dicha función objetivo.
Las relacionales no lineales que trataremos no hacen referencia a las variables explicativas sino
a los parámetros incluidos en las relaciones del modelo, ya que las primeras pueden eliminarse
mediante la transformación de datos apropiada. Por ejemplo, si la ecuación que tuviéramos que
estimar fuera:
y t = β 0 + β1e x1t + β 2 ln( x 2 t )· x 3t + ε t
Bastaría con realizar los siguientes cambios de variable para poder estimar la ecuación mediante
métodos lineales:
z1t = e x1t
z 2 t = ln( x 2t )· x 3t
De tal forma que ahora deberíamos estimar:
y t = β 0 + β1 z1t + β 2 z 2t + ε t
Ecuación que es completamente lineal tanto en las variables como en los parámetros.
Sin embargo, si el modelo fuera de la forma:
y t = β 0 + β1 x1t β 2 + β 2 e β3 x2 t + ε t
No sería posible hacer un cambio de variable similar al que hemos propuesto anteriormente, por
lo que habrá que estimarlo mediante procedimientos de tipo no lineal.
TRANSFORMACIÓN DE MODELO DE MODELOS NO LINEALES
PARA ESTIMAR DIRECTAMENTE POR MINIMOS CUADRADOS
ORDINARIOS.
Aunque el método de Mínimos Cuadrados Ordinarios (MCO) se utiliza exclusivamente en la
estimación de modelos de dependencia lineal, este método puede utilizarse en todos aquellos
modelos de ecuaciones que pueden transformarse en funciones lineales.
Son ejemplos de funciones no lineales que pueden transformarse a lineales, las siguientes:
a) Función Polinómica
La función polinómica:
Yt = β 0 + β 1 X t + β 2 X t2 + ... + β k X tk
se transforma en lineal:
Yt = β 0 + β 1 X 1t + β 2 X 2t + ... + β k X kt
Haciendo:
X 1t = X t
X 2 t = X t2
M
X kt = X tk
b) Función Potencial
La función potencial Yt = aX tb se transforma en lineal tomando logaritmos tal que:
log Yt = log a + b log X t
y se estima:
Y t* = β 0 + β 1 X *t
Haciendo:
Yt* = log Yt
X t* = log X t
En consecuencia:
a = e β0 y b = β1
c) Función Exponencial
La función exponencial Yt = ab
Xt
se transforma en lineal tomando logaritmos tal que:
log Yt = log a + X t log b
y se estima:
Y t* = β 0 + β 1 X t
Haciendo:
Yt* = log Yt
En consecuencia a = e β 0 y b = e β1
d) Función Logarítmica
La función logarítmica Yt = a + b log X t puede estimarse haciendo X t* = log X t , aplicando
MCO después a la expresión:
Y t = β 0 + β1 X *t
En consecuencia a = β 0 y b = β 1
MÍNIMOS CUADRADOS NO LINEALES
El método de Mínimos Cuadrados No Lineales, es una generalización del procedimiento del
método de MCO a la estimación de modelos lineales, de hecho las hipótesis de partida del
método mínimo-cuadrático no exige en ningún momento la linealidad del modelo, si bien la
resolución analítica del mismo se complica bastante cuando el modelo no es lineal.
Consideremos la siguiente expresión de un modelo no lineal:
Yt = f ( X t , β ) +ε i
(1.1.)
Donde f es una función cuya primera derivada es no lineal en β.
El método de Mínimos Cuadrados No Lineales, al igual que su homólogo lineal, trata de
minimizar el sumatorio de los errores del modelo al cuadrado, es decir:
T
T
Min SR ( β ) = ∑ ε = ∑ [Yt − f ( X t ; β )]
β
t =1
2
t
2
t =1
(1.2.)
Derivando la expresión anterior, obtenemos las condiciones de primer y segundo orden,
necesarias y suficientes para la obtención del mínimo:
Condición de 1º orden
T
∂f ( X t ; β )
∂SR ( β )
= −2∑ [Yt − f ( X t ; β )]·
=0
∂β
∂β
t =1
Condición de 2º orden
(1.3.)
 T ∂f ( X t ; β ) ∂f ( X t ; β ) T
∂2 f (Xt ;β ) 
∂ 2 SR( β )


= 2 ∑
·
− ∑ (Yt − f ( X t ; β ))·
∂β∂β '
∂
∂
'
∂
β
∂
β
'
β
β
t =1
 t =1

(1.4.)
Matriz que debe ser definida positiva.
Ejemplo 1.
Sea el modelo:
Yt = β 0 + β 1 e β 2 xt + ε t
Minimizamos la expresión del sumatorio de los residuos del modelo al cuadrado tal que:
Min SR( β ) =
β
∑ε = ∑ [Y
T
T
2
t
t =1
t =1
Derivando la expresión anterior, tenemos que:
T
∂SR( β )
= −2∑ (Yt − β 0 − β1e β2 xt )  = 0
∂β 0
t =1
T
∂SR( β )
= −2∑ (Yt − β 0 − β1e β2 xt )e β2 xt  = 0
∂β1
t =1
T
∂SR( β )
= −2∑ (Yt − β 0 − β1e β2 xt ) β1 xt e β2 xt  = 0
∂β 2
t =1
t
− ( β 0 + β 1 e β 2 xt )
]
2
Las ecuaciones obtenidas no poseen una solución analítica directa por lo que es necesario un
método iterativo para obtener los valores de los parámetros βi. Uno de los métodos utilizados
para resolver este tipo de problemas es el algoritmo de Newton-Raphson que pasamos a
examinar a continuación.
Algoritmo de Newton-Raphson
Supongamos que disponemos de una estimación βˆi del mínimo βˆ de la función f ( X t ; β ) ,
cuyas derivadas son continuas. Si consideramos un entorno del punto βˆi , el valor numérico de f
en un punto de dicho entorno puede aproximarse mediante un desarrollo en serie de Taylor de
orden 2 tal que:
[
]
'
f ( X t ; β ) ≅ M ( β ) = f ( βˆi ) + ∇f ( βˆi ) ( β − βˆi ) +
[
]
1
( β − βˆi )' ∇ 2 f ( βˆi ) ( β − βˆi )
2
(1.5.)
Donde ∇f ( βˆi ) y ∇ 2 f ( βˆi ) son, respectivamente, el gradiente (vector k x 1) y la matriz hessiana
(matriz simétrica de orden k x k) de la función f ( β ) evaluados en el punto β = βˆi .
Podemos mejorar la estimación actual, βˆi , reemplazándola por aquel vector que minimice la
expresión cuadrática anterior tal que:
[
]
[
]
∂M
= ∇f ( βˆi ) + ∇ 2 f ( βˆi ) ( β * − βˆi ) = 0
∂β
(1.6.)
De donde obtenemos que:
−1
βˆi +1 = β * = βˆi − ∇ 2 f ( βˆi ) ∇f ( βˆi )
(1.7.)
La expresión (11.7) permite aproximarse al valor desconocido del vector de parámetros β a
partir de un vector inicial de estimaciones βˆi suficientemente próximo a él.
Debe observarse que el punto β * que escogemos como nueva estimación minimiza realmente
el valor de f en el entorno de βˆi si la matriz hessiana ∇ 2 f ( βˆi ) es definida positiva, lo que estará
garantizado si f es convexa en el punto βˆi (es decir, si dicho punto estaba ya lo suficientemente
próximo a un mínimo local de f).
El procedimiento iterativo mediante el que se sustituyen las sucesivas estimaciones obtenidas a
través de la expresión (11.7) como punto de partida en la siguiente etapa del procedimiento
hasta que se satisfagan los criterios de convergencia que el investigador determine (por ejemplo,
que la diferencia entre las estimaciones de los parámetros obtenidos en cada etapa sea inferior a
una determinada cantidad) es lo que se conoce como algoritmo de Newton-Raphson.
La utilización de este algoritmo exige que se verifiquen dos supuestos: por un lado, deben
existir las derivadas que en él aparecen; asimismo, el hessiano de la función debe ser invertible.
El algoritmo de Newton-Raphson permite obtener numéricamente el estimador mínimocuadrático de un modelo en el que Y es una función no lineal de β. En tal caso, la función
objetivo será la que vimos en (11.2), es decir:
T
f ( β ) = SR ( β ) = ∑ [Yt − f ( X t ; β )]
2
(1.8.)
t =1
Se trata de hallar aquel vector de coeficientes βˆ que minimiza la suma residual al cuadrado,
SR( β ) . Para ello tomaremos las expresiones del gradiente y de la matriz hessiana que veíamos
anteriormente:
T
∂f ( X t ; β )
∂SR ( β )
= −2∑ [Yt − f ( X t ; β )]·
=0
∂β
∂β
t =1
 T ∂f ( X t ; β ) ∂f ( X t ; β ) T
∂2 f (Xt ;β ) 
∂ 2 SR( β )


= 2 ∑
·
− ∑ (Yt − f ( X t ; β ))·
β
β
∂β∂β '
∂
∂
'
∂
β
∂
β
'
t
=
1
t
=
1


(1.9.)
(1.10.)
Y las sustituiremos en la expresión (11.7) que define las etapas del algoritmo tal que:
−1
 T ∂f ( X ; β ) ∂f ( X ; β ) T
∂ 2 f ( X t ; β )  T
∂f ( X t ; β ) 

t
t
ˆ

β
β
β
=
+
−
−
[
−
]
·
(
Y
f
(
X
;
))·
·
Y
f
(
X
;
)
·
 ∑ t
 ∑

∑
i +1
i
t
∂β
∂β '
∂β∂β '  t =1
∂β 
t =1
 t =1

βˆ
Una vez se haya logrado la convergencia del algoritmo, se toma como matriz de varianzas y
covarianzas del estimador obtenido, el producto de la estimación de σ ε2 y la inversa de la matriz
hessiana:
[
σ ε2 ∇ 2 f ( βˆi )
]
−1
Por lo que la distribución asintótica del vector de estimadores será:
[
N  βˆi , σ ε2 ∇ 2 f ( βˆi )

]
−1 


Ejemplo 2.
Veamos cómo se aplicaría algoritmo de Newton-Raphson al modelo que veíamos en el ejemplo
11.1 tomado en desviaciones respecto a la media. En primer lugar, para poder trabajar con la
expresión (11.7) necesitamos calcular el gradiente y la matriz hessiana de la función objetivo tal
que:
f ( β ) = SR( β ) =
∑ [y
T
t
− β 1 e β 2 xt
t =1
∇f ( β ) = −2
∑ [ (e β
T
t =1
2 xt
)(
]
2
, β 1 e β 2 xt y t − β 1 e β 2 xt
)]
T 
e 2 β 2 xt
x t e β 2 xt ( 2 β1e β 2 xt − y t ) 
∇ 2 f (β ) = 2  β x
β
x
β x
2 β x


 t =1  x t e 2 t (2 β1e 2 t − y t ) β1 x t e 2 t ( 2 β1e 2 t − y t ) 
∑
Por lo que la expresión para obtener las sucesivas iteraciones del algoritmo de Newton-Raphson
es:
−1
ˆ
ˆ
ˆ
T
ˆ
 βˆ1 
 βˆ   T 
e 2 β 2 xt
x t e β 2 xt ( 2 βˆ1e β 2 xt − y t )    e β 2 xt
  = 1 + 
·


 βˆ 
 
βˆ x
βˆ x
βˆ x
2 βˆ x

 βˆ x

 2  i +1  βˆ2  i  t =1  x t e 2 t ( 2 βˆ1e 2 t − y t ) βˆ1 x t e 2 t ( 2 βˆ1e 2 t − y t )   t =1  βˆ1e 2 t
∑
∑
(
)


 y t − βˆ1e βˆ2 xt 



ESTIMADOR DE MÁXIMA VEROSIMILITUD
Si el lector tiene algunos conocimientos de Estadística Teórica seguramente sabrá que la
estimación por Máxima Verosimilitud precisa del establecimiento de un supuesto acerca de la
distribución del término de error, a partir de la cual construiremos una función de verosimilitud
que deberemos maximizar.
En general, supondremos que el término de error del modelo, εt, sigue una distribución Normal
con media 0 y varianza, σ ε2 ; en ese caso, la función de verosimilitud muestral será:
L( β , σ ε2 ) =
T
∏
t =1
1
2πσ ε2
−
e
1
2σ ε
2
[Yt − f ( X ; β ) ]2
T
 1
= 
2
 2πσ ε
T
[Yt − f ( X ; β ) ]
 2 − 2σ ε2 ∑
t =1
 e

1
2
(1.11.)
El logaritmo de la función evaluado en (βˆ , σˆ ε2 ) es:
ln L( βˆ , σˆ ε2 ) = −
[
]
T
T
1 T
T
T
1
2
ln2π - lnσˆ ε2 −
Yt − f ( X ; βˆ ) = − ln2π - lnσˆ ε2 −
SR( βˆ )
2 ∑
2
2
2σˆ ε t =1
2
2
2σˆ ε2
Como puede apreciarse, tal y como cabía esperar el parámetro σˆ ε2 no depende de ninguno de
los parámetros del vector β̂ ; por tanto, para maximizar la función de verosimilitud bastará con
seleccionar aquel vector β̂ que minimice la suma residual SR( βˆ ) . Las condiciones de
maximización de la función de verosimilitud serán por tanto:
[
]
∂ ln L( βˆi , σˆ ε2 )
∂f ( βˆ )
1 ∂SR( βˆi )
1 T
= − 2·
= 2 ∑ Yt − f ( X t ; βˆi ) t i = 0
2σˆ ε
σˆ ε t =1
∂βˆi
∂βˆi
∂βˆi
∀i = 1,2,..., k
(1.12.)
[
]
∂ ln L( βˆ , σˆ ε2 )
T
1 T
ˆ) 2 = 0
Y
f
(
X
;
β
=
−
+
−
∑
t
t
2σˆ ε2 2σˆ ε4 t =1
∂σˆ ε2
(1.13.)
Las soluciones del sistema de ecuaciones anterior proporcionan las estimaciones de Máxima
Verosimilitud del vector β y el parámetro σ ε2 bajo la hipótesis de Normalidad en el término de
error.
Como puede apreciarse, los resultados obtenidos coinciden el estimador de Mínimos Cuadrados
No Lineales; asimismo, de la segunda condición de optimalidad se deduce que la estimación de
σ ε2 es:
T
σˆ ε =
2
[
]
2
∑ Yt − f ( X t ; βˆ )
t =1
T
=
SR( βˆ )
T
Expresión, como vemos, análoga a la obtenida para el caso lineal.
Finalmente, la expresión de la matriz de covarianzas del estimador de Máxima Verosimilitud
puede aproximarse, para muestras grandes, mediante la inversa de la matriz de información.
Dicha matriz viene dada por1:
 1

 2
2
I (β ,σ ε ) =  σ ε



 ∂f

 ∂β



0k
'
 ∂f

 ∂β




0 k 

T 
2σ ε4 
(1.14.)
Si invertimos dicha matriz y sustituimos los valores de los parámetros desconocidos por sus
correspondientes valores estimados tenemos que:
1
El desarrollo de la demostración que conduce a esta expresión queda fuera de las pretensiones de este
texto.
−1
 
'
 2  ∂f   ∂f 
 σˆ ε  ˆ   ˆ 
Var ( βˆ , σˆ ε2 ) =   ∂β   ∂β 


0k

 ∂f
 ∂β
Siempre que 
'
  ∂f
 
  ∂β


0k 

2σˆ ε4 

T 
(1.15.)

 no sea una matriz singular.

APROXIMACIÓN LINEAL DE TAYLOR
Otra manera de abordar los modelos no lineales es mediante aproximaciones lineales. Una
aproximación lineal es una aproximación a una función cualquiera utilizando una
transformación lineal. Según el Teorema de Taylor, se puede aproximar una función derivable
en un entorno reducido alrededor de un punto ( a ) , mediante un polinomio cuyos coeficientes
dependen de las derivadas de la función en ese punto, es decir:
f ( x) = f (a) +
f ' (a)
f ( 2 ) (a)
f ( n ) (a)
( x − a) +
( x − a ) 2 + ... +
( x − a) n + R
1!
2!
n!
Lo que da lugar a la siguiente aproximación lineal:
f ( x) = f (a ) + f ' (a )( x − a ) + E
Donde E es el error de la aproximación.
Consideremos, entonces, el modelo de regresión no lineal siguiente:
Yt = f ( X t , β ) +ε i
La transformación lineal la función
f (X t , β )
ˆ
, alrededor de una estimación inicial, β mediante
la aproximación lineal de Taylor sería:
'
 ∂f ( X t ; βˆ ) 
 ( β − βˆ ) + ε t
Yt ≅ f ( X t ; βˆ ) + 


ˆ
∂β


Si simplificamos la notación como:
 ∂f ( X t ; βˆ ) 

z ( βˆ ) = 


ˆ
∂β


'
tenemos
Y ≅ f ( X t ; βˆ ) + z ( βˆ ) ' ( β − βˆ ) + ε t
(1.16.)
operando
Yt − f ( X t ; βˆ ) + z ( βˆ ) βˆ = z ( βˆ ) β + ε t
(1.17.)
Obteniéndose el siguiente modelo lineal:
Yt ≅ β ⋅ z ( βˆ ) + ε t
*
Donde
(1.18.)
Yt* = Yt − f ( X t ; βˆ ) + z ( βˆ ) βˆ
ˆ
Y*
como z ( β ) son observables, y el modelo (1.18)
Para un valor determinado de β̂ tanto
posee como estimador mínimo cuadrático a:
[
~
β = z ( βˆ )' z ( βˆ )
]
−1
*
z ( βˆ ) Yt
El desarrollo práctico sería el siguiente: debemos plantear una aproximación numérica inicial de
βˆ ; a continuación generar las observaciones numéricas para las variables Y , z ( βˆ ) y proceder a
*
estimar el modelo (11.18) por MCO obteniendo nuevas estimaciones numéricas para β̂
Con ellas, calculamos de nuevo las variables
(β~ ) .
Y * z ( βˆ )
,
e iteramos el procedimiento hasta
alcanzar determinada convergencia.
Si desarrollamos la expresión de los estimadores obtenidos mediante MCO tenemos que:
~
[
]
−1
β = z ( βˆ ) ' z ( βˆ ) z ( βˆ ) Yt * =
[
]
(
−1
= z ( βˆ ) ' z ( βˆ ) z ( βˆ ) Yt − f ( X t ; βˆ ) + z ( βˆ ) βˆ
[
]
−1
= βˆ + z ( βˆ ) ' z ( βˆ ) z ( βˆ ) εˆt
)
(1.19.)
La expresión (1.19.) proporciona de forma directa los estimadores MCO del modelo linealizado
mediante el desarrollo de Taylor, sin más que sustituir los valores indicados y teniendo en
cuenta que
εˆt es el residuo obtenido al sustituir en el modelo original la estimación inicial, βˆ .
2
La estimación del parámetro σˆ ε puede obtenerse de manera análoga al caso lineal tal que:
σˆ ε2 =
ε~' ε~
T −k
(1.20.)
~
~
Siendo ε = Y − f ( X , β )
[
]
ˆ ' ˆ
Finalmente, si existe la inversa de z ( β ) z ( β ) podemos derivar la distribución de probabilidad
~
del estimador β que será:
[
N  β , σ ε2 z ( βˆ ) ' z ( βˆ )

]
−1


(1.21.)
Ejemplo 3.
Si consideramos, ahora, la función
yt = β x1t + β 2 x 2t + u t = f ( xt , θ ) + u t
Con θ = ( β ) , cuyo gradiente es:
∂f ( xt , θ )
'
= ( x1t + 2 β x 2t )
∂θ
Entonces,
(
)
yt* = y t − f ( xt , θˆ) + z (θˆ)θˆ = y t − βˆx1t − βˆ 2 x 2t + x1t + 2 βˆx 2t βˆ
= y t − βˆx1t − βˆ 2 x 2t + βˆx1t + 2 βˆ 2 x 2t = y t + βˆ 2 x 2t
,
z1 (θˆ) = x1t + 2βˆx 2t
el modelo lineal a estimar resultará:
yt* = β z1 (θˆ) + ε t (1.22)
Vamos a aplicar dicho modelo a estimar una ecuación para los siguientes datos de la economía
española:
PIB(millones
de euros
moneda
constante)
1991
1992
1993
1994
1995
1996
1997
1998
1999
2000
2001
2002
2003
2004
2005
342.598
368.987
381.747
406.011
447.205
473.855
503.921
539.493
579.942
630.263
680.678
729.206
782.531
840.106
905.455
Ocupados
estudios
básicos
(miles)
10.284
9.967
9.333
9.112
9.155
9.124
9.300
9.553
9.964
10.293
10.556
10.734
11.103
11.329
11.743
Ocupados
estudios
superiores
(miles)
2.773
2.856
2.960
3.096
3.357
3.747
4.046
4.351
4.725
5.213
5.590
5.896
6.193
6.641
7.231
ˆ
Partimos de un valor de β = 1 , y calculamos las variables transformadas:
yt* = y t + β̂ 2 x 2t
345.371
371.842
384.707
409.107
450.562
477.602
507.967
543.844
584.667
635.476
686.268
735.102
788.724
846.747
912.686
z1 (θˆ) = x1t + 2βˆx 2t
15.830
15.678
15.254
15.303
15.869
16.619
17.391
18.255
19.415
20.719
21.736
22.527
23.489
24.612
26.204
Utilizando MCO estimamos (1.22):
yt* = 30,67 z1 (θˆ) + ε t
ˆ
Transformamos de nuevo las variables utilizando ahora βˆ = 30,67 , y estimamos de nuevo por
MCO el modelo (1.22):
yt* = y t + β̂ 2 x 2t
z1 (θˆ) = x1t + 2βˆx 2t
2.950.626
3.054.324
3.165.652
3.317.346
3.604.106
3.997.557
4.308.575
4.631.308
5.023.700
5.532.198
5.937.493
6.274.091
6.606.664
7.085.694
180.377
185.102
190.897
198.986
215.045
238.937
257.435
276.417
299.782
329.993
353.400
372.366
390.947
418.660
Obtenemos
yt* = 16,81z1 (θˆ) + ε t
Seguimos iterando hasta y alcanzamos la convergencia al cabo de la quinta iteración:
β
Iteración
1
2
3
4
5
Diferencia
30,67
16,81
11,42
10,26
10,20
-13,86
-5,38
-1,16
-0,06
La ecuación estimada sería por tanto:
yt = 10,20 x1t + 10,20 2 x 2t + u t
APROXIMACIÓN POR SERIES DE FOURIER
El desarrollo de series de Fourier también permite aproximar arbitrariamente cerca tanto a la
función como a sus derivadas sobre todo el dominio de definición de las mismas. La idea que
subyace en este tipo de aproximaciones (que se denominan semi-no-paramétricas) es ampliar el
orden de la base de expansión (el número de ciclos teóricos ó armónicos en que desarrollamos el
polinomio), cuando el tamaño de la muestra aumenta, hasta conseguir la convergencia asintótica
de la función aproximante a la verdadera función generadora de los datos y a sus derivadas2.
Un polinomio de Fourier viene dado por la expresión:
a k
+ ∑ (u j cos( jwo t ) + v j sin ( jwo t ))
2 j =1
Donde k es el número de ciclos teóricos o armónicos que consideramos, siendo el máximo n/2.
w0 =
2π
es la frecuencia fundamental (también denominada frecuencia angular fundamental).
n
t toma los valores enteros comprendidos entre 1 y n (es decir, t = 1, 2, 3, ...n).
Los coeficientes de los armónicos vienen dados por las expresiones:
a 2 n
2 n
2 n
= ∑ y i , u j = ∑ ( yi cos(w0 t i j )), v j = ∑ y i sin (wo t i j )
2 n i =1
n i =1
n i =1
La aproximación a una función no periódica g (x) por una serie de expansión de Fourier se
realiza en Gallart (1981) añadiendo es esta un término lineal y cuadrático. De esta forma que la
aproximación univariada se escribe como:
J
1
g ( x / θ ) = a + bx + cx 2 + ∑ u j cos( jx ) − v j s sin ( jx ) (1.23)
2
j =1
El vector de parámetros es θ = (a, b, c, u1 v1 ,..., u J , v J ) de longitud K = 3 + 2 J .
Suponiendo que los datos siguieran el modelo y i = g ( x i ) + ei para i=1,2,…,n estimariamos
θ por mínimos cuadrados, minimizando
( n )∑ [y − g
s n (θ ) = 1
2
n
i =1
i
K
(xi / θ )]2
Gallant, A. R.(1981) "On the Bias in Flexible Functional Forms and an Essentially Unbiased
Form." J. Econometrics 15(1981):211-45.
Gallant, A. R.(1984) "The Fourier Flexible Form." Amer. J. Agr. Econ. 66(1984):204-15
Dado que la variable exógena xi no esta expresada en forma periódica, debe de transformase o
normalizarse en un intervalo de longitud menor que 2π , [0,2π ] .
Considerando θ 0 la solución al problema de minimización anterior, podríamos obtener
diferentes soluciones minimocuadráticas para g (x ) , considerando diferentes valores de n y K y
elegir aquel de ellos que mejor aproxime, g (x ) , ( d / dx ) g ( x ) , y ( d 2 / dx 2 ) g ( x) . La norma de
Sobolev permite evaluar dichos errores de aproximación.
La expresión de la primera y segunda derivada de la función (1.23) son las siguientes:
D x g ( x / θ ) = b + cx + ∑ (− u j sin ( jx ) − v j cos( jx )) j (1.24)
J
j =1
D x2 g ( x / θ ) = c + ∑ (− u j cos( jx ) + v j sen( jx )) j 2 (1.25)
J
j =1
La aproximación multivariada se describe:
g ( x / θ ) = u o + b' x +
Donde C = −
[
A
u α kα k
∑
α
=1
0
)]
A 

1
x' Cx + ∑ u 0α + 2∑ u jα cos jkα' x − v jα sin jkα' x 
2
α =1 

'
a
(
)
(
. La regla de formación de la secuencia {kα } está dada en Gallant
(1981) y en Gallant (1982) para diferentes sistemas.
Ejemplo 4
Vamos a estimar una forma de flexibilidad global para el PIB trimestral de España, en índices
de volumen ajustados a estacinalidad y calendario, y utilizando como regresor los puestos de
trabajo equivalentes a tiempo completo, todas las series están obtenidas de la Contabilidad
Nacional Trimestral de España del INE.
Tabla 1
Contabilidad Nacional Trimestral Base 2000
Datos corregidos de estacionalidad y calendario.
Puestos de trabajo equivalentes a tiempo completo
Producto interior bruto
1995TI
12974
81,35
1995TII
13027
81,62
1995TIII
13043
81,85
1995TIV
13036
82,28
1996TI
13021
82,75
1996TII
13123
83,44
1996TIII
13310
84,14
1996TIV
13358
84,68
1997TI
13458
85,57
1997TII
13630
86,36
1997TIII
13756
87,35
1997TIV
13828
88,69
1998TI
13974
89,5
1998TII
14186
90,35
1998TIII
14391
91,43
1998TIV
14481
92,24
1999TI
14655
93,14
1999TII
14869
94,56
1999TIII
15026
95,99
1999TIV
15132
97,08
2000TI
15360
98,56
2000TII
15592
99,65
2000TIII
15867
100,36
2000TIV
15859
101,44
2001TI
15972
102,51
2001TII
16106
103,17
2001TIII
16290
104,12
2001TIV
16333
104,79
2002TI
16354
105,25
2002TII
16530
106,14
2002TIII
16702
106,79
2002TIV
16608
107,62
2003TI
16763
108,61
2003TII
16871
109,33
2003TIII
17108
110,02
2003TIV
17053
111,03
2004TI
17230
111,81
2004TII
17291
112,71
2004TIII
17574
114,01
2004TIV
17524
114,8
2005TI
17646
115,85
2005TII
17874
116,93
2005TIII
18225
117,93
2005TIV
18136
119,02
2006TI
18280
120,14
2006TII
18493
121,41
2006TIII
18702
122,48
2006TIV
18692
123,83
2007TI
18887
125,04
2007TII
19080
126,21
2007TIII
19253
127,13
2007TIV
19148
128,14
Fuente: INE
La aproximación utilizada es la descrita en (1.23) con la variable dependiente transformada en
un intervalo menor a 2π utilizando la siguiente función de transformación x =
2π ⋅ X
. En la
max( X )
ecuación se utilizan 7 parámetros, la constante, el asociado x , el asociado a x
2
2
y los
parámetros asociados a los dos primeros armónicos. El resultado de la estimación mínimo
cuadrática de (1.23) aparecen en la tabla adjunta:
x
x2
2
COS (x) SENO(x) COS(2x) SENO(2x)
g (x / θ )
4,2340 17,9271 -0,4603
-0,8878
-0,5762
0,8173
81,645
4,2513 18,0739 -0,4449
-0,8956
-0,6042
0,7969
82,087
4,2566 18,1183 -0,4402
-0,8979
-0,6124
0,7905
82,220
4,2543 18,0989 -0,4423
-0,8969
-0,6088
0,7933
82,162
4,2494 18,0572 -0,4466
-0,8947
-0,6010
0,7992
82,038
4,2827 18,3413 -0,4166
-0,9091
-0,6529
0,7575
82,875
4,3437 18,8677 -0,3604
-0,9328
-0,7402
0,6724
84,356
4,3594 19,0040 -0,3457
-0,9383
-0,7609
0,6488
84,725
4,3920 19,2896 -0,3149
-0,9491
-0,8016
0,5978
85,480
4,4481 19,7858 -0,2612
-0,9653
-0,8636
0,5043
86,735
4,4892 20,1534 -0,2213
-0,9752
-0,9021
0,4316
87,622
4,5127 20,3649 -0,1983
-0,9801
-0,9213
0,3888
88,118
4,5604 20,7972 -0,1514
-0,9885
-0,9541
0,2993
89,101
4,6296 21,4330 -0,0827
-0,9966
-0,9863
0,1649
90,486
4,6965 22,0569 -0,0159
-0,9999
-0,9995
0,0318
91,790
4,7259 22,3337
0,0135
-0,9999
-0,9996
-0,0269
92,357
4,7826 22,8736
0,0702
-0,9975
-0,9901
-0,1400
93,446
4,8525 23,5465
0,1396
-0,9902
-0,9610
-0,2765
94,789
4,9037 24,0464
0,1902
-0,9818
-0,9277
-0,3734
95,785
4,9383 24,3868
0,2240
-0,9746
-0,8996
-0,4366
96,466
5,0127 25,1273
0,2958
-0,9552
-0,8250
-0,5652
97,958
5,0884 25,8921
0,3672
-0,9301
-0,7303
-0,6832
99,525
5,1782 26,8134
0,4491
-0,8935
-0,5966
-0,8026
101,453
5,1756 26,7864
0,4468
-0,8946
-0,6008
-0,7994
101,396
5,2124 27,1695
0,4795
-0,8776
-0,5402
-0,8415
102,210
5,2562 27,6273
0,5174
-0,8558
-0,4647
-0,8855
103,191
5,3162 28,2621
0,5678
-0,8232
-0,3552
-0,9348
104,566
5,3302 28,4115
0,5793
-0,8151
-0,3288
-0,9444
104,891
5,3371 28,4847
0,5849
-0,8111
-0,3159
-0,9488
105,050
5,3945 29,1010
0,6305
-0,7762
-0,2050
-0,9788
106,397
5,4507 29,7098
0,6730
-0,7396
-0,0941
-0,9956
107,730
5,4200 29,3763
0,6500
-0,7599
-0,1550
-0,9879
107,000
5,4706 29,9272
0,6876
-0,7261
-0,0544
-0,9985
108,206
5,5058 30,3141
0,7128
-0,7014
0,0161
-0,9999
109,050
5,5832 31,1718
0,7648
-0,6442
0,1699
-0,9855
110,909
5,5652 30,9717
0,7531
-0,6579
0,1345
-0,9909
110,477
5,6230 31,6179
0,7899
-0,6133
0,2478
-0,9688
111,864
5,6429 31,8422
0,8019
-0,5974
0,2861
-0,9582
112,341
5,7352 32,8931
0,8536
-0,5209
0,4573
-0,8893
114,538
5,7189 32,7061
0,8450
-0,5348
0,4280
-0,9038
114,152
5,7587 33,1631
0,8656
-0,5007
0,4985
-0,8669
115,093
5,8332 34,0256
0,9004
-0,4350
0,6216
-0,7834
116,835
5,9477 35,3751
0,9443
-0,3292
0,7832
-0,6217
119,491
5,9187 35,0305
0,9343
-0,3565
0,7458
-0,6662
118,819
5,9656 35,5890
0,9500
-0,3122
0,8050
-0,5932
119,908
6,0352 36,4232
0,9694
-0,2455
0,8795
-0,4760
121,533
6,1034 37,2511
0,9839
-0,1789
0,9360
-0,3519
123,171
6,1001 37,2113
0,9833
-0,1821
0,9337
-0,3580
123,091
6,1637 37,9917
0,9929
-0,1192
0,9716
-0,2366
124,686
6,2267 38,7721
0,9984
-0,0564
0,9936
-0,1127
126,372
6,2832 39,4784
1,0000
0,0000
1,0000
0,0000
128,013
6,2489 39,0490
0,9994
-0,0343
0,9977
-0,0685
127,000
Los representación gráfica de los resultados obtenidos aparece en la figura nº1.
Figura nº 1
135
125
115
Aproximación FFF
105
PIB (IV)
95
85
19
95
19 TI
96
19 TI
97
19 TI
98
19 TI
99
20 TI
00
20 TI
01
20 TI
02
20 TI
03
20 TI
04
20 TI
05
20 TI
06
20 TI
07
TI
75
A continuación figuran los coeficientes obtenidos en la estimación MCO de la expansión de
Fourier:
coeficientes
COEFICIENTE VARIANZA
SENO (2X)
25,7726
48,4461
COS (2X)
30,5090
27,1992
SENO (x)
-452,1873
644,8903
153,4978
389,0007
163,5181
267,6648
-1623,8053
2811,5767
3691,2378
6689,6026
COS(x)
x2
2
x
Constante
Descargar