MÉTODOS DE ESTIMACIÓN NO LINEALES Francisco Parra Rodríguez Doctor en Ciencias Económicas y Empresariales. UNED. INTRODUCCIÓN La teoría económica propone modelos de relación entre variables económicas, pero generalmente deja indeterminada la forma funcional de dichas relaciones, por lo que en ocasiones dichas relaciones pueden ser de tipo no lineal. La cuantificación de dichas relaciones exige un tratamiento distinto al del caso lineal, utilizando técnicas de estimación que generalmente implican un mayor coste computacional pero que a cambio ofrecen un mejor ajuste. Por ello, en el presente capítulo se abordan algunas soluciones de cálculo para cuantificar este tipo de relaciones, las cuales generalmente exigen la utilización de algoritmos de optimización numérica en los que, a partir de una expresión general que representa una función de pérdida o de ganancia, de forma iterativa se evalúa una función objetivo, que variará dependiendo del procedimiento de estimación elegido, para las distintas combinaciones de los valores numéricos de los parámetros. El resultado de la estimación final será aquel conjunto de valores paramétricos que hagan mínima o máxima (según se defina) dicha función objetivo. Las relacionales no lineales que trataremos no hacen referencia a las variables explicativas sino a los parámetros incluidos en las relaciones del modelo, ya que las primeras pueden eliminarse mediante la transformación de datos apropiada. Por ejemplo, si la ecuación que tuviéramos que estimar fuera: y t = β 0 + β1e x1t + β 2 ln( x 2 t )· x 3t + ε t Bastaría con realizar los siguientes cambios de variable para poder estimar la ecuación mediante métodos lineales: z1t = e x1t z 2 t = ln( x 2t )· x 3t De tal forma que ahora deberíamos estimar: y t = β 0 + β1 z1t + β 2 z 2t + ε t Ecuación que es completamente lineal tanto en las variables como en los parámetros. Sin embargo, si el modelo fuera de la forma: y t = β 0 + β1 x1t β 2 + β 2 e β3 x2 t + ε t No sería posible hacer un cambio de variable similar al que hemos propuesto anteriormente, por lo que habrá que estimarlo mediante procedimientos de tipo no lineal. TRANSFORMACIÓN DE MODELO DE MODELOS NO LINEALES PARA ESTIMAR DIRECTAMENTE POR MINIMOS CUADRADOS ORDINARIOS. Aunque el método de Mínimos Cuadrados Ordinarios (MCO) se utiliza exclusivamente en la estimación de modelos de dependencia lineal, este método puede utilizarse en todos aquellos modelos de ecuaciones que pueden transformarse en funciones lineales. Son ejemplos de funciones no lineales que pueden transformarse a lineales, las siguientes: a) Función Polinómica La función polinómica: Yt = β 0 + β 1 X t + β 2 X t2 + ... + β k X tk se transforma en lineal: Yt = β 0 + β 1 X 1t + β 2 X 2t + ... + β k X kt Haciendo: X 1t = X t X 2 t = X t2 M X kt = X tk b) Función Potencial La función potencial Yt = aX tb se transforma en lineal tomando logaritmos tal que: log Yt = log a + b log X t y se estima: Y t* = β 0 + β 1 X *t Haciendo: Yt* = log Yt X t* = log X t En consecuencia: a = e β0 y b = β1 c) Función Exponencial La función exponencial Yt = ab Xt se transforma en lineal tomando logaritmos tal que: log Yt = log a + X t log b y se estima: Y t* = β 0 + β 1 X t Haciendo: Yt* = log Yt En consecuencia a = e β 0 y b = e β1 d) Función Logarítmica La función logarítmica Yt = a + b log X t puede estimarse haciendo X t* = log X t , aplicando MCO después a la expresión: Y t = β 0 + β1 X *t En consecuencia a = β 0 y b = β 1 MÍNIMOS CUADRADOS NO LINEALES El método de Mínimos Cuadrados No Lineales, es una generalización del procedimiento del método de MCO a la estimación de modelos lineales, de hecho las hipótesis de partida del método mínimo-cuadrático no exige en ningún momento la linealidad del modelo, si bien la resolución analítica del mismo se complica bastante cuando el modelo no es lineal. Consideremos la siguiente expresión de un modelo no lineal: Yt = f ( X t , β ) +ε i (1.1.) Donde f es una función cuya primera derivada es no lineal en β. El método de Mínimos Cuadrados No Lineales, al igual que su homólogo lineal, trata de minimizar el sumatorio de los errores del modelo al cuadrado, es decir: T T Min SR ( β ) = ∑ ε = ∑ [Yt − f ( X t ; β )] β t =1 2 t 2 t =1 (1.2.) Derivando la expresión anterior, obtenemos las condiciones de primer y segundo orden, necesarias y suficientes para la obtención del mínimo: Condición de 1º orden T ∂f ( X t ; β ) ∂SR ( β ) = −2∑ [Yt − f ( X t ; β )]· =0 ∂β ∂β t =1 Condición de 2º orden (1.3.) T ∂f ( X t ; β ) ∂f ( X t ; β ) T ∂2 f (Xt ;β ) ∂ 2 SR( β ) = 2 ∑ · − ∑ (Yt − f ( X t ; β ))· ∂β∂β ' ∂ ∂ ' ∂ β ∂ β ' β β t =1 t =1 (1.4.) Matriz que debe ser definida positiva. Ejemplo 1. Sea el modelo: Yt = β 0 + β 1 e β 2 xt + ε t Minimizamos la expresión del sumatorio de los residuos del modelo al cuadrado tal que: Min SR( β ) = β ∑ε = ∑ [Y T T 2 t t =1 t =1 Derivando la expresión anterior, tenemos que: T ∂SR( β ) = −2∑ (Yt − β 0 − β1e β2 xt ) = 0 ∂β 0 t =1 T ∂SR( β ) = −2∑ (Yt − β 0 − β1e β2 xt )e β2 xt = 0 ∂β1 t =1 T ∂SR( β ) = −2∑ (Yt − β 0 − β1e β2 xt ) β1 xt e β2 xt = 0 ∂β 2 t =1 t − ( β 0 + β 1 e β 2 xt ) ] 2 Las ecuaciones obtenidas no poseen una solución analítica directa por lo que es necesario un método iterativo para obtener los valores de los parámetros βi. Uno de los métodos utilizados para resolver este tipo de problemas es el algoritmo de Newton-Raphson que pasamos a examinar a continuación. Algoritmo de Newton-Raphson Supongamos que disponemos de una estimación βˆi del mínimo βˆ de la función f ( X t ; β ) , cuyas derivadas son continuas. Si consideramos un entorno del punto βˆi , el valor numérico de f en un punto de dicho entorno puede aproximarse mediante un desarrollo en serie de Taylor de orden 2 tal que: [ ] ' f ( X t ; β ) ≅ M ( β ) = f ( βˆi ) + ∇f ( βˆi ) ( β − βˆi ) + [ ] 1 ( β − βˆi )' ∇ 2 f ( βˆi ) ( β − βˆi ) 2 (1.5.) Donde ∇f ( βˆi ) y ∇ 2 f ( βˆi ) son, respectivamente, el gradiente (vector k x 1) y la matriz hessiana (matriz simétrica de orden k x k) de la función f ( β ) evaluados en el punto β = βˆi . Podemos mejorar la estimación actual, βˆi , reemplazándola por aquel vector que minimice la expresión cuadrática anterior tal que: [ ] [ ] ∂M = ∇f ( βˆi ) + ∇ 2 f ( βˆi ) ( β * − βˆi ) = 0 ∂β (1.6.) De donde obtenemos que: −1 βˆi +1 = β * = βˆi − ∇ 2 f ( βˆi ) ∇f ( βˆi ) (1.7.) La expresión (11.7) permite aproximarse al valor desconocido del vector de parámetros β a partir de un vector inicial de estimaciones βˆi suficientemente próximo a él. Debe observarse que el punto β * que escogemos como nueva estimación minimiza realmente el valor de f en el entorno de βˆi si la matriz hessiana ∇ 2 f ( βˆi ) es definida positiva, lo que estará garantizado si f es convexa en el punto βˆi (es decir, si dicho punto estaba ya lo suficientemente próximo a un mínimo local de f). El procedimiento iterativo mediante el que se sustituyen las sucesivas estimaciones obtenidas a través de la expresión (11.7) como punto de partida en la siguiente etapa del procedimiento hasta que se satisfagan los criterios de convergencia que el investigador determine (por ejemplo, que la diferencia entre las estimaciones de los parámetros obtenidos en cada etapa sea inferior a una determinada cantidad) es lo que se conoce como algoritmo de Newton-Raphson. La utilización de este algoritmo exige que se verifiquen dos supuestos: por un lado, deben existir las derivadas que en él aparecen; asimismo, el hessiano de la función debe ser invertible. El algoritmo de Newton-Raphson permite obtener numéricamente el estimador mínimocuadrático de un modelo en el que Y es una función no lineal de β. En tal caso, la función objetivo será la que vimos en (11.2), es decir: T f ( β ) = SR ( β ) = ∑ [Yt − f ( X t ; β )] 2 (1.8.) t =1 Se trata de hallar aquel vector de coeficientes βˆ que minimiza la suma residual al cuadrado, SR( β ) . Para ello tomaremos las expresiones del gradiente y de la matriz hessiana que veíamos anteriormente: T ∂f ( X t ; β ) ∂SR ( β ) = −2∑ [Yt − f ( X t ; β )]· =0 ∂β ∂β t =1 T ∂f ( X t ; β ) ∂f ( X t ; β ) T ∂2 f (Xt ;β ) ∂ 2 SR( β ) = 2 ∑ · − ∑ (Yt − f ( X t ; β ))· β β ∂β∂β ' ∂ ∂ ' ∂ β ∂ β ' t = 1 t = 1 (1.9.) (1.10.) Y las sustituiremos en la expresión (11.7) que define las etapas del algoritmo tal que: −1 T ∂f ( X ; β ) ∂f ( X ; β ) T ∂ 2 f ( X t ; β ) T ∂f ( X t ; β ) t t ˆ β β β = + − − [ − ] · ( Y f ( X ; ))· · Y f ( X ; ) · ∑ t ∑ ∑ i +1 i t ∂β ∂β ' ∂β∂β ' t =1 ∂β t =1 t =1 βˆ Una vez se haya logrado la convergencia del algoritmo, se toma como matriz de varianzas y covarianzas del estimador obtenido, el producto de la estimación de σ ε2 y la inversa de la matriz hessiana: [ σ ε2 ∇ 2 f ( βˆi ) ] −1 Por lo que la distribución asintótica del vector de estimadores será: [ N βˆi , σ ε2 ∇ 2 f ( βˆi ) ] −1 Ejemplo 2. Veamos cómo se aplicaría algoritmo de Newton-Raphson al modelo que veíamos en el ejemplo 11.1 tomado en desviaciones respecto a la media. En primer lugar, para poder trabajar con la expresión (11.7) necesitamos calcular el gradiente y la matriz hessiana de la función objetivo tal que: f ( β ) = SR( β ) = ∑ [y T t − β 1 e β 2 xt t =1 ∇f ( β ) = −2 ∑ [ (e β T t =1 2 xt )( ] 2 , β 1 e β 2 xt y t − β 1 e β 2 xt )] T e 2 β 2 xt x t e β 2 xt ( 2 β1e β 2 xt − y t ) ∇ 2 f (β ) = 2 β x β x β x 2 β x t =1 x t e 2 t (2 β1e 2 t − y t ) β1 x t e 2 t ( 2 β1e 2 t − y t ) ∑ Por lo que la expresión para obtener las sucesivas iteraciones del algoritmo de Newton-Raphson es: −1 ˆ ˆ ˆ T ˆ βˆ1 βˆ T e 2 β 2 xt x t e β 2 xt ( 2 βˆ1e β 2 xt − y t ) e β 2 xt = 1 + · βˆ βˆ x βˆ x βˆ x 2 βˆ x βˆ x 2 i +1 βˆ2 i t =1 x t e 2 t ( 2 βˆ1e 2 t − y t ) βˆ1 x t e 2 t ( 2 βˆ1e 2 t − y t ) t =1 βˆ1e 2 t ∑ ∑ ( ) y t − βˆ1e βˆ2 xt ESTIMADOR DE MÁXIMA VEROSIMILITUD Si el lector tiene algunos conocimientos de Estadística Teórica seguramente sabrá que la estimación por Máxima Verosimilitud precisa del establecimiento de un supuesto acerca de la distribución del término de error, a partir de la cual construiremos una función de verosimilitud que deberemos maximizar. En general, supondremos que el término de error del modelo, εt, sigue una distribución Normal con media 0 y varianza, σ ε2 ; en ese caso, la función de verosimilitud muestral será: L( β , σ ε2 ) = T ∏ t =1 1 2πσ ε2 − e 1 2σ ε 2 [Yt − f ( X ; β ) ]2 T 1 = 2 2πσ ε T [Yt − f ( X ; β ) ] 2 − 2σ ε2 ∑ t =1 e 1 2 (1.11.) El logaritmo de la función evaluado en (βˆ , σˆ ε2 ) es: ln L( βˆ , σˆ ε2 ) = − [ ] T T 1 T T T 1 2 ln2π - lnσˆ ε2 − Yt − f ( X ; βˆ ) = − ln2π - lnσˆ ε2 − SR( βˆ ) 2 ∑ 2 2 2σˆ ε t =1 2 2 2σˆ ε2 Como puede apreciarse, tal y como cabía esperar el parámetro σˆ ε2 no depende de ninguno de los parámetros del vector β̂ ; por tanto, para maximizar la función de verosimilitud bastará con seleccionar aquel vector β̂ que minimice la suma residual SR( βˆ ) . Las condiciones de maximización de la función de verosimilitud serán por tanto: [ ] ∂ ln L( βˆi , σˆ ε2 ) ∂f ( βˆ ) 1 ∂SR( βˆi ) 1 T = − 2· = 2 ∑ Yt − f ( X t ; βˆi ) t i = 0 2σˆ ε σˆ ε t =1 ∂βˆi ∂βˆi ∂βˆi ∀i = 1,2,..., k (1.12.) [ ] ∂ ln L( βˆ , σˆ ε2 ) T 1 T ˆ) 2 = 0 Y f ( X ; β = − + − ∑ t t 2σˆ ε2 2σˆ ε4 t =1 ∂σˆ ε2 (1.13.) Las soluciones del sistema de ecuaciones anterior proporcionan las estimaciones de Máxima Verosimilitud del vector β y el parámetro σ ε2 bajo la hipótesis de Normalidad en el término de error. Como puede apreciarse, los resultados obtenidos coinciden el estimador de Mínimos Cuadrados No Lineales; asimismo, de la segunda condición de optimalidad se deduce que la estimación de σ ε2 es: T σˆ ε = 2 [ ] 2 ∑ Yt − f ( X t ; βˆ ) t =1 T = SR( βˆ ) T Expresión, como vemos, análoga a la obtenida para el caso lineal. Finalmente, la expresión de la matriz de covarianzas del estimador de Máxima Verosimilitud puede aproximarse, para muestras grandes, mediante la inversa de la matriz de información. Dicha matriz viene dada por1: 1 2 2 I (β ,σ ε ) = σ ε ∂f ∂β 0k ' ∂f ∂β 0 k T 2σ ε4 (1.14.) Si invertimos dicha matriz y sustituimos los valores de los parámetros desconocidos por sus correspondientes valores estimados tenemos que: 1 El desarrollo de la demostración que conduce a esta expresión queda fuera de las pretensiones de este texto. −1 ' 2 ∂f ∂f σˆ ε ˆ ˆ Var ( βˆ , σˆ ε2 ) = ∂β ∂β 0k ∂f ∂β Siempre que ' ∂f ∂β 0k 2σˆ ε4 T (1.15.) no sea una matriz singular. APROXIMACIÓN LINEAL DE TAYLOR Otra manera de abordar los modelos no lineales es mediante aproximaciones lineales. Una aproximación lineal es una aproximación a una función cualquiera utilizando una transformación lineal. Según el Teorema de Taylor, se puede aproximar una función derivable en un entorno reducido alrededor de un punto ( a ) , mediante un polinomio cuyos coeficientes dependen de las derivadas de la función en ese punto, es decir: f ( x) = f (a) + f ' (a) f ( 2 ) (a) f ( n ) (a) ( x − a) + ( x − a ) 2 + ... + ( x − a) n + R 1! 2! n! Lo que da lugar a la siguiente aproximación lineal: f ( x) = f (a ) + f ' (a )( x − a ) + E Donde E es el error de la aproximación. Consideremos, entonces, el modelo de regresión no lineal siguiente: Yt = f ( X t , β ) +ε i La transformación lineal la función f (X t , β ) ˆ , alrededor de una estimación inicial, β mediante la aproximación lineal de Taylor sería: ' ∂f ( X t ; βˆ ) ( β − βˆ ) + ε t Yt ≅ f ( X t ; βˆ ) + ˆ ∂β Si simplificamos la notación como: ∂f ( X t ; βˆ ) z ( βˆ ) = ˆ ∂β ' tenemos Y ≅ f ( X t ; βˆ ) + z ( βˆ ) ' ( β − βˆ ) + ε t (1.16.) operando Yt − f ( X t ; βˆ ) + z ( βˆ ) βˆ = z ( βˆ ) β + ε t (1.17.) Obteniéndose el siguiente modelo lineal: Yt ≅ β ⋅ z ( βˆ ) + ε t * Donde (1.18.) Yt* = Yt − f ( X t ; βˆ ) + z ( βˆ ) βˆ ˆ Y* como z ( β ) son observables, y el modelo (1.18) Para un valor determinado de β̂ tanto posee como estimador mínimo cuadrático a: [ ~ β = z ( βˆ )' z ( βˆ ) ] −1 * z ( βˆ ) Yt El desarrollo práctico sería el siguiente: debemos plantear una aproximación numérica inicial de βˆ ; a continuación generar las observaciones numéricas para las variables Y , z ( βˆ ) y proceder a * estimar el modelo (11.18) por MCO obteniendo nuevas estimaciones numéricas para β̂ Con ellas, calculamos de nuevo las variables (β~ ) . Y * z ( βˆ ) , e iteramos el procedimiento hasta alcanzar determinada convergencia. Si desarrollamos la expresión de los estimadores obtenidos mediante MCO tenemos que: ~ [ ] −1 β = z ( βˆ ) ' z ( βˆ ) z ( βˆ ) Yt * = [ ] ( −1 = z ( βˆ ) ' z ( βˆ ) z ( βˆ ) Yt − f ( X t ; βˆ ) + z ( βˆ ) βˆ [ ] −1 = βˆ + z ( βˆ ) ' z ( βˆ ) z ( βˆ ) εˆt ) (1.19.) La expresión (1.19.) proporciona de forma directa los estimadores MCO del modelo linealizado mediante el desarrollo de Taylor, sin más que sustituir los valores indicados y teniendo en cuenta que εˆt es el residuo obtenido al sustituir en el modelo original la estimación inicial, βˆ . 2 La estimación del parámetro σˆ ε puede obtenerse de manera análoga al caso lineal tal que: σˆ ε2 = ε~' ε~ T −k (1.20.) ~ ~ Siendo ε = Y − f ( X , β ) [ ] ˆ ' ˆ Finalmente, si existe la inversa de z ( β ) z ( β ) podemos derivar la distribución de probabilidad ~ del estimador β que será: [ N β , σ ε2 z ( βˆ ) ' z ( βˆ ) ] −1 (1.21.) Ejemplo 3. Si consideramos, ahora, la función yt = β x1t + β 2 x 2t + u t = f ( xt , θ ) + u t Con θ = ( β ) , cuyo gradiente es: ∂f ( xt , θ ) ' = ( x1t + 2 β x 2t ) ∂θ Entonces, ( ) yt* = y t − f ( xt , θˆ) + z (θˆ)θˆ = y t − βˆx1t − βˆ 2 x 2t + x1t + 2 βˆx 2t βˆ = y t − βˆx1t − βˆ 2 x 2t + βˆx1t + 2 βˆ 2 x 2t = y t + βˆ 2 x 2t , z1 (θˆ) = x1t + 2βˆx 2t el modelo lineal a estimar resultará: yt* = β z1 (θˆ) + ε t (1.22) Vamos a aplicar dicho modelo a estimar una ecuación para los siguientes datos de la economía española: PIB(millones de euros moneda constante) 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 342.598 368.987 381.747 406.011 447.205 473.855 503.921 539.493 579.942 630.263 680.678 729.206 782.531 840.106 905.455 Ocupados estudios básicos (miles) 10.284 9.967 9.333 9.112 9.155 9.124 9.300 9.553 9.964 10.293 10.556 10.734 11.103 11.329 11.743 Ocupados estudios superiores (miles) 2.773 2.856 2.960 3.096 3.357 3.747 4.046 4.351 4.725 5.213 5.590 5.896 6.193 6.641 7.231 ˆ Partimos de un valor de β = 1 , y calculamos las variables transformadas: yt* = y t + β̂ 2 x 2t 345.371 371.842 384.707 409.107 450.562 477.602 507.967 543.844 584.667 635.476 686.268 735.102 788.724 846.747 912.686 z1 (θˆ) = x1t + 2βˆx 2t 15.830 15.678 15.254 15.303 15.869 16.619 17.391 18.255 19.415 20.719 21.736 22.527 23.489 24.612 26.204 Utilizando MCO estimamos (1.22): yt* = 30,67 z1 (θˆ) + ε t ˆ Transformamos de nuevo las variables utilizando ahora βˆ = 30,67 , y estimamos de nuevo por MCO el modelo (1.22): yt* = y t + β̂ 2 x 2t z1 (θˆ) = x1t + 2βˆx 2t 2.950.626 3.054.324 3.165.652 3.317.346 3.604.106 3.997.557 4.308.575 4.631.308 5.023.700 5.532.198 5.937.493 6.274.091 6.606.664 7.085.694 180.377 185.102 190.897 198.986 215.045 238.937 257.435 276.417 299.782 329.993 353.400 372.366 390.947 418.660 Obtenemos yt* = 16,81z1 (θˆ) + ε t Seguimos iterando hasta y alcanzamos la convergencia al cabo de la quinta iteración: β Iteración 1 2 3 4 5 Diferencia 30,67 16,81 11,42 10,26 10,20 -13,86 -5,38 -1,16 -0,06 La ecuación estimada sería por tanto: yt = 10,20 x1t + 10,20 2 x 2t + u t APROXIMACIÓN POR SERIES DE FOURIER El desarrollo de series de Fourier también permite aproximar arbitrariamente cerca tanto a la función como a sus derivadas sobre todo el dominio de definición de las mismas. La idea que subyace en este tipo de aproximaciones (que se denominan semi-no-paramétricas) es ampliar el orden de la base de expansión (el número de ciclos teóricos ó armónicos en que desarrollamos el polinomio), cuando el tamaño de la muestra aumenta, hasta conseguir la convergencia asintótica de la función aproximante a la verdadera función generadora de los datos y a sus derivadas2. Un polinomio de Fourier viene dado por la expresión: a k + ∑ (u j cos( jwo t ) + v j sin ( jwo t )) 2 j =1 Donde k es el número de ciclos teóricos o armónicos que consideramos, siendo el máximo n/2. w0 = 2π es la frecuencia fundamental (también denominada frecuencia angular fundamental). n t toma los valores enteros comprendidos entre 1 y n (es decir, t = 1, 2, 3, ...n). Los coeficientes de los armónicos vienen dados por las expresiones: a 2 n 2 n 2 n = ∑ y i , u j = ∑ ( yi cos(w0 t i j )), v j = ∑ y i sin (wo t i j ) 2 n i =1 n i =1 n i =1 La aproximación a una función no periódica g (x) por una serie de expansión de Fourier se realiza en Gallart (1981) añadiendo es esta un término lineal y cuadrático. De esta forma que la aproximación univariada se escribe como: J 1 g ( x / θ ) = a + bx + cx 2 + ∑ u j cos( jx ) − v j s sin ( jx ) (1.23) 2 j =1 El vector de parámetros es θ = (a, b, c, u1 v1 ,..., u J , v J ) de longitud K = 3 + 2 J . Suponiendo que los datos siguieran el modelo y i = g ( x i ) + ei para i=1,2,…,n estimariamos θ por mínimos cuadrados, minimizando ( n )∑ [y − g s n (θ ) = 1 2 n i =1 i K (xi / θ )]2 Gallant, A. R.(1981) "On the Bias in Flexible Functional Forms and an Essentially Unbiased Form." J. Econometrics 15(1981):211-45. Gallant, A. R.(1984) "The Fourier Flexible Form." Amer. J. Agr. Econ. 66(1984):204-15 Dado que la variable exógena xi no esta expresada en forma periódica, debe de transformase o normalizarse en un intervalo de longitud menor que 2π , [0,2π ] . Considerando θ 0 la solución al problema de minimización anterior, podríamos obtener diferentes soluciones minimocuadráticas para g (x ) , considerando diferentes valores de n y K y elegir aquel de ellos que mejor aproxime, g (x ) , ( d / dx ) g ( x ) , y ( d 2 / dx 2 ) g ( x) . La norma de Sobolev permite evaluar dichos errores de aproximación. La expresión de la primera y segunda derivada de la función (1.23) son las siguientes: D x g ( x / θ ) = b + cx + ∑ (− u j sin ( jx ) − v j cos( jx )) j (1.24) J j =1 D x2 g ( x / θ ) = c + ∑ (− u j cos( jx ) + v j sen( jx )) j 2 (1.25) J j =1 La aproximación multivariada se describe: g ( x / θ ) = u o + b' x + Donde C = − [ A u α kα k ∑ α =1 0 )] A 1 x' Cx + ∑ u 0α + 2∑ u jα cos jkα' x − v jα sin jkα' x 2 α =1 ' a ( ) ( . La regla de formación de la secuencia {kα } está dada en Gallant (1981) y en Gallant (1982) para diferentes sistemas. Ejemplo 4 Vamos a estimar una forma de flexibilidad global para el PIB trimestral de España, en índices de volumen ajustados a estacinalidad y calendario, y utilizando como regresor los puestos de trabajo equivalentes a tiempo completo, todas las series están obtenidas de la Contabilidad Nacional Trimestral de España del INE. Tabla 1 Contabilidad Nacional Trimestral Base 2000 Datos corregidos de estacionalidad y calendario. Puestos de trabajo equivalentes a tiempo completo Producto interior bruto 1995TI 12974 81,35 1995TII 13027 81,62 1995TIII 13043 81,85 1995TIV 13036 82,28 1996TI 13021 82,75 1996TII 13123 83,44 1996TIII 13310 84,14 1996TIV 13358 84,68 1997TI 13458 85,57 1997TII 13630 86,36 1997TIII 13756 87,35 1997TIV 13828 88,69 1998TI 13974 89,5 1998TII 14186 90,35 1998TIII 14391 91,43 1998TIV 14481 92,24 1999TI 14655 93,14 1999TII 14869 94,56 1999TIII 15026 95,99 1999TIV 15132 97,08 2000TI 15360 98,56 2000TII 15592 99,65 2000TIII 15867 100,36 2000TIV 15859 101,44 2001TI 15972 102,51 2001TII 16106 103,17 2001TIII 16290 104,12 2001TIV 16333 104,79 2002TI 16354 105,25 2002TII 16530 106,14 2002TIII 16702 106,79 2002TIV 16608 107,62 2003TI 16763 108,61 2003TII 16871 109,33 2003TIII 17108 110,02 2003TIV 17053 111,03 2004TI 17230 111,81 2004TII 17291 112,71 2004TIII 17574 114,01 2004TIV 17524 114,8 2005TI 17646 115,85 2005TII 17874 116,93 2005TIII 18225 117,93 2005TIV 18136 119,02 2006TI 18280 120,14 2006TII 18493 121,41 2006TIII 18702 122,48 2006TIV 18692 123,83 2007TI 18887 125,04 2007TII 19080 126,21 2007TIII 19253 127,13 2007TIV 19148 128,14 Fuente: INE La aproximación utilizada es la descrita en (1.23) con la variable dependiente transformada en un intervalo menor a 2π utilizando la siguiente función de transformación x = 2π ⋅ X . En la max( X ) ecuación se utilizan 7 parámetros, la constante, el asociado x , el asociado a x 2 2 y los parámetros asociados a los dos primeros armónicos. El resultado de la estimación mínimo cuadrática de (1.23) aparecen en la tabla adjunta: x x2 2 COS (x) SENO(x) COS(2x) SENO(2x) g (x / θ ) 4,2340 17,9271 -0,4603 -0,8878 -0,5762 0,8173 81,645 4,2513 18,0739 -0,4449 -0,8956 -0,6042 0,7969 82,087 4,2566 18,1183 -0,4402 -0,8979 -0,6124 0,7905 82,220 4,2543 18,0989 -0,4423 -0,8969 -0,6088 0,7933 82,162 4,2494 18,0572 -0,4466 -0,8947 -0,6010 0,7992 82,038 4,2827 18,3413 -0,4166 -0,9091 -0,6529 0,7575 82,875 4,3437 18,8677 -0,3604 -0,9328 -0,7402 0,6724 84,356 4,3594 19,0040 -0,3457 -0,9383 -0,7609 0,6488 84,725 4,3920 19,2896 -0,3149 -0,9491 -0,8016 0,5978 85,480 4,4481 19,7858 -0,2612 -0,9653 -0,8636 0,5043 86,735 4,4892 20,1534 -0,2213 -0,9752 -0,9021 0,4316 87,622 4,5127 20,3649 -0,1983 -0,9801 -0,9213 0,3888 88,118 4,5604 20,7972 -0,1514 -0,9885 -0,9541 0,2993 89,101 4,6296 21,4330 -0,0827 -0,9966 -0,9863 0,1649 90,486 4,6965 22,0569 -0,0159 -0,9999 -0,9995 0,0318 91,790 4,7259 22,3337 0,0135 -0,9999 -0,9996 -0,0269 92,357 4,7826 22,8736 0,0702 -0,9975 -0,9901 -0,1400 93,446 4,8525 23,5465 0,1396 -0,9902 -0,9610 -0,2765 94,789 4,9037 24,0464 0,1902 -0,9818 -0,9277 -0,3734 95,785 4,9383 24,3868 0,2240 -0,9746 -0,8996 -0,4366 96,466 5,0127 25,1273 0,2958 -0,9552 -0,8250 -0,5652 97,958 5,0884 25,8921 0,3672 -0,9301 -0,7303 -0,6832 99,525 5,1782 26,8134 0,4491 -0,8935 -0,5966 -0,8026 101,453 5,1756 26,7864 0,4468 -0,8946 -0,6008 -0,7994 101,396 5,2124 27,1695 0,4795 -0,8776 -0,5402 -0,8415 102,210 5,2562 27,6273 0,5174 -0,8558 -0,4647 -0,8855 103,191 5,3162 28,2621 0,5678 -0,8232 -0,3552 -0,9348 104,566 5,3302 28,4115 0,5793 -0,8151 -0,3288 -0,9444 104,891 5,3371 28,4847 0,5849 -0,8111 -0,3159 -0,9488 105,050 5,3945 29,1010 0,6305 -0,7762 -0,2050 -0,9788 106,397 5,4507 29,7098 0,6730 -0,7396 -0,0941 -0,9956 107,730 5,4200 29,3763 0,6500 -0,7599 -0,1550 -0,9879 107,000 5,4706 29,9272 0,6876 -0,7261 -0,0544 -0,9985 108,206 5,5058 30,3141 0,7128 -0,7014 0,0161 -0,9999 109,050 5,5832 31,1718 0,7648 -0,6442 0,1699 -0,9855 110,909 5,5652 30,9717 0,7531 -0,6579 0,1345 -0,9909 110,477 5,6230 31,6179 0,7899 -0,6133 0,2478 -0,9688 111,864 5,6429 31,8422 0,8019 -0,5974 0,2861 -0,9582 112,341 5,7352 32,8931 0,8536 -0,5209 0,4573 -0,8893 114,538 5,7189 32,7061 0,8450 -0,5348 0,4280 -0,9038 114,152 5,7587 33,1631 0,8656 -0,5007 0,4985 -0,8669 115,093 5,8332 34,0256 0,9004 -0,4350 0,6216 -0,7834 116,835 5,9477 35,3751 0,9443 -0,3292 0,7832 -0,6217 119,491 5,9187 35,0305 0,9343 -0,3565 0,7458 -0,6662 118,819 5,9656 35,5890 0,9500 -0,3122 0,8050 -0,5932 119,908 6,0352 36,4232 0,9694 -0,2455 0,8795 -0,4760 121,533 6,1034 37,2511 0,9839 -0,1789 0,9360 -0,3519 123,171 6,1001 37,2113 0,9833 -0,1821 0,9337 -0,3580 123,091 6,1637 37,9917 0,9929 -0,1192 0,9716 -0,2366 124,686 6,2267 38,7721 0,9984 -0,0564 0,9936 -0,1127 126,372 6,2832 39,4784 1,0000 0,0000 1,0000 0,0000 128,013 6,2489 39,0490 0,9994 -0,0343 0,9977 -0,0685 127,000 Los representación gráfica de los resultados obtenidos aparece en la figura nº1. Figura nº 1 135 125 115 Aproximación FFF 105 PIB (IV) 95 85 19 95 19 TI 96 19 TI 97 19 TI 98 19 TI 99 20 TI 00 20 TI 01 20 TI 02 20 TI 03 20 TI 04 20 TI 05 20 TI 06 20 TI 07 TI 75 A continuación figuran los coeficientes obtenidos en la estimación MCO de la expansión de Fourier: coeficientes COEFICIENTE VARIANZA SENO (2X) 25,7726 48,4461 COS (2X) 30,5090 27,1992 SENO (x) -452,1873 644,8903 153,4978 389,0007 163,5181 267,6648 -1623,8053 2811,5767 3691,2378 6689,6026 COS(x) x2 2 x Constante