Universidade de Vigo Estimación por mínimos cuadrados generalizados Modelo de regresión lineal Generalizado: Generalización del modelo de regresión lineal clásico Introducción a los estimadores MCG Universidade de Vigo Dados los fallos que ocurren en las propiedades de los estimadores MCO, surge la conveniencia de buscar estimadores alternativos que verifiquen mejores propiedades que los de MCO. Este es el caso de los estimadores de Mínimos cuadrados generalizados (MCG). Para construirlos basta observar una propiedad del nuevo modelo, que depende de la descomposición de la matriz de varianzas de las perturbaciones. Descomposición de la matriz de varianzas de las perturbaciones Universidade de Vigo La matriz de varianzas-covarianzas de las perturbaciones viene dada por S=s2W Como W es definida positiva se puede descomponer como potencia de una matriz simétrica invertible P tal que P’P=P2=W Transformación del modelo de regresión lineal generalizado Universidade de Vigo Consideremos la inversa de esa matriz P, denotada por P-1. Entonces premultiplicando las ecuaciones del modelo de regresión generalizado obtenemos que P -1 y = P -1 X + P -1 Cambiando los nombres de las variables, el modelo quedará de la siguiente forma y = X + * * * Por tanto, de nuevo tenemos un modelo de regresión lineal donde cambian las variables pero no los parámetros de la regresión. Falta ver si cambia la ley de distribución de las nuevas perturbaciones. La ley de distribución de las nuevas perturbaciones Es Normal por ser una transformación lineal de una Universidade de Vigo normal. Su esperanza es nula pues E(u*)=P-1 E(u)=0 Su varianza vendrá dada por Var(u*)=P-1 Var(u) P-1 = P-1s2W P-1= =s2P-1W P-1 = s2I Por consiguiente, las nuevas perturbaciones son esféricas, lo que significa que el nuevo modelo transformad es un modelo de regresión lineal normal donde las variables son diferentes de las originales. Consecuencias Universidade de Vigo El modelo de regresión lineal generalizado se obtiene a partir del modelo de regresión lineal clásico transformando las variables por una matriz simétrica invertible. Por lo tanto todas las propiedades el MRLC se verificarán una vez transformado el modelo de partida. Los estimadores de MCG se obtendrán como los estimadores MCO en ese modelo transformado. Las propiedades de los estimadores MCG serán las que tenían los estimadores MCO en el MRLN Estimadores MCG en el modelo transformado Consideremos el modelo y = X + * * Universidade de Vigo * Donde las perturbaciones siguen leyes normales esféricas. El estimador MCO de en ese modelo será bMCG=(X*’X*)-1X*’y* Que puesto en función de las variables del modelo original será: bMCG=(X’P-1 P-1X)-1 X’P-1 P-1y=(X’W-1X)-1 X’W-1y Estimadores de MCG en el MRLG Universidade de Vigo Generalizando la transformación al espacio residual se puede definir el estimador de la siguiente forma: Encontrar el mínimo en de SCEG() siendo SCEG() = u'W-1u = (Y-X)'W-1(Y-X) Partiendo de ese modelo se obtendrían las Ecuaciones normales generalizadas (X'W-1X) = X'W-1Y Y, como consecuencia los estimadores bMCG = (X'W-1X)-1 X'W-1Y que coinciden con los obtenidos previamente. Estimadores MV en el MRLG Universidade de Vigo La función de verosimilitud ahora será: F(y1,…,yT/X)= (2p)-T/2|S|-1exp[-(yt-Xt)’S-1(yt-Xt)/2] Se demuestra que al maximizar esta función en y S los estimadores son independientes y por consiguiente se puede maximizar en y luego en S, por consiguiente maximizar en b coincide con maximizar el exponente o lo que es lo mismo minimizar el termino del paréntesis que coincide con minimizar el exponente en lo que equivale a obtener el estimador de MCG, por lo tanto los estimadores de MV y MCG coinciden para el parámetro . Estimadores de MCG de la varianza Universidade de Vigo Para estimar la parte común de la matriz de varianzas covarianzas de las perturbaciones, se haría directamente partiendo del modelo transformado, pero teniendo en cuenta que los residuos obtenidos ahora no coinciden con los MCO 2 SRMCG e*' e * u' P -1 P -1u u'W-1u = = = T - k -1 T - k -1 T - k -1 Siendo los residuos ahora calculados como u=y-XbMCG Propiedades de los estimadores Universidade de Vigo Dado que son una generalización de los estimadores MCO, sus propiedades van a generalizar estas. Para facilitar su exposición las dividiremos en tres bloques: Propiedades geométricas de los estimadores de los coeficientes de regresión que se derivan directamente de las de MCO en el modelo transformado. Propiedades de las varianzas. Propiedades derivadas de la normalidad. Propiedades geométricas 1. 2. 3. 4. 5. Universidade de Vigo El estimador de mínimos cuadrados generalizados es el mejor estimador lineal insesgado (ELIO). Esto nos va a permitir afirmar que los estimadores MCO no van a ser ELIO con seguridad en el MRLG. Los valores estimados vienen dados por H1Y, siendo H1 la nueva matriz de proyección. Por tanto los valores estimados de la Y son una combinación lineal de las propias observaciones de la variable dependiente. Esto coincide con MCO, pero ahora la matriz H es diferente. Los residuos se definen como valor observado menos estimado y vienen dados en forma matricial por M1Y, siendo M1 la nueva matriz de proyección sobre el espacio residual. Tanto H1 como M1 son matrices idempotentes y su producto es nulo. Sin embargo no son simétricas como ocurría en el caso del MRLC. Demostración de las propiedades geométricas Universidade de Vigo Todas ellas se van a derivar de las propiedades de los estimadores MCO en el modelo transformado. Sus propiedades se deducen del teorema de Aitken que es la generalización del teorema de Gauss-Markov al caso del MRLG. En él se demuestra que los estimadores MCG son ELIO, lo que implica que los estimadores de MCO dejan de ser los mejores, puesto que su varianza no coincide con la de los estimadores MCG. Por consiguiente remitiremos a él en todos los cálculos y después se deshará la transformación. Demostración del Teorema de Aitken Universidade de Vigo El estimador MCG se puede escribir en el modelo transformado como bMCG=+(X*’X*)-1X*’u* De ahí se deriva directamente que es insesgado y lineal pues la transformación P-1 es lineal. Todos los estimadores lineales e insesgados en el MRLG son también lineales e insesgados en el modelo transformado. Esto se comprueba de modo similar a como se vio que los estimadores MCO eran lineales e insesgados en el MRLG Como el estimador MCG es óptimo en los ELI del modelo transformado, y todos los ELI del MRLG están en el transformado, será óptimo en el MRLG Proyecciones Universidade de Vigo Sobre el espacio de las X Los valores estimados vienen dados por H1Y, siendo H1 la nueva matriz de proyección. Por tanto los valores estimados de laY son una combinación lineal de las propias observaciones de la variable dependiente. y = XbMCG = X ( X ' W -1 X ) -1 X ' W -1 y = H1 y En el espacio residual Los residuos se definen como valor observado menos estimado y vienen dados en forma matricial por M1Y, siendo M1 la nueva matriz de proyección sobre el espacio residual u = y - y = y - XbMCG = = y - X ( X ' W -1 X ) -1 X ' W -1 y = ( I - H1 ) y = = M1 y Propiedades de las matrices de proyección Universidade de Vigo H1 es idempotente H1 = X ( X ' W -1 X ) -1 X ' W -1 H12 = X ( X ' W -1 X ) -1 X ' W -1 X ( X ' W -1 X ) -1 X ' W -1 = = X ( X ' W -1 X ) -1 X ' W -1 = H1 Si H1 es idempotente, entonces M1 también lo es por ser su complementaria H1 y M1 son ortogonales H1 M1 = H1 ( I - H1 ) = H1 - H12 = H1 - H1 = 0 Sin embargo no son simétricas como ocurría en el caso del MRLC. Propiedades de las varianzas Universidade de Vigo La varianza de los estimadores depende de la inversa de la matriz de diseño por su traspuesta ponderadas por la inversa de la matriz de varianzas-covarianzas. Var(bMCG)=s2(X'W-1X)-1 2. La varianza de los valores estimados depende de la parte común de la varianza de las perturbaciones pero ya no depende directamente de la matriz de proyecciones. 1. Var(YE)= s2X(X'W-1X)-1X's2H1 3. La varianza de los residuos depende directamente de la parte común de la varianza de las perturbaciones pero no de la matriz M1 de proyecciones sobre el espacio ortogonal a las X. Var(u)=s2(W-X(X'W-1X)-1X') s2M1 ANOVA en el MRLG Universidade de Vigo La suma ponderada por la inversa de la matriz de varianzas- covarianzas de cuadrados de la variable dependiente se puede descomponer en dos sumandos: la SCEG y otra cantidad que denominaremos suma generalizada de cuadrados debida a la regresión SCYG = SCRegG + SCEG siendo SCYG=Y'W-1Y SCEG=u'W-1u SCRegG=YE'W-1YE El coeficiente de determinación en el MRLG Universidade de Vigo A partir de esta descomposición se puede obtener una medida de la bondad de ajuste de la regresión, desde un punto de vista puramente geométrico, pues SC Re gG SCEG SC Re gG SCEG 1= + = 1SCYG SCYG SCYG SCYG que denominaremos Coeficiente de determinación de Buse R2. Este coeficiente -multiplicado por 100- nos da el porcentaje de variación total de la variable Y - en el sentido de su suma de las desviaciones respecto del origen - explicado por la regresión de la variable Y respecto de las X, utilizando una distancia matricial generalizada Propiedades bajo normalidad Universidade de Vigo Los estimadores de mínimos cuadrados generalizados siguen una ley Normal 2. Los valores estimados de Y siguen una ley Normal 3. Los residuos de la regresión de mínimos cuadrados ordinarios siguen una ley Normal 4. Los estimadores MCG de los coeficientes, bajo normalidad coinciden con los estimadores MV en el MRLG, y por lo tanto serán eficientes dentro de todos los insesgados y suficientes. 1. Leyes de distribución Universidade de Vigo Por consiguiente tendríamos las siguientes leyes de distribución: bMCG siguen una ley N (,s2(X'W-1X)-1) Y estimado siguen una ley Normal de parámetros (X,s2(X(X'W-1X)-1X')) Los residuos MCG siguen una ley normal de parámetros (0,s2(W-X(X'W-1X)-1X')) Ejemplo Los beneficios (después de impuestos) suelen ser una Universidade de Vigo parte de las ventas, cuyo cociente nos da el margen neto de la empresa. Para calcular cual es en promedio en una serie de empresas del sector de la alimentación se tienen datos de las ventas y los beneficios durante el año 2004. Calcular cual seria ese margen promedio estimado Si se sabe que el tamaño de la empresa afecta generando una variabilidad mayor en las empresas grandes que en las pequeñas. El efecto del tamaño sobre la variabilidad se conoce que s del 20%. Calcular si el margen promedio seguiría siendo el mismo. Comparar ambos estimadores, ¿Cuál seria mas eficiente? Modelo de solución Los beneficios son una parte de las ventas, por tanto: Beneficios=*ventas+e Se estima por MCO. Si la varianza depende linealmente de las ventas Var(e )=0,2*ventas Se estima por MCG. Universidade de Vigo Calculo por MCO XX 3525.000 IXX 0.2836879E-03 B 0.3631206 TB DATA 21.025 Universidade de Vigo Estimador de MCO, nos mide el margen neto PDF CDF 0.28555E-05 0.99998 1-CDF 0.15123E-04 Calculo por MCG: matriz de varianzas covarianzas de Universidade las perturbaciones de Vigo OMEGA 5 BY 6.400000 0.000000 0.000000 0.000000 0.000000 IOMEGA 5 BY 0.156250 0.000000 0.000000 0.000000 0.000000 5 MATRIX 0.000000 4.800000 0.000000 0.000000 0.000000 0.000000 0.000000 6.000000 0.000000 0.000000 0.000000 0.000000 0.000000 4.000000 0.000000 0.000000 0.000000 0.000000 0.000000 5.000000 5 MATRIX 0.000000 0.208333 0.000000 0.000000 0.000000 0.000000 0.000000 0.166666 0.000000 0.000000 0.000000 0.000000 0.000000 0.250000 0.000000 0.000000 0.000000 0.000000 0.000000 0.200000 Calculo por MCG XOX 655.0000 Estimador de IXOX MCG, nos mide el 0.001526718 margen neto BG 0.3587786 DATA PDF CDF 1-CDF TBG 8.8850 0.0001915 0.99956 0.00044329 Universidade de Vigo Comparación entre ambos Parámetros MCO MCG B 0.3631206 0.3587786 SB 0.01727063 0.04038048 TB 21.02532 8.884951 S2 1.051418 1.068032 Comparación de residuos EMCO EMCG 0.3801418 0.5190840 0.2851064 0.3893130 1.106383 1.236641 -1.262411 -1.175573 -1.078014 -0.9694656 Universidade de Vigo Estimación MCG cuando la varianza es desconocida Estimadores de mínimos cuadrados generalizados factibles Universidade de Vigo Estimación MCGF Universidade de Vigo Cuando la varianza no es conocida necesitamos estimarla previamente. En general, a este tipo de estimadores, los denominaremos de mínimos cuadrados generalizados factible (MCGF). El estimador tiene la forma genérica ˆ -1 X ) -1 X ' W ˆ -1 y bMCG = ( X ' W Puesto que los escalares de la matriz de covarianzas no afectan al estimador. En cada caso se trata de encontrar un estimador consistente de W. Por consiguiente el método de estimación se suele hacer en dos pasos: 1. 2. Se estima la matriz de covarianzas W Se calcula el estimador de MCGF sustituyendo el valor de W por su estimador Métodos de estimación MCGF Universidade de Vigo Una vez obtenido el estimador de W, lo normal para calcular el estimador MCGF consiste en buscar la transformación que nos permita hacer uso de los estimadores MCO, es decir se busca una matriz P de tal forma que W =P’P Se toma el estimador de P y se transforma el modelo mediante esa matriz. Se calcula el estimador MCO en el modelo transformado. Ese suele ser el estimador MCGF en dos pasos. Lo calcularemos para los diferentes casos, es decir autocorrelación y heterocedasticidad, peor antes veamos las propiedades genéricas de estos estimadores. Propiedades de los estimadores MCGF Universidade de Vigo Las propiedades de este tipo de estimadores dependen de las propiedades del estimador de la varianza. Normalmente si se consigue que este sea consistente se verifican las siguientes propiedades: Consistentes Asintóticamente normales Asintóticamente insesgados Asintóticamente eficientes Puesto que estos estimadores convergen asintóticamente al estimador MCG. Pero no verifican propiedades exactas en pequeñas muestras. Tratamiento de la autocorrelación Estimadores MCGF: Método de Cochran-Orcutt, Prais-Wisten, Malla Estimadores e MV Universidade de Vigo Tratamiento de la autocorrelación Universidade de Vigo Como, en general, no conocemos los parámetros que caracterizan la matriz de varianzas-covarianzas de las perturbaciones tendremos que estimarlos, lo que nos hará perder eficiencia en pequeñas muestras. Vamos a considerar diferentes casos, según estimemos por MCGF o por MV. Para los estimadores MCG, la idea básica consiste en buscar cual es la matriz de transformaciones que nos transforma el modelo generalizado en un modelo clásico. Esa transformación se conoce con el nombre de transformación de Cochran-Orcutt. Forma matricial del modelo lineal con autocorrelación Universidade de Vigo Escribiendo en forma matricial lo anterior tendríamos que Y=X+n; siendo n una N(0, S) n -1 1 ... n-2 1 ... 2 =s ... ... ... ... n -1 ... ... 1 Por consiguiente estaríamos en un caso particular del modelo de regresión lineal generalizado. Sus efectos serán consecuencia de ello. Estimador de MCGF bajo autocorrelación Universidade de Vigo El estimador de MCGF tiene la forma genérica de ˆ -1 X ) -1 X ' W ˆ -1 y bMCG = ( X ' W El único parámetro que interviene en dicha matriz es el parámetro r, por consiguiente debemos encontrar un estimador consistente de él. Después debemos buscar una matriz P que permita descomponer la matriz W en P’P. Una forma de conseguir esa matriz consiste en hacer uso de la transformación de Cochran-Orcutt. Matriz de transformación de CochraneOrcutt Universidade de Vigo Si fuera conocido la matriz S-1 se comprueba que se descompone en S-1 =s-2 G’G(1-2 )-1 Siendo G la matriz siguiente, que a su vez se puede particionar en dos submatrices: 1- 2 - G = 0 . - 0 1 - . . 0 1 . . . . . . . . . . . . - 1- 2 0 0 0 = . 1 0 . . G* 0 La submatriz de Cochrane-Orcutt Universidade de Vigo Se descompone de esa forma puesto que es interesante analizar el comportamiento de la matriz G*, que es propiamente la transformación de C-O. Dicha matriz tiene la diagonal principal todo 1. La diagonal secundaria inferior todo . El resultado de multiplicar G* por una variable cualquiera z nos daría la diferencia entre el valor actual y el valor retardado multiplicado por . G*z=zt-zt-1 Esto nos permite obtener una transformación directa sobre las variables originales del modelo, es decir, se le aplica a la variable dependiente a cada una de las independientes obteniendo de forma directa el modelo transformado. Como en el cálculo de la matriz inversa de S, además de G aparecen solo escalares, al modelo obtenido mediante las transformaciones anteriores se le puede aplicar la estimación de MCO para obtener el estimador MCG correspondiente. Transformación de Cochrane-Orcutt Universidade de Vigo Las transformaciones de cada variable serían en conjunto: Para la dependiente y * = 1 - 2 y * 1 yt = Gyt 1* y t = yt - yt -1 T=2,...T Para las independientes * 2 x = 1 x j1 j1 * xt = Gxt * x jt = x jt - x jt -1 T=2,...T Que se puede observar que coincide con la transformación de C-O salvo en el primer elemento. Modelo resultante Universidade de Vigo Fruto de la transformación de C-O (sin contar la primera observación), nos quedaría el siguiente modelo yt = (1 - ) + xt - xt-1 + yt -1 + e t Es decir la variable dependiente depende de las independientes, de las independientes retardadas un periodo y de la dependiente retardada un periodo. Este modelo es el mismo que se obtiene directamente del modelo de autocorrelación de orden 1, sustituyendo las perturbaciones autocorreladas, lo que nos sirve también para comprobar la validez de la transformación. Procedimiento de Cochrane-Orcutt en dos pasos Universidade de Vigo Cuando es desconocido, el problema es determinar el valor de en la práctica. Este procedimiento consiste en dos etapas En la primera se estima mediante MCO o un método alternativo En la segunda etapa se estima el modelo transformado, sustituyendo el parámetro por sus estimadores de la primera etapa. El modelo resultante sería: y2 - y1 1 x2 - x1 e2 (1 - ) + : : : = : y - y 1 x - x e T -1 T T -1 T T Perdiendo la primera observación Procedimiento de Cochrane-Orcutt en dos pasos (2) Universidade de Vigo Por tanto, se estima en la primera etapa y perdiendo la primera observación, se hacen las transformaciones de C-O, esto es yt* = G * yt y *t = yt - ˆyt -1 xt* = G * xt xt* = xt - ˆ xt -1 Una vez hecha la transformación se aplica de nuevo MCO a la regresión de la Y transformada respecto a las X transformadas. Estimación inicial del coeficiente de autocorrelación Universidade de Vigo La estimación del coeficiente de autocorrelación se puede hacer de diferentes formas. Todas ellas asintóticamente equivalentes, pero con algunas diferencias en pequeñas muestras. Van a depender de los siguientes factores: La eficiencia del estimador La capacidad de cálculo La robustez del modelo Consideramos cuatro opciones: 1. El coeficiente de autocorrelación simple 2. El coeficiente de autocorrelación simple corregido 3. El método de Durbin-Watson 4. La estimación conjunta El coeficiente de autocorrelación simple Universidade de Vigo Las dos primeras opciones son muy similares, puesto que se trata de estimar mediante el coeficiente de autocorrelacion muestral, puesto que es un estimador consistente. La diferencia está en el número de observaciones utilizado, pero no afecta cuando la muestra es grande. El coeficiente de autocorrelación simple de primer orden, es decir se calcula la suma de los productos cruzados de los residuos por los residuos retardados, y se divide entre la suma de residuos al cuadrado ̂ = T ei ei -1 i =2 T 2 e i i =1 Se subestima en parte, al haber mas sumandos en el denominador que en el numerador El coeficiente de autocorrelación simple corregido Universidade de Vigo Para paliar el problema anterior, se hace uso del coeficiente de autocorrelación simple de primer orden, pero corrigiendo el denominador, para que tenga el mismo numero de observaciones que el numerador. T ̂ = ei ei -1 i =2 T 2 e i -1 i =2 El problema que e plantea es que las correcciones podrían haberse eliminando el último residuo en vez del primero o combinando ambas. No existe una regla que nos diga que este es mejor. Se utiliza en muestras pequeñas, pero dado que sus propiedades son asintóticas su efecto es prácticamente indiferente. Método de Durbin-Watson El estimador que se obtiene a partir del estadístico de Universidade de Vigo Durbin-Watson, ya que vimos que éste era una aproximación de una función del coeficiente de autocorrelación simple. Como el estimador d es un estimador consistente del calor teórico del estadístico, el estimador de r de este modo también será un estimador consistente. Entonces el estimador, siendo d el estadístico DW, será: r= 1- d/2 Este método es una aproximación, pero tampoco se puede demostrar que sea mas eficiente que los otros métodos Estimación conjunta Universidade de Vigo Se estima a partir de la ecuación de regresión transformada yt = (1 - ) + 1 xt - 2 xt -1 + yt -1 + e t restringida a 1 = 2 Es el método mas eficiente pero también el que exige mas cálculo En la práctica solo se utiliza cuando se buscan estimadores MV que busca la estimación de todos los parámetros conjuntamente. Estimación de RHO ?ols y x1 x2/resid=e predict=ye rstat dwpvalue noanova gen1 N=$N gen1 DW=$DW gen1 rhodw=1-dw/2 gen1 rho1=$rho RHO1= g elag=lag(e) g ee1=(e*elag) RHODW= g e2=e*e RHO1A= stat e2/sum=se2a beg=1 end=40 RHO1B= stat e2/sum=se2b beg=1 end=39 stat ee1/sum=se1 beg=2 end=40 RHOCJ = gen1 rho1a=se1/se2a gen1 rho1b=se1/se2b |_auto y x1 x2 / dn ml noanova iter=2 Conjunta MAXIMUM LIKELIHOOD ESTIMATION 40 OBSERVATIONS BY COCHRANE-ORCUTT TYPE PROCEDURE WITH CONVERGENCE = 0.00100 ITERATION RHO LOG L.F. SSE 1 0.00000 -4.43019 2.9227 2 0.65818 8.56528 1.5046 LOG L.F. = 8.56528 AT RHO = 0.65818 Universidade de Vigo 0.6563030 0.6690766 0.6521211 0.6563030 0.65818 Procedimiento de C-O iterativo Universidade de Vigo 1: Se estiman los residuos, generalmente por OLS. 2: Se estima a partir de la correlación entre los residuos. 3: Se transforman los datos según C-O utilizando la matriz G* (por tanto, se elimina el primer término) 4: Se estiman por OLS los coeficientes en el modelo transformado 5: Se reestiman los residuos por OLS entre las variables transformadas. 6: Se repiten de la Fase 2 a la 4 hasta que los residuos no presenten autocorrelación. La iteración mejora la eficiencia de los estimadores por lo que los estimadores iniciales son secundarios, siempre y cuando estén todos en un entorno cercano al óptimo. Problemas de óptimo de Universidade de Vigo Mínimo parcial SCE() Mínimo global Iniciando ahí converge al mínimo global Iniciando ahí converge al mínimo local parcial 0 * Estimación por CO para las telas |_auto y x1 x2/drop noanova REQUIRED MEMORY IS PAR= 7 CURRENT PAR= 4000 DEPENDENT VARIABLE = Y ..NOTE..R-SQUARE,ANOVA,RESIDUALS DONE ON ORIGINAL VARS LEAST SQUARES ESTIMATION 39 OBSERVATIONS BY COCHRANE-ORCUTT TYPE PROCEDURE WITH CONVERGENCE = 0.00100 ITERATION RHO LOG L.F. SSE 1 0.00000 -4.81313 2.9227 2 0.65630 9.06698 1.4343 3 0.70292 9.15983 1.4275 4 0.70428 9.15991 1.4275 5 0.70433 9.15991 1.4275 LOG L.F. = 9.15991 AT RHO = 0.70433 ASYMPTOTIC ASYMPTOTIC ASYMPTOTIC ESTIMATE VARIANCE ST.ERROR T-RATIO RHO 0.70433 0.01292 0.11367 6.19627 R-SQUARE = 0.9832 R-SQUARE ADJUSTED = 0.9823 VARIANCE OF THE ESTIMATE-SIGMA**2 = 0.39654E-01 STANDARD ERROR OF THE ESTIMATE-SIGMA = 0.19913 SUM OF SQUARED ERRORS-SSE= 1.4275 MEAN OF DEPENDENT VARIABLE = 14.330 LOG OF THE LIKELIHOOD FUNCTION = 9.15991 VARIABLE ESTIMATED STANDARD T-RATIO PARTIAL STANDARDIZED ELASTICITY NAME COEFFICIENT ERROR 36 DF P-VALUE CORR. COEFFICIENT AT MEANS X1 0.50315 0.8772E-02 57.36 0.000 0.995 0.9737 0.2455 X2 0.11461 0.1126E-01 10.18 0.000 0.861 0.1737 0.0574 CONSTANT 10.032 0.1466 68.44 0.000 0.996 0.0000 0.7001 Universidade de Vigo Procedimiento de Prais-Winsten Consiste en una mejora del procedimiento anterior trabajando con la matriz G en vez de G* Por tanto, se tiene en cuenta la primera observación Esto mejora la eficiencia en pequeñas muestras. En muestras grandes apenas se nota. Universidade de Vigo Estimación por PW para las telas |_sample 1 40 |_read Y X1 X2 3 VARIABLES AND 40 OBSERVATIONS STARTING AT OBS 1 |_auto y x1 x2/noanova REQUIRED MEMORY IS PAR= 7 CURRENT PAR= 4000 DEPENDENT VARIABLE = Y ..NOTE..R-SQUARE,ANOVA,RESIDUALS DONE ON ORIGINAL VARS LEAST SQUARES ESTIMATION 40 OBSERVATIONS BY COCHRANE-ORCUTT TYPE PROCEDURE WITH CONVERGENCE = 0.00100 ITERATION RHO LOG L.F. SSE 1 0.00000 -4.43019 2.9227 2 0.65630 8.55719 1.5054 3 0.70231 8.67597 1.4921 4 0.70320 8.67661 1.4920 LOG L.F. = 8.67661 AT RHO = 0.70320 ASYMPTOTIC ASYMPTOTIC ASYMPTOTIC ESTIMATE VARIANCE ST.ERROR T-RATIO RHO 0.70320 0.01264 0.11242 6.25532 R-SQUARE = 0.9824 R-SQUARE ADJUSTED = 0.9815 VARIANCE OF THE ESTIMATE-SIGMA**2 = 0.40324E-01 STANDARD ERROR OF THE ESTIMATE-SIGMA = 0.20081 SUM OF SQUARED ERRORS-SSE= 1.4920 MEAN OF DEPENDENT VARIABLE = 14.330 LOG OF THE LIKELIHOOD FUNCTION = 8.67661 VARIABLE ESTIMATED STANDARD T-RATIO PARTIAL STANDARDIZED ELASTICITY NAME COEFFICIENT ERROR 37 DF P-VALUE CORR. COEFFICIENT AT MEANS X1 0.50342 0.8848E-02 56.90 0.000 0.994 0.9742 0.2456 X2 0.11307 0.1130E-01 10.01 0.000 0.855 0.1714 0.0567 CONSTANT 9.9919 0.1441 69.35 0.000 0.996 0.0000 0.6973 Universidade de Vigo Procedimiento de malla Universidade de Vigo Es un procedimiento iterativo, que se puede aproximar hasta el error que se desee. Normalmente se prefija inicialmente. Los pasos que se dan son los siguientes 1. Se va variando el valor de desde -1 a +1 con incremento de 0,1 y realizar para cada uno el primer paso del procedimiento C-O, y calcular la suma de cuadrados de los residuos. 2. Elegiremos las dos estimaciones consecutivas que minimicen dicha suma. 3. Se repite el procedimiento tomando el paso con incrementos de 0,01 en los estimadores obtenidos en el paso 2 hasta una nueva minimización de la suma de cuadrados 4. Este proceso se repite hasta obtener el error deseado. Normalmente exige mucho cálculo y no mejora la aproximación No obstante sirve para ver si el valor inicial de r nos acerca al máximo global, ya que cubrimos todo el espectro de valores de Estimación por malla para las telas: 1ª malla REQUIRED MEMORY IS PAR= 7 CURRENT PAR= 4000 DEPENDENT VARIABLE = Y ..NOTE..R-SQUARE,ANOVA,RESIDUALS DONE ON ORIGINAL VARS LEAST SQUARES ESTIMATION 40 OBSERVATIONS BY GRID SEARCH TO ACCURACY OF .01 ITERATION RHO LOG L.F. 1 -0.90000 -26.5475 2 -0.80000 -24.1327 3 -0.70000 -21.7917 4 -0.60000 -19.4405 5 -0.50000 -17.0538 6 -0.40000 -14.6215 7 -0.30000 -12.1396 8 -0.20000 -9.60824 9 -0.10000 -7.03329 10 0.00000 -4.43019 Maximización de la 11 0.10000 -1.82998 12 0.20000 0.713450 función de 13 0.30000 3.11662 verosimilitud 14 0.40000 5.26304 15 0.50000 7.00736 16 0.60000 8.19174 17 0.70000 8.67402 18 0.80000 8.35471 19 0.90000 7.15689 Universidade de Vigo Minimización de la suma de cuadrados de los errores SSE 8.4728 7.6300 6.8466 6.1219 5.4548 4.8439 4.2872 3.7825 3.3281 2.9227 2.5657 2.2576 1.9993 1.7923 1.6379 1.5377 1.4925 1.5034 1.5709 Estimación por malla para las telas: 2ª malla ITERATION 20 21 22 23 24 25 Minimización de la 26 suma de 27 cuadrados de los28 errores 29 30 31 32 Maximización 33 de la función 34 de 35 verosimilitud 36 37 38 39 RHO 0.61000 0.62000 0.63000 0.64000 0.65000 0.66000 0.67000 0.68000 0.69000 0.70000 0.71000 0.72000 0.73000 0.74000 0.75000 0.76000 0.77000 0.78000 0.79000 0.73000 LOG L.F. 8.27360 8.34827 8.41565 8.47561 8.52805 8.57286 8.60995 8.63923 8.66061 8.67402 8.67937 8.67659 8.66563 8.64642 8.61890 8.58302 8.53871 8.48593 8.42462 8.66563 Universidade de Vigo SSE 1.5306 1.5242 1.5183 1.5129 1.5081 1.5039 1.5002 1.4971 1.4945 1.4925 1.4911 1.4902 1.4899 1.4901 1.4909 1.4923 1.4942 1.4967 1.4998 1.4899 Estimación por malla para las telas LOG L.F. = Universidade de Vigo AT RHO = 0.73000 ASYMPTOTIC ASYMPTOTIC ASYMPTOTIC ESTIMATE VARIANCE ST.ERROR T-RATIO RHO 0.73000 0.01168 0.10806 6.75535 R-SQUARE = 0.9825 R-SQUARE ADJUSTED = 0.9815 VARIANCE OF THE ESTIMATE-SIGMA**2 = 0.40267E-01 STANDARD ERROR OF THE ESTIMATE-SIGMA = 0.20067 SUM OF SQUARED ERRORS-SSE= 1.4899 MEAN OF DEPENDENT VARIABLE = 14.330 LOG OF THE LIKELIHOOD FUNCTION = 8.66563 VARIABLE NAME X1 X2 CONSTANT ESTIMATED 8.66563 STANDARD COEFFICIENT ERROR 0.50340 0.8729E-02 0.11341 0.1115E-01 9.9888 0.1495 T-RATIO 37 DF 57.67 10.17 66.80 PARTIAL STANDARDIZED ELASTICITY P-VALUE 0.000 0.000 0.000 CORR. COEFFICIENT 0.994 0.9742 0.858 0.1719 0.996 0.0000 AT MEANS 0.2456 0.0568 0.6970 Estimador de máxima verosimilitud Normalmente el estimador MCG y el de MV coinciden, Universidade de Vigo bajo normalidad, puesto que la matriz de varianzas covarianzas es conocida. No ocurre lo mismo cuando se habla de MCGF y MV, aunque ambos son asintóticamente equivalentes. Aun suponiendo normalidad al incluir la autocorrelación, maximizar la función de logverosimilitud no es equivalente a minimizar la suma de cuadrados. La causa es que aparece un término que depende de que no se tiene en cuenta al utilizar MCO, por lo tanto no van a salir exactamente los mismo estimadores, aunque son equivalentes asintóticamente Estimador de máxima verosimilitud La función viene dada por Universidade de Vigo Término que diferencia la minimización de cuadrados y la maximización de la función T 1 1 2 2 ln L(u ) - ln s e + ln(1 - ) - 2 e e 2 2 2 2s e (1 - ) Esto hace que los estimadores no coincidan. Beach y McKinnon (1978) usan un procedimiento para maximizar esta función, similar al de C-O iterativo, que denominaremos de MV. Generalmente los estimadores son mas eficientes, si el valor inicial está bien definido Estimación por ML para las telas |_auto y x1 x2 / dn ml noanova REQUIRED MEMORY IS PAR= 7 CURRENT PAR= 4000 DEPENDENT VARIABLE = Y ..NOTE..R-SQUARE,ANOVA,RESIDUALS DONE ON ORIGINAL VARS DN OPTION IN EFFECT - DIVISOR IS N MAXIMUM LIKELIHOOD ESTIMATION 40 OBSERVATIONS BY COCHRANE-ORCUTT TYPE PROCEDURE WITH CONVERGENCE = 0.00100 ITERATION RHO LOG L.F. SSE 1 0.00000 -4.43019 2.9227 2 0.65818 8.56528 1.5046 3 0.71056 8.67943 1.4910 4 0.71158 8.67947 1.4909 5 0.71160 8.67947 1.4909 LOG L.F. = 8.67947 AT RHO = 0.71160 ASYMPTOTIC ASYMPTOTIC ASYMPTOTIC ESTIMATE VARIANCE ST.ERROR T-RATIO RHO 0.71160 0.01234 0.11109 6.40570 R-SQUARE = 0.9825 R-SQUARE ADJUSTED = 0.9815 VARIANCE OF THE ESTIMATE-SIGMA**2 = 0.37272E-01 STANDARD ERROR OF THE ESTIMATE-SIGMA = 0.19306 SUM OF SQUARED ERRORS-SSE= 1.4909 MEAN OF DEPENDENT VARIABLE = 14.330 LOG OF THE LIKELIHOOD FUNCTION = 8.67947 ASYMPTOTIC VARIABLE ESTIMATED STANDARD T-RATIO PARTIAL STANDARDIZED ELASTICITY NAME COEFFICIENT ERROR -------P-VALUE CORR. COEFFICIENT AT MEANS X1 0.50342 0.8473E-02 59.42 0.000 0.995 0.9742 0.2456 X2 0.11318 0.1082E-01 10.46 0.000 0.864 0.1716 0.0567 CONSTANT 9.9910 0.1400 71.34 0.000 0.996 0.0000 0.6972 Universidade de Vigo Comparación de los estimadores del coste variable de la tela MCO CO2 PW2 0.50688 0.50314 0.50347 ML2 0.50347 COI 0.50315 PWI 0.50342 Malla 0.50340 MLI 0.50342 Universidade de Vigo Estimación para modelos autocorrelados de orden superior Universidade de Vigo El método que as fácilmente se generaliza es el de máxima verosimilitud, pues únicamente consiste en cambiar los parámetros del modelo que se quiere estimar y el propio ordenador se encarga de la optimización y búsqueda de soluciones, por ese motivo es el mas usado en la práctica. Yt = X t +n t n t = n 1 t -1 + ... + mn t - m + e t e sigue N (0, s 2 I ) En SHAZAM se hace con la opción ORDER=m. Estimación para orden 3 |_auto y x1 x2 / dn ml order=3 noanova DEPENDENT VARIABLE = Y ..NOTE..R-SQUARE,ANOVA,RESIDUALS DONE ON ORIGINAL VARS REQUIRED MEMORY IS PAR= 10 CURRENT PAR= 2000 AUTOREGRESSIVE ERROR MODEL, ORDER= 3 ..NOTE..USING LEAST SQUARES..ML OPTION NOT AVAILABLE ITERATION 0 ESTIMATES AND ERROR SUM OF SQUARES 0.50688 0.92323E-01 10.124 0.0000 0.0000 0.0000 2.9227 ITERATION 1 ESTIMATES AND ERROR SUM OF SQUARES 0.49993 0.11789 9.9931 -0.78178 0.18927 -0.16251 1.4942 ………………. ITERATION 9 ESTIMATES AND ERROR SUM OF SQUARES 0.50171 0.11384 9.9286 -0.87009 0.31328 -0.21063 1.4522 Universidade de Vigo Estimación para orden 3 Universidade de Vigo |_auto y x1 x2 / dn ml order=3 noanova DEPENDENT VARIABLE = Y ..NOTE..R-SQUARE,ANOVA,RESIDUALS DONE ON ORIGINAL VARS REQUIRED MEMORY IS PAR= 10 CURRENT PAR= 2000 AUTOREGRESSIVE ERROR MODEL, ORDER= 3 ..NOTE..USING LEAST SQUARES..ML OPTION NOT AVAILABLE ITERATION 0 ESTIMATES AND ERROR SUM OF SQUARES 0.50688 0.92323E-01 10.124 0.0000 2.9227 0.0000 0.0000 ITERATION 1 ESTIMATES AND ERROR SUM OF SQUARES 0.49993 0.11789 -0.16251 1.4942 9.9931 -0.78178 0.18927 ITERATION 2 ESTIMATES AND ERROR SUM OF SQUARES 0.50166 0.11387 -0.18358 1.4555 9.9497 -0.82266 0.27993 ITERATION 3 ESTIMATES AND ERROR SUM OF SQUARES 0.50175 0.11377 -0.20604 1.4528 9.9457 -0.86138 0.31088 ITERATION 4 ESTIMATES AND ERROR SUM OF SQUARES 0.50172 0.11376 -0.20567 1.4523 9.9340 -0.86145 0.30928 ITERATION 5 ESTIMATES AND ERROR SUM OF SQUARES 0.50171 0.11383 -0.20946 1.4522 9.9326 -0.86784 0.31242 ITERATION 6 ESTIMATES AND ERROR SUM OF SQUARES 0.50171 0.11382 -0.20945 1.4522 9.9298 -0.86806 0.31235 ITERATION 7 ESTIMATES AND ERROR SUM OF SQUARES 0.50171 0.11383 -0.21039 1.4522 9.9295 -0.86963 0.31310 RESIDUAL CORRELOGRAM LM-TEST FOR HJ:RHO (J)=0,STATISTIC IS CHI-SQUARE(1) LAG RHO STD ERR T-STAT LM-STAT 1 -0.0112 0.1581 -0.0710 0.1425 2 0.0062 0.1581 0.0392 0.0313 3 -0.0122 0.1581 -0.0775 0.0154 4 0.0581 0.1581 0.3675 0.3043 5 0.0990 0.1581 0.6263 0.5254 6 0.1291 0.1581 0.8167 0.8280 7 -0.0629 0.1581 -0.3977 0.2222 8 -0.2698 0.1581 -1.7064 4.2576 9 -0.1443 0.1581 -0.9129 1.3788 10 0.0224 0.1581 0.1420 0.0353 11 0.1307 0.1581 0.8267 1.1623 12 -0.0036 0.1581 -0.0229 0.0008 CHISQUARE WITH 12 D.F. IS 5.814 ITERATION 8 ESTIMATES AND ERROR SUM OF SQUARES 0.50171 0.11383 -0.21039 1.4522 9.9287 -0.86969 0.31308 ITERATION 9 ESTIMATES AND ERROR SUM OF SQUARES 0.50171 0.11384 -0.21063 1.4522 9.9286 -0.87009 0.31328 RHO RHO RHO 1 2 3 ESTIMATE 0.87009 -0.31328 0.21063 ASYMPTOTIC VARIANCE ST.ERROR T-RATIO 0.02553 0.15978 5.44562 0.04228 0.20563 -1.52353 0.02679 0.16367 1.28688 Estimación para orden 3 Universidade de Vigo |_auto y x1 x2 / dn ml order=3 noanova R-SQUARE = 0.9829 R-SQUARE ADJUSTED = 0.9820 VARIANCE OF THE ESTIMATE-SIGMA**2 = 0.36305E-01 STANDARD ERROR OF THE ESTIMATE-SIGMA = 0.19054 SUM OF SQUARED ERRORS-SSE= 1.4522 MEAN OF DEPENDENT VARIABLE = 14.330 VARIABLE NAME X1 X2 CONSTANT ASYMPTOTIC ESTIMATED STANDARD T-RATIO COEFFICIENT ERROR -------0.50171 0.7437E-02 67.46 0.11384 0.8724E-02 13.05 9.9286 0.1380 71.92 PARTIAL STANDARDIZED ELASTICITY P-VALUE CORR. COEFFICIENT AT MEANS 0.000 0.996 0.9709 0.2448 0.000 0.906 0.1726 0.0570 0.000 0.996 0.0000 0.6928