Este documento es de distribución gratuita y llega gracias a “Ciencia Matemática” www.cienciamatematica.com El mayor portal de recursos educativos a tu servicio! Instituto Tecnológico de Apizaco Departamento de Ciencias Básicas INSTITUTO TECNOLÓGICO DE APIZACO DEPARTAMENTO DE CIENCIAS BÁSICAS www.itapizaco.edu.mx/~cbasicas ESTADÍSTICA ADMINISTRATIVA II (Licenciatura en administración) M. en C. JOSÉ LUIS HERNÁNDEZ GONZÁLEZ www.itapizaco.edu.mx/~joseluis (~ alt 126) Enviar las tareas al correo: [email protected] Alum.:____________________________________________ No. Lista: _________ Apizaco Tlax., Agosto/Diciembre 2007 Estadística II (Lic. en Administración) pag. 1 M. en C. José Luis Hernández González Instituto Tecnológico de Apizaco www.cienciamatematica.com Departamento de Ciencias Básicas ESTADÍSTICA ADMINISTRATIVA II (Licenciatura en administración) OBJETIVO GENERAL DEL CURSO. Analizará y aplicará conceptos y técnicas de la probabilidad y estadística descriptiva e inferencial en la solución de problemas en áreas de su competencia. 1 Pruebas de Hipótesis 1.1 Hipótesis estadísticas. Conceptos generales 1.2 Errores tipo I y II 1.3 Pruebas unilaterales y bilaterales 1.4 Prueba de una hipótesis: referente a la media con varianza Desconocida utilizando la distribución normal y “t” student 1.5 Dos muestras: pruebas sobre dos medias utilizando la distribución Normal y “t” student. 1.6 Una muestra: prueba sobre una sola proporción 1.7 Dos muestras: prueba sobre dos proporciones 1.8 Dos muestras: pruebas pareadas 2 Pruebas de la bondad del ajuste y análisis de varianza 2.1 Análisis Ji-Cuadrada 2.1.1 Prueba de independencia 2.1.2 Prueba de la bondad del ajuste 2.1.3 Tablas de contingencia 2.2 Análisis de varianza 2.2.1 Inferencia sobre una varianza de población (Anova). 2.2.2 Inferencia sobre la varianza de dos poblaciones (Anova). 2.3 Paquete computacional 3 Análisis de regresión, correlación lineal simple y múltiple 3.1 Estimación mediante la línea de regresión 3.1.1 Diagrama de dispersión 3.1.2 Método de mínimos cuadrados 3.1.3 Interpretación del error estándar de la estimación 3.1.4 Intervalos de predicción aproximados 3.1.5 Análisis de correlación 3.1.6 Paquete computacional para la solución de problemas 3.1.7 Regresión múltiple y análisis de correlación 3.1.8 Usos de variables ficticias 3.1.9 Residuales y gráficas de residuales 3.1.10 Interpretación del intervalo de confianza. 3.1.11 Uso del coeficiente de determinación múltiple 3.1.12 Paquete computacional para la solución de problemas. Estadística II (Lic. en Administración) pag. 2 M. en C. José Luis Hernández González Instituto Tecnológico de Apizaco www.cienciamatematica.com Departamento de Ciencias Básicas 4 Series de tiempo 4.1 Modelo clásico de series de tiempo 4.2 Análisis de tendencia 4.3 Análisis de variaciones cíclicas 4.4 Medición de variaciones estacionales 4.5 Aplicación de ajustes estacionales 4.6 Pronósticos basados en factores de tendencia y estacionales 4.7 Pronósticos, ciclos e indicadores económicos 4.8 Promedios móviles 4.9 Suavización exponencial como pronóstico 4.10 Aplicaciones del paquete computacional 5 Estadística no paramétrica. 5.1 Escala de medición 5.2 Métodos estadísticos contra no paramétricos 5.3 Prueba de corridas para aleatoriedad 5.4 Una muestra: prueba de signos 5.5 Una muestra: prueba de Wilcoxon 5.6 Dos muestras: prueba de Mann-Whitney 5.7 Observaciones pareadas: prueba de signos 5.8 Observaciones pareadas prueba de Wilcoxon 5.9 Varias muestras independientes: prueba de Kruskal-Wallis 5.10 Aplicaciones del paquete computacional Estadística II (Lic. en Administración) pag. 3 M. en C. José Luis Hernández González www.cienciamatematica.com Instituto Tecnológico de Apizaco Departamento de Ciencias Básicas PRUEBAS DE HIPÓTESIS. Dentro de la inferencia estadística se encuentra la prueba de hipótesis, cuyo objetivo es probar o comprobar si la afirmación que se hace sobre un parámetro poblacional basado en conclusiones obtenidas de una muestra es correcta o incorrecta. Hipótesis estadística. Es una proposición o suposición que se hace sobre los parámetros de una distribución de probabilidad de una variable aleatoria. Dicha hipótesis puede ser verdadera o falsa, por lo que se puede aceptar o rechazar. Prueba de hipótesis estadística. Es el procedimiento empleado para decidir si se acepta o se rechaza por su veracidad o falsedad, una hipótesis estadística también se le conoce como “ensayos de significación”, “reglas de decisión” ó “contraste de hipótesis”. Su objetivo es evaluar proposiciones o afirmaciones que se hacen acerca de los parámetros poblacionales basados en estadísticos muestrales con un grado o nivel de significancia determinado. Hipótesis nula e hipótesis alternativa. En una prueba de hipótesis de significación se plantean dos tipos de hipótesis excluyentes, llamadas hipótesis nula e hipótesis alternativa. La hipótesis nula expresa que una proposición es verdadera, mientras que la hipótesis alternativa afirma que es falsa ó viceversa. Ho = hipótesis nula H1 = hipótesis alternativa Ejemplos: Ho µ = 1.68 H1 H1 H1 µ ≠ 1.68 µ < 1.68 µ > 1.68 Ho µ = 4200 H1 H1 H1 µ > 4200 µ < 4200 µ ≠ 4200 Estadística II (Lic. en Administración) pag. 6 M. en C. José Luis Hernández González Instituto Tecnológico de Apizaco www.cienciamatematica.com Departamento de Ciencias Básicas Errores tipo I y tipo II. En el proceso de emplear una muestra para formar una decisión poblacional en una prueba de hipótesis, podemos cometer dos equivocaciones, al rechazar una hipótesis verdadera o al aceptar una hipótesis falsa; estas equivocaciones se conocen como: a) Error tipo I. Se comete cuando se rechaza una hipótesis que por ser verdadera debería ser aceptada. b) Error tipo II. Se comete cuando se acepta una hipótesis que por ser falsa debería ser rechazada. Aprobarlo Repobarlo Buen estudiante Decisión correcta Error tipo I Mal estudiante Error tipo II Decisión correcta Nivel de significancia y nivel de confianza. El nivel de significancia se refiere a la probabilidad α de cometer error tipo I, es decir, rechazar una hipótesis verdadera. El nivel de confianza se refiere a la probabilidad 1- α de aceptar una hipótesis verdadera. H0 verdadera H1 falsa Se acepta Ho Decisión correcta (1 – α) Error tipo II (β) Se rechaza Ho Error tipo I (α) Decisión correcta (1 – β) Procedimiento para realizar una prueba de hipótesis. 1.- Del fenómeno estadístico a probar. Se establecen las hipótesis nula Ho, y la hipótesis alternativa H1. 2.- Se especifica la probabilidad del error tipo I (α) como nivel de significancia y 1 – α como nivel de confianza. 3.- Se selecciona el tamaño de la muestra, la función de distribución de probabilidad y el estadístico muestral que sirva de base para la regla de decisión conocido como estadístico de prueba. 4.- Se determinan los valores críticos que limita la región de aceptación de la región de rechazo (que dependerá del valor de α y de la hipótesis alternativa). Estadística II (Lic. en Administración) pag. 7 M. en C. José Luis Hernández González www.cienciamatematica.com Instituto Tecnológico de Apizaco Departamento de Ciencias Básicas 5.- Si el valor del estadístico muestral cae dentro de la región de rechazo, rechazamos Ho, debido a que la probabilidad de obtener ese valor del estadístico muestral cuando Ho es cierta o verdadera, es tan pequeño que no debe atribuirse a errores de muestreo, lo que nos conduce a deducir que Ho es falsa. 6.- Dar conclusión acerca del problema y/o formar una decisión. Hipótesis unilateral y bilateral. Al realizar una prueba de hipótesis nuestro interés puede estar en el valor extremo de un solo lado de la distribución, o en ambos lados. En el primer casi, las pruebas se denominan unilaterales o de una cola; en el segundo caso se conoce como bilaterales o de dos colas. En los ensayos unilaterales la región de rechazo es única a un lado de la distribución con un área determinada por el valor de α. En las bilaterales la región de rechazo el área se determina dividiendo el nivel de significancia en dos partes iguales. BILATERAL ≠ Zona de aceptación Zona de rechazo Zona de rechazo α/2 α/2 1−α UNILATERAL > Zona de aceptación Zona de rechazo 1−α α UNILATERAL < Zona de rechazo Zona de aceptación α Estadística II (Lic. en Administración) 1−α pag. 8 M. en C. José Luis Hernández González Instituto Tecnológico de Apizaco www.cienciamatematica.com Departamento de Ciencias Básicas Estadístico de prueba H0 Distribución normal µ = µ0 z= x −µ σ n Distribución t µ = µ0 t= x −µ ;v = n – 1 s n Distribución normal µ1 – µ2 = d0 σ1 y σ2 conocidas z= Distribución t µ1 – µ2 = d0 σ1 = σ2 desconocidas t= (x 1 − x 2 ) − d 0 sp Distribución t µ1 – µ2 = d0 σ1 ≠ σ2 desconocidas t= 1 1 + n1 n 2 z= ;v = 2 2 2 s 12 s 22 n n 1 2 + n1 −1 n 2 −1 np 0 (1 − p 0 ) (p̂ 1 − p̂ 2 ) 1 1 p̂q̂ + n1 n 2 ; p̂ = x1 + x 2 n1 + n 2 (n − 1)s 2 σ2 f= pag. 9 s 12 s 22 + n 1 n2 x − np 0 χ2 = Distribución F σ1 = σ2 Estadística II (Lic. en Administración) (n 1 − 1)s 12 + (n 2 − 1)s 22 ;s = n1 + n 2 − 2 2 p s 12 s 22 + n1 n 2 z= Distribución χ2 σ = σ0 σ12 σ 22 + n1 n 2 (x 1 − x 2 ) − d 0 Distribución normal p = p0 Distribución normal p1 = p 2 (x 1 − x 2 ) − d 0 s 12 s 22 M. en C. José Luis Hernández González www.cienciamatematica.com Instituto Tecnológico de Apizaco Departamento de Ciencias Básicas ANÁLISIS DE REGRESIÓN E INTERPOLACIÓN Las funciones que representan un conjunto de datos pueden ser o no polinomiales. Los métodos más utilizados para ajustar curvas a un conjunto de puntos son: a) Interpolación polinomial. Consiste en encontrar una función que pase exactamente a través de cada uno de los puntos. b) Análisis de regresión. Consiste en encontrar una función que se ajuste a los puntos pero no necesariamente pase a través de ellos. a) b) ANÁLISIS DE REGRESIÓN Y CORRELACIÓN El análisis de regresión trata de establecer una relación funcional entre variables y proporciona un mecanismo de predicción o pronostico y en realidad lo que se requiere es estimar: µ y|x = α + β x Las relaciones que se pueden establecer dependiendo del número de variables independientes x son: Análisis de regresión simple. Se establece cuando la variable dependiente y esta en función de una única variable independiente x. y = f(x) Análisis de regresión múltiple. Se establece cuando la variable dependiente y, se determinan o esta en función de más de una variable dependiente x. y = f(x1, x2, ..., xn) Para el caso de regresión lineal simple tenemos que Ŷ = a + bx Donde Ŷ se conoce como y estimada, por simplicidad escribiremos: y = a + bx Estadística II (Lic. en Administración) pag. 10 M. en C. José Luis Hernández González www.cienciamatematica.com Instituto Tecnológico de Apizaco Departamento de Ciencias Básicas DIAGRAMA DE DISPERSIÓN Es la grafica que representa un conjunto de pares ordenados o datos observados y que describe la relación que existe entre ellos. y x ANÁLISIS DE REGRESIÓN Las funciones matemáticas empleadas son las siguientes. 1. Función lineal y = a + bx y x 2. Función cuadrática y = a + bx + cx2 y x ANÁLISIS DE REGRESIÓN LINEAL Una vez elegida la función matemática que mejor represente al fenómeno, se requiere de un método estadístico para estimar los parámetros o valores numéricos que ponderen la relación entre variables, existen varios métodos pero el mejor es el de mínimos cuadrados. El modelo matemático más simple de una aproximación por mínimos cuadrados, es el ajuste de una línea recta a un conjunto de pares ordenados (x, y). y y = a + bx + e e x Estadística II (Lic. en Administración) pag. 11 M. en C. José Luis Hernández González Instituto Tecnológico de Apizaco www.cienciamatematica.com Departamento de Ciencias Básicas Para obtener la mejor línea a través de los datos se debe minimizar la suma de los errores residuales al cuadrado. e = y – a – bx Sr = e 2 Sr = ∑ ( y − a − bx ) 2 derivando respecto a a y respecto a b ∂Sr = −2∑ ( y − a − bx ) ∂a ∂Sr = −2∑ ( y − a − bx ) x ∂b Hay un mínimo o máximo igualando las dos ecuaciones a cero. ∑ a + ∑ bx − ∑ y = 0 ∑ ax + ∑ bx − ∑ yx = 0 2 si ∑ a = na na + ∑ xb = ∑ y ∑ xa + ∑ x 2 b = ∑ xy es decir n ∑ x ∑ x a = ∑ y ∑ x b ∑ xy 2 Resolviendo el sistema de ecuaciones ∑ y∑ x − ∑ x ∑ xy a= n ∑ x − (∑ x ) 2 2 b= 2 n ∑ xy − ∑ x ∑ y n ∑ x 2 − (∑ x ) 2 Para la inferencia también es necesario calcular: Estadística II (Lic. en Administración) pag. 12 M. en C. José Luis Hernández González www.cienciamatematica.com Instituto Tecnológico de Apizaco n S xx = ∑ ( x i − x ) = ∑ 2 (∑ x ) x− 2 n i =1 n S yy = ∑ ( y i − y) = ∑ 2 (∑ y) y− i =1 2 n n (∑ x )(∑ y) i =1 n S xy = ∑ ( x i − x )( y i − y) = ∑ xy − b= Departamento de Ciencias Básicas S xy S xx SSE ( y − ŷ) 2 S yy − bS xy S = =∑ = Estimador insesgado de la varianza n−2 n−2 n−2 2 Ejemplo: Realizar el ajuste lineal para el siguiente conjunto de datos. x -2 -1 0 1 2 x -2 -1 0 1 2 0 y 13 24 39 65 106 247 y 13 24 39 65 106 x2 4 1 0 1 4 10 y2 169 576 1521 4225 11236 17727 xy -26 -24 0 65 212 227 Cálculo de los coeficientes a y b. a= Estadística II (Lic. en Administración) ( 247)(10) − (0)( 227 ) 2470 = = 49.4 50 (5)(10) − (0) 2 pag. 13 M. en C. José Luis Hernández González www.cienciamatematica.com Instituto Tecnológico de Apizaco b= Departamento de Ciencias Básicas (5)( 227 ) − (0)( 227) 1135 = = 22.7 50 (5)(10) − (0) 2 y = 49.4 + 22.7 x Calcular el valor de y para cuando x = 1.5. Cuando x = 1.5 y(2.2) = 49.4 + 22.7(1.5) y(1.5) = 83.45 ANÁLISIS DE CORRELACIÓN Nos permite determinar cuantitativamente el grado de relación que existe entre las variables. Para medir el grado de ajuste de una línea a un diagrama de dispersión usamos: a) Coeficiente de determinación. Representa la proporción de la variabilidad total de la muestra aleatoria alrededor de y Si r2 = 1 Indica un ajuste perfecto Si r2 = 0 Indica un ajuste deficiente o nulo 0 ≤ r2 ≤ 1 b) Coeficiente de correlación. Mide la asociación lineal entre las dos variables. −1 ≤ r ≤ 1 (n ∑ xy − ∑ x ∑ y) = (n ∑ x − (∑ x ) )(n ∑ y − (∑ y ) ) 2 r 2 2 2 2 2 O Estadística II (Lic. en Administración) pag. 14 M. en C. José Luis Hernández González www.cienciamatematica.com Instituto Tecnológico de Apizaco Departamento de Ciencias Básicas 2 S xx S SSR = xx = S yy S xx S yy S yy r 2 = b2 r = r2 r=b r2 = S xx S xx = S yy S xx S yy ((5)(227) − (0)(247))2 = 0.9326 2 2 ((5)(10) − (0) )((5)(17727) − (247 ) ) r = 0.9326 = 0.9657 REGRESIÓN CUADRÁTICA Por medio de mínimos cuadrados podemos ajustar a la ecuación y = a + bx + cx2 Con un procedimiento similar al análisis de regresión lineal obtenemos los valores de a, b y c. ∑ y = an +c∑ x ∑x 2 2 ; y = a ∑ x 2 + c∑ x 4 b= ∑ xy ; ∑x 2 Ejemplo: Realizar el ajuste cuadrático para el siguiente conjunto de datos. x -2 -1 0 1 2 0 Estadística II (Lic. en Administración) y 13 24 39 65 106 247 x2 4 1 0 1 4 10 pag. 15 x4 16 1 0 1 16 34 xy -26 -24 0 65 212 227 x2 y 52 24 0 65 424 565 M. en C. José Luis Hernández González www.cienciamatematica.com Instituto Tecnológico de Apizaco n 2 ∑ x ∑x ∑x a ∑ y ; = 2 4 c ∑ x y 5 10 a 247 10 34 c = 565 2 a = 39.257; b= Departamento de Ciencias Básicas 227 = 22.7 ; 10 c = 5.071 y = a + bx + cx2 y = 39.258 + 22.7x + 5.071x2 y(1.5) = 39.258 + 22.7(1.5) + 5.071(1.5)2 = 84.718 INFERENCIAS EN EL ANÁLISIS DE REGRESIÓN Usualmente se realizan inferencias sobre α y β. Intervalo de confianza para β Un intervalo de confianza para (1-α)100% para el parámetro β en la línea de regresión µ y / k = α + β x es b− t α / 2S S xx <β< b+ t α / 2S S xx Donde tα/2 es un valor de la distribución t con n-2 grados de libertad. Prueba de hipótesis sobre la pendiente H0 : β = 0 H1 : β ≠ 0 Estadística II (Lic. en Administración) pag. 16 M. en C. José Luis Hernández González www.cienciamatematica.com Instituto Tecnológico de Apizaco Departamento de Ciencias Básicas Se requiere de utilizar la distribución t con n-2 grados de libertad y establecer una región crítica basados en t= b − β0 s S xx Procedimiento de análisis de varianza Consiste en subdividir la variación total de la variable dependiente (y) en componentes significativos que se observan y se tratan de manera sistemática. Suponga que se tienen n puntos de datos experimentales en la forma acostumbrada (xi,yi) y que se estima la línea de regresión. La varianza (σ2) del conjunto de puntos, se puede calcular con: Syy = bSxy + SSE La formula alternativa es: n ∑ (y i =1 i n n i =1 i =1 − y) 2 = ∑ ( ŷ i − y) 2 + ∑ ( y i − ŷ) 2 Con lo que se logra una partición de la suma total de cuadrados de y en dos componentes. SST = SSR + SSR SSR es la suma de cuadrados de regresión y refleja la cantidad de variación en los valores y, explicados por el modelo. SSE es la suma de cuadrados del error, que refleja la variación alrededor de la línea de regresión. Bajo la condición de que β = 0, se puede demostrar SSR SSE y 2 son valores de variables χ2 2 σ σ Independientes con l y n-2 grados de libertad, respectivamente, y por lo tanto se sigue que SST σ2 también es un valor de χ2 con n – 1 grados de libertad. Para realizar esta prueba tenemos: SSR SSR f= l = 2 SSE s n−2 Se rechaza H0 al nivel de significancia α cuando f > fα(l,n-2) Estadística II (Lic. en Administración) pag. 17 M. en C. José Luis Hernández González www.cienciamatematica.com Instituto Tecnológico de Apizaco Departamento de Ciencias Básicas El resumen se presenta en una tabla de análisis de varianza. ANÁLISIS DE VARIANZA Grados de libertad Suma de cuadrados (S ) Promedio de los cuadrados Valor crítico de F F 2 SSR = xy S xx Regresión 1 Residuos n–2 SSE = SST – SSR Total n–1 SST = Syy Coeficientes Error típico Intercepción SSR SSE S2 = n−2 Estadístico t SSR s2 Probabilidad Inferior 95% a b Ejemplo: Los siguientes datos se obtuvieron de la medición de un problema de caída libre bajo ciertas condiciones de laboratorio. Ajuste un modelo de regresión lineal. T d 1 6 2 30 3 60 4 91 5 130 6 170 7 200 8 280 9 240 10 340 Los resultados con la herramienta de regresión de Excel son: Resumen Estadísticas de la regresión Coeficiente de correlación múltiple 0.97895976 Coeficiente de determinación R^2 0.95836221 R^2 ajustado 0.95241395 Error típico 22.6605034 Observaciones Estadística II (Lic. en Administración) 9 pag. 18 M. en C. José Luis Hernández González www.cienciamatematica.com Instituto Tecnológico de Apizaco Departamento de Ciencias Básicas ANÁLISIS DE VARIANZA Grados de libertad Regresión Suma de cuadrados Promedio de los cuadrados 1 82733.0667 82733.0667 Residuos 7 3594.48889 513.498413 Total 8 86327.5556 Coeficiente s 51.5777778 Intercepción 1 37.1333333 Valor crítico de F F 161.116499 4.3581E-06 Superior 95% Error típico Estadístico t Probabilidad Inferior 95% 19.1090143 -2.69913335 0.03067747 -96.7634164 -6.3921392 2.9254584 12.6931674 4.3581E-06 30.2157234 44.0509432 Resultados de datos de probabilidad Análisis de los residuales Pronóstico 6 Residuos Residuos estándares 1 22.6888889 7.31111111 0.34491319 5.55555556 30 2 59.8222222 0.17777778 0.00838695 16.6666667 60 3 96.9555556 -5.95555556 -0.28096272 27.7777778 91 4 134.088889 -4.08888889 -0.19289978 38.8888889 130 5 171.222222 -1.22222222 -0.05766026 50 170 6 208.355556 -8.35555556 -0.3941865 61.1111111 200 7 245.488889 34.5111111 1.62811607 72.2222222 240 8 282.622222 -42.6222222 -2.01077052 83.3333333 280 9 319.755556 20.2444444 0.95506358 94.4444444 340 Observación Percentil 6 Curva de regresión ajustada 400 350 300 250 200 150 100 50 0 Gráfico de probabilidad normal 40 400 20 300 6 Residuos Gráfico de los residuales 0 0 2 4 6 8 10 12 -20 Estadística II (Lic. en Administración) -40 -60 pag. 19 200 100 0 M. en C. José Luis Hernández González 0 20 40 60 Muestra percentil 80 100 www.cienciamatematica.com Instituto Tecnológico de Apizaco Departamento de Ciencias Básicas ANÁLISIS DE REGRESIÓN MÚLTIPLE En la mayoría de los problemas se requiere de más de una variable independiente para un modelo de regresión, por lo cual se hace necesario considerar que: y = b0 + b1x1 + b2x2 + b3x3 + ... + bkxk Aplicando mínimos cuadrados podemos calcular los coeficientes Sr = ∑ ( y − b1 x 1 − b 2 x 2 − ... − b k x k ) 2 Derivando respecto a cada uno de los coeficientes, e igualando a cero obtenemos un conjunto de k+1 ecuaciones. n ∑ x1 ∑ x 2 M x ∑ k ∑x ∑x ∑x ∑x x ∑x x ∑x 1 2 1 2 1 2 2 2 1 M ∑x ... 2 M k x1 ∑x ... ... ... k x2 ... ∑x ∑x x ∑x x b 0 ∑ y 1 k b1 ∑ x1y 2 k b 2 = ∑ x 2 y M M M ∑ x 2k b k ∑ x k y k Resolviendo el sistema de ecuaciones obtenemos los coeficientes de x. Ejemplo. Realizar un análisis de regresión múltiple para los siguientes datos. y 90 70 90 102 96 77 51 88 82 94 x1 32 43 32 43 46 35 52 51 50 48 x2 171 232 245 342 211 233 147 324 230 233 Formamos un sistema de 3x3. Estadística II (Lic. en Administración) pag. 20 M. en C. José Luis Hernández González www.cienciamatematica.com Instituto Tecnológico de Apizaco Departamento de Ciencias Básicas 432 2368 b 0 840 10 432 19196 102707 b = 36019 1 2368 102707 592638 b 2 203532 Resolviendo las ecuaciones tenemos b 0 = 74.655 b1 = −0.621 b 2 = 0.153 y = 74.655 – 0.621x1 + 0.153x2 y(40,150) = 74.655 – 0.621(40) + 0.153(150) = 72.77 En termino de matrices se puede expresar como Ab=y (X’X)b =X’y A=X’X g=X’y Resolviendo b = A–1g b = (X’X) –1X’y Inferencia en la regresión lineal múltiple a) Intervalo de confianza para la respuesta pronosticada Una de las inferencias más útiles qu se pueden haces en relación a la cantidad de la respuesta pronosticada y0 que corresponde a los valores x10, x20, …, xk0 es el intervalo de confianza sobre la respuesta media µ Y | x10 , x20 ,..., xk 0 para el conjunto de condiciones. ŷ 0 − t α / 2 s x ' 0 (X ' X ) −1 x 0 < µ Y|x10 , x 20 ,..., x k 0 < ŷ 0 + t α / 2 s x ' 0 (X ' X ) −1 x 0 Donde tα/2 es el valor de la distribución t con n–k–1 grados de libertad. s= SSE n − k −1 SSE = S YY − SSR O Estadística II (Lic. en Administración) pag. 21 M. en C. José Luis Hernández González Instituto Tecnológico de Apizaco www.cienciamatematica.com Departamento de Ciencias Básicas (∑ Y )2 ˆ (∑ Y )2 donde Y' Y = ∑ Y 2 SSE = Y' Y − − β' X' Y'− n n n = número de datos de la muestra k = número de variables independientes La cantidad s x ' 0 (X' X) −1 x 0 , se llama error estándar de predicción y por lo general se calcula en un programa de computadora. b) Intervalo de predicción para una sola respuesta ŷ 0 − t α / 2 s 1 + x ' 0 (X' X) −1 x 0 < y 0 < ŷ 0 + t α / 2 s 1 + x ' 0 (X' X) −1 x 0 Donde tα/2 es el valor de la distribución t con n–k–1 grados de libertad. c) Prueba de hipótesis sobre los coeficientes individuales La inclusión de cualquier variable única en un sistema de regresión aumentará la suma de cuadrados de regresión y por ello reducirá la suma de cuadrados del error. Por ello se debe decidir si el aumento en la regresión es suficiente para garantizar su uso en el modelo. En consecuencia el uso de variables sin importar puede reducir la efectividad de la ecuación de predicción al aumentar la varianza de la respuesta estimada. Se acostumbra probar H0 : βj = Bj0 H1 : βj ≠ Bj0 Se calcula el estadístico t = b j − B j0 s c ij Donde tα/2 es el valor de la distribución t con n–k–1 grados de libertad. Cjj es el elemento de la diagonal principal de la matriz inversa (X’X) –1 correspondiente a jj Estadística II (Lic. en Administración) pag. 22 M. en C. José Luis Hernández González Instituto Tecnológico de Apizaco Estadística II (Lic. en Administración) www.cienciamatematica.com pag. 23 Departamento de Ciencias Básicas M. en C. José Luis Hernández González