Capítulo 1

Anuncio
Capítulo 1
Generalidades
En Estadística es muy importante probar la concordancia
entre la teoría y los hechos. Si disponemos de una muestra de
n valores observados de cierta variable, desearemos saber si
esta variable se comporta «razonablemente» como una variable aleatoria que tenga una distribución de probabilidad
con ciertas propiedades dadas. Por ejemplo, podemos preguntarnos si es lógico suponer que los datos que han sido
obtenidos de una población poseen una distribución normal, con una media µ= 10 y una desviación estándar igual a
2. En este caso, la hipótesis estadística se plantea de la siguiente manera:
(1) HO: x, , x2 ,..., x proviene de una población normal con
media µ= 10 y desviación estándar igual a 2
y la queremos contrastar con la hipótesis
(2) H,: x,, x2,..., x no proviene de una población normal con
media µ = 10 y desviación estándar igual a 2
A la hipótesis establecida en (1) se le conoce como hipótesis nula, mientras que a la (2) como hipótesis alternativa.
Observamos que bajo Ho la distribución está completamente
especificada, por lo que tenemos una hipótesis simple, no así
bajo H, que es una hipótesis compuesta . Si suponemos que
la hipótesis Ho es cierta, esperamos que el comportamiento
muestral sea explicable por la función de distribución dada.
Más adelante se verá cómo se pueden definir medidas para
saber si el referido comportamiento muestral difiere mucho
de la hipótesis nula Ho.
Este esquema se presenta en inferencia estadística y es lo
que se conoce como un planteamiento clásico de prueba de
hipótesis.
En un problema de prueba de hipótesis como el anterior,
la hipótesis que hay que probar precisa no sólo la distribución sino también los valores de los parámetros de la distribución especificada.
Formalmente, se podría considerar una hipótesis nula más
general con el objetivo de probar que la función de distribución tiene una forma específica (por ejemplo normal) sin
suponer que los valores de los parámetros son conocidos.
Por ejemplo podemos plantearnos probar:
H0: x,, x2, ..., x proviene de una distribución
normal con media }t= 0 y desviación estándar
desconocida.
contra
H1: x,, x2 , ..., x proviene de una distribución
distinta a la normal.
Entonces, una prueba de bondad de ajuste examinará qué
tan bien concuerda, o discrepa, una muestra de observaciones con la distribución especificada por la hipótesis nula. Al
igual que en una prueba de hipótesis, la hipótesis nula puede
ser simple o compuesta como ya se mencionó, pero en todos los problemas de bondad de ajuste la hipótesis alternativa
H, es compuesta, ya que sólo establece que Ho es falsa. Si en la
prueba de bondad de ajuste correspondiente no se rechaza
H0, entonces se puede utilizar el supuesto implicado en Ho
para elaborar inferencias sobre otros aspectos del modelo;
por ejemplo, pruebas de hipótesis sobre los parámetros de la
distribución.
Entre los métodos utilizados en la bondad de ajuste están
aquéllos que hacen uso de la función de distribución empírica
16
que permite representar la «evidencia muestra]» en forma de
distribución.
A continuación se introduce la función de distribución empírica y las distintas estadísticas apoyadas en esta función, en
particular la estadística de Anderson-Darling.
La función de distribución empírica
La función de distribución empírica (FDE) es una función
escalonada, calculada con los valores de la muestra , que estima a la función de distribución de la población.
Suponga que se tiene una muestra aleatoria de tamaño n,
X, X2, ..., Xn, y sean X(1)< X(2) < ... < X(0) las estadísticas de
orden . Suponga, además, que la función de distribución de la
variable X, F (x) es continua.
La función de distribución empírica denotada por F. (x)
se define como:
F(x)=
Número de observaciones < x
; - oo< x <ao
n
es decir:
F (x) = 0
si x < X (,)
F(x)= n si X^t^<x<X(,+i),i =1,...,n- 1
F (x) = 1 si X (0) < x
Para cada x, F (x) representa la proporción de observaciones menores o iguales a x, mientras que F(x) representa la
17
probabilidad de que la variable aleatoria tome un valor
menor o igual al valor de %.
La función de distribución empírica, F (x) es un estmador consistente de la función de distribución verdadera F(x)
(Rényi, 1970).
lim P (I Fn(x)- F(x) 1 < E) =1
n->0O
Así:
La FDE difiere, en general, de la función de distribución F
por ser aleatoria; si «difiere mucho» de la F(x) supuesta,
entonces podemos cuestionar la suposición de que F(x) es la
función de distribución verdadera, es decir, la diferencia entre las funciones de distribución empírica y la supuesta se
utiliza como «estadística» para determinar si se rechaza o no
la hipótesis de que la función de distribución supuesta es la
verdadera.
Estadísticas basadas en la función
de distribución empírica
Las estadísticas que se apoyan en la FDE miden la «discrepancia»
existente entre la FDE y la función de distribución supuesta.
Algunas estadísticas que miden la diferencia vertical que
existe entre F. (--<) y F(x) son las siguientes:
1. Las estadísticas D+ y D-:
D+ = supx (F (x)- F(x))
D- = supx (F(x)- F (x))
Estas estadísticas son, respectivamente, la diferencia vertical
más grande cuando F (x) es mayor que F (x), y la diferencia
vertical más grande cuando F (x) es menor que F(x).
18
2. La estadística de Kolmogorov- Smirnov
D= sup, 1 F (x)- F(x) 1= máx (D+, D-)
Esta estadística es la diferencia vertical más grande sin importar su signo.
3. La estadística de Kuiper V.
V= D+ + D4. La estadística de Watson, U2
U2=nl F(.%)-F(^-!(F (x)-F(^) dF (_,^ ^2dF
-00 -0o
Las estadísticas de Kuiper V y de Watson U2 se utilizan para
observaciones en un círculo, ya que los valores que toman
son independientes del origen que se elija . Estas estadísticas
pueden utilizarse también para observaciones en una recta
(Stephens, 1974) y
5. Las estadísticas pertenecientes a la familia Crámer von Mises,
que merecen una atención especial, ya que la estadística de
Anderson -Darling es un miembro de ellas.
CVM= n![F (x)-F
-,0
(x)]2
G (x) dF
(1.1)
en donde G(x) es una función no-negativa que pondera los
valores de [F (x) - F(x)]2 y permite una mejor sensibilidad en
algunos puntos en donde se requiera.
La estadística de Crámer von Mires
Cuando la función que pondera G(x)= 1, la estadística (1.1)
se conoce como la de Crámer von Mises (W').
19
La estadística de Anderson-Darling
Si en (1.1) G(x) = [F(x) (1-F(x)]', la estadística se conoce
como la de Anderson -Darling (A').
A2=n 00J [F (x)- F (x)]2 [F (x) (1-F (x) )]-' dF (x) (1.2)
_Co
La estadística de Anderson - Darling fue propuesta por estos
autores en 1952 (Anderson y Darling, 1952, 1954), cuando
compararon la función de distribución empírica con la función de distribución hipotética a través de la discrepancia o
«distancia» existente entre estas dos vistas como funciones de
distribución utilizando una seudodistancia.
La estadística A2 le da mayor peso a la discrepancia en las
colas de la distribución , que es cuando [F(x) (1-F(x)]' crece; y
se espera que detecte discrepancias en las colas mejor que la
1V2 (Stephen s, 1986).
En general, la distribución exacta de la estadística A' es
muy dificil de calcular para una n finita . En Anderson y Darling
(1954) se calculan los puntos de rechazo asintóticos para los
niveles de significancia 0.10, 0.05 y 0. 01, y también en Lewis
(1961); con estudios de Monte Carlo se calcula
F(_ Z; n) = Pr [A2 < Z ]
con un rango de valores para Z igual a 0 < z < 8 y valores de
n = 1, 2 , ..., 8, así como sus valores asintóticos, encontrándose
que para 8 la probabilidad es igual a 1.000 para todos los
valores de n. Se verifican también los puntos de rechazo
asintóticos encontrados por Anderson y Darling. La convergencia de la distribución de A2 a su distribución asintótica es
muy rápida, para n = 8 la diferencia máxima que existe entre
los puntos de rechazo calculados y los puntos asintóticos es
aproximadamente igual a sólo 0.006. Para F(Z) > 0.8 es de
tan sólo 0.001; de tal manera que en la práctica, la distrilbución asintótica puede ser usada para valores de n >8.
20
Una fórmula para el cálculo de la estadística A2,
la transformación PIT
Una fórmula operacional para el cálculo de la estadística Al
en (1.2), resultante de evaluar la integral es la siguiente
(Anderson y Darling, 1954: 765):
A2= -n__1 E^ (2i-1) l nF (xx,^ + (2n+ 1-2i ) In (1- F (X(1» ^
n
(1.3)
en donde las X() son las estadísticas de orden de la muestra
de tamaño n, y F(X(,) es la transformación de X(,) con la
distribución hipotética F.
La transformación PIT
Si Xes una variable aleatoria con una función de distribución
F(x) continua, entonces la variable aleatoria transformada
U= F(X) está distribuida en forma uniforme en (0 ,1).
Si 0 < u < 1 entonces,
Pr (U <_ u )= Pr (F(X) < u)= Pr (X:5::. F' (u)).
Pero
Pr (X < x) = F(x)
Por lo tanto
Pr (U < u)= F( F' (u))= u
Es decir, U está distribuida en forma uniforme en (0,1).
Si a cada una de las observaciones X(,) se las transforma
U(,) = F(X(
21
entonces , bajo HO, las U(1) son las estadísticas de orden de una
muestra independiente U,, U2, ..., U„ de la distribución uniforme (0,1), y (1. 3) puede reescribirse como
A2= -n- ñ E^ (2i- 1) ln U(,, + (2n+ 1-2e) In (1- UJ ^ (1.4)
Es decir, bajo H0, las U, son una muestra independiente
de la distribución uniforme (0,1).
Entonces, la estadística (1.4) calculada con la FDE de las
U() comparada con la distribución uniforme tendrá exactamente el mismo valor que la estadística ( 1.3) calculada de la
FDE de las X(ffl comparada con la función de distribución
F(x).
La transformación anterior se conoce como la transformación integral de probabilidad (del inglés probability integral
transformation (PITO.
El valor encontrado de la estadística se compara con el
valor de la tabla asintótico, de acuerdo al nivel de significancia
escogido.
Existen distintas tablas según el conocimiento que se tenga de la distribución F(x), los distintos casos se clasifican
como: casos 0, 1, 2 y 3, cuando F tiene hasta dos parámetros
(Stephens , 1974: 730).
Los distintos casos: 0, 1, 2y 3, para el caso normal
Caso 0: F (x, 0 ) es continua , y está completamente
especificada. Las dos componentes del vector son
conocidos.
En este caso , las U(t)= F (X(,) forman un conjunto de
observaciones que, bajo H0, son uniformes , ordenadas.
Caso 1: F (x, 0) es la distribución normal, con 0= (j .L, Q2); a2
es conocida y µ se estima con x la media muestral.
22
Caso 2: F(x, 0) es la distribución normal, con p conocida
Q2 se estima con
r (x-µ)2
r n
Caso 3: F (x, 0) es la distribución normal, con p y a2 desconocidos. Se estiman con x, y
I2= ¡(X_
(n-1)
la inedia y la varianza muestrales, respectivamente, (la
última corregida para ser insesgada).
El caso 0 es el más desarrollado teóricamente para las estadísticas FDE, aun cuando el tamaño de la muestra sea finito.
Cuando en el vector de parámetros uno, o los dos
parámetros son desconocidos deben reemplazarse por sus
estimadores respectivos . La fórmula ( 1.4) de la estadística
sigue siendo válida con U(t)= F (X(,, ,O) pero ahora cuando Ho
es cierta, las transformadas U, no son una muestra uniforme
e independiente ; y la distribución asintótica de la estadística
FDE es diferente a la distribución correspondiente al caso 0,
ya que puede depender de la distribución bajo consideración
y del método de estimación de los parámetros . De esta forma, existen tablas para cada uno de los casos ( 1, 2 y 3) y para
cada distribución F (Normal, Exponencial, Weibull, etc.). La
estadística calculada debe compararse con el punto de rechazo de la tabla correspondiente , según sea el caso; además de
hacérsele una modificación que «corrige » por ser n finito.
La A2 modificada, para el caso 3 que prueba normalidad, es la
siguiente:
A2mod= A2 (1.0+0.75 + 2.25)
n n2
La estadística de Anderson-Darling converge tan rápidamente
a su valor asintótico que no se requieren modificaciones para
n si n > 5, esto para los casos 0, 1 y 2, sin embargo se hace la
modificación de la fórmula para el caso 3.
23
En resumen, el procedimiento para probar
Ho: la muestra aleatoria X proviene de F (x; 0) la distribución normal, N (.t, 62) en donde, uno o ambos
parámetros de 0= (µ, a2) pueden ser desconocidos.
es el siguiente:
1. Ordenar los valores de la muestra X , en orden ascendente, es decir, encontrar las estadísticas de orden X(,),
a) Si es necesario, estimar los parámetros con los
usuales máximo verosímiles.
2. Calcular U(,)= F (Xt), 0), Í= 1, 2, ..., n
3. Calcular la estadística A2 con las U(I), U(2), ..., U(,) y, si estamos en el caso 3, efectuar la modificación para n finito.
4. Para hacer la prueba, comparar el valor encontrado
en la fórmula (1.4) con el valor de la tabla correspondiente, dependiendo de si el caso es 0, 1, 2 o 3. Si la estadística es mayor que el porcentil respectivo, para un nivel de
significancia determinado, se rechaza H. al nivel escogido.
Para una opción diferente del uso de la PIT, O'Reilly v
Quesenberry (1973) y O' Reilly (1992) proponen para transformar las observaciones en el intervalo (0,1), cuando l:
distribución que se prueba contiene parámetros desconocidos,
áut.+l:z la función de distribución cond'cioru'J de paria ; >d.e la
ostra, dad l estadística s fi< nte o
e
ts_°na.dor
I'. FC ? d; 0n :+ 4 i es
^w Lee
_ _n3^fr
T
s e C Ls'ee ^ c. tei ,
BI'
d. ^to° `v,,s i.
s la tra¡ C
UC., .otiac
,e, Gcon
n'
p. .? :aL} .1S.G.'.ad to eg al. condicional (cPY!)
-.
criadas mdepe .:aieiutes e ?d^r!t camen c buidas zn foz s~ eent n ( ,i) 'lieducien do, ef ctivam 'nte, el problema a 'una
prueba de uniformidad. Sin embargo, en su aplicación no
secuencial, la CPIT consiste en transformar al (0,1) cada
observación con el estimador Rao-Blackwell de su distribución. Esta aplicación (no secuencial) da resultados asintóticos
equivalentes en las estadísticas basadas en la FDE, al procedimiento descrito previamente de estimar 0 con 0, y sustituir
las transformadas en la fórmula. La aplicación de la CPIT (no
secuencial) se verá más adelante para el caso de la regresión.
Como un ejemplo de la utilización de la estadística A2
(estimando los parámetros) con las primeras 50 observaciones de los datos que aparecen en el apéndice bajo el título de
UNI50, tomados del libro de D'Agostino y Stephens (1986:
530), se va a comprobar normalidad; en donde la media y la
varianza son desconocidas. Sabemos que, en realidad, esos
datos fueron simulados de una distribución Uniforme en el
intervalo (0,10).
La media y la varianza se estiman con x y s2
_ x (x - x
x=
y .(2=E
n
respectivamente.
Los resultados obtenidos son los siguientes:
• ;=5.537999 s =3.0355
A2= 1.03938
A2moa= 1.055906
Comparando estos valores con los porcentiles de la tabla
para el caso 3, se rechaza Ho si el valor calculado de la estadística es mayor que .631, .752 .873, 1.035 que corresponden
a valores de alfa de .10,.05, .025 y .001, respectivamente.
Por lo tanto, y como era de esperarse, se rechaza HO, (aun
con a= 0.001).
Si por equivocación se hubiera considerado la tabla del
caso 0 la conclusión habría sido muy distinta, porque entonces,
25
la hipótesis nula no se habría rechazado, ya que el valor obtenido con la estadística está muy por debajo del porcentil
correspondiente a un alfa de 0.25. Esto muestra lo importante que es usar la distribución asintótica correcta.
La estadística A2 para probar normalidad en las perturbaciones
estocásticas en un modelo de regresión
En el caso de un modelo de regresión , el supuesto de que
las perturbaciones estocásticas poseen una distribución
que es normal es muy importante por las implicaciones que
tiene en las inferencias que se hacen acerca de los parámetros
del modelo.
El modelo propuesto es el siguiente:
y=X13+u
en donde:
y es un vector columna de observaciones de la
variable dependiente, n x 1
X es una matriz n x k de observaciones de las k-1
variables explicativas : X2, X3,...,Xk, en donde X,=
1, es decir, la primer columna de 1`para representar el término de intersección.
13 es el vector columna k x 1 de los parámetros
desconocidos 13,, j= 1, 2, ..., k.
u es el vector columna n x 1 de perturbaciones
estocásticas con E(u)= 0 y Var (u)= rf2 I.
En el modelo propuesto nos interesa comprobar que la suposición de normalidad hecha acerca de los errores se cumpla.
26
Debido a que las perturbaciones estocásticas no son observables , no se puede aquí proponer el uso de la FDE calculada con ellas, por eso se propone utilizar los residuos. En la
función de regresión ajustada:
y=Xb+e
con
b = (X' X) ' X' y
el estimador de mínimos cuadrados de (3, de donde
e=y-Xb=X13+u-X(X' X)'Xy
=X13+u-X(X' X)' X' (X13+u)
=(I-X(X'X) ` X')u
e=(I-H)u
con
H=X(X'X)1X'
e es el vector de residuos, su vector de medias es 0 y su
matriz de covarianza es a2 (I- X (X' X)' X').
Esta identidad demuestra que la relación entre las perturbaciones u y los residuales e, depende exclusivamente de la
matriz H, que usualmente se le conoce como matriz «sombrero». Esta matriz es muy importante para hacer diagnósticos acerca del modelo2 (Hoaglin y Welsch, 1978, para su
aplicación).
Bajo el supuesto de que las u,, i = 1, ..., n son independientes e idénticamente distribuidas, se quiere probar la hipótesis
de que su distribución común es una N (0 a2 ). El problema
así expuesto, a primera vista podría intentarse resolver con el
2 Para detectar observaciones discrepantes del conjunto que se está estudiando, por ejemplo.
27
procedimiento de prueba general visto anteriormente, refiriéndolo al caso 2, en donde la media es conocida y la varianza
se estima. Eso sería un error, pues en general los residuos no
son independientes y se distribuyen en forma diferente (sus
varianzas también son, en general, distintas). Entonces, la FIDE
construida a partir de éstos no tendría las propiedades ya expuestas para el caso 2.
De todas formas, se ha demostrado en literatura que el
comportamiento asintótico de la FDE construida con los residuos estudentizados
e, e, e
8'-é^ ' 8
es el mismo que el de la FDE calculada con observaciones
normales, independientes e idénticamente distribuidas, r con
media y varianza desconocidas (Mukantseva, 1977). Por lo tanto, para probar que los errores u,, Í= 1, ..., n se distribuyen en
forma normal se pueden utilizar las estadísticas construidas a
partir de la FDE como las de Crámer von Mises, A2 o la de
Kolomogorov, teniendo cuidado de consultar en las tablas
adecuadas.
Pierce y Kopecky (1979) y Loynes (1980), también demuestran que todas las estadísticas de prueba calculadas con
los residuos de una regresión simple o múltiple tienen la misma distribución asintótica, bajo la hipótesis nula, que para el
caso idénticamente distribuido con media y varianza desconocidas.
Es importante («crucial», lo denotan Pierce y Kopecky en
su artículo) subrayar que el modelo de regresión debe incluir
un término constante, es decir, el primer elemento de cada
vector x, debe ser 7, ya que de otra forma los resultados
asintóticos no son válidos.
Por lo tanto, en una prueba de bondad de ajuste, en donde se quiere contrastar la hipótesis de normalidad de los errores con un modelo de regresión (cuando se utiliza la estadística A? como estadística de prueba) la tabla que debe consultarse
28
es la del caso 3 en donde se supone que tanto la media como la
varianza deben ser estimadas.
Uso de los residuos estudentiZados internos
Una observación cuidadosa de los residuos ordinarios
e=y,-y,
nos permite detectar anomalías en el modelo. Algunos problemas de especificación pueden descubrirse con una simple
gráfica, aunque existen técnicas más sofisticadas. Sin embargo, en ocasiones se presentan situaciones que el examen de
los residuales no permite distinguir.
Los residuos ordinarios tienen una distribución que depende de los parámetros de escala, ya que son funciones tanto de a2 como de (1-h), en donde hy son los elementos de la
diagonal de la matriz H o «sombrero». En procedimientos
de diagnósticos es conveniente modificarlos. Cook y Weisberg
(1982: 18) sugieren diferentes transformaciones como la de
estudentización; estudentización interna y externa que permiten calcular residuos independientes de los parámetros de
escala.
Se usa el término de estudentización para describir el cociente que resulta de dividir una estadística que depende de
algún parámetro de escala entre el estimador del parámetro,
de tal forma que este cociente posea una distribución
libre de dichos parámetros. Si la estadística y el estimador
son dependientes se conoce como estudentización interna;
en caso contrario tenemos la estudentización externa.
En la regresión de mínimos cuadrados los residuos
estudentizados internos se definen como:
i--
1
' s 1-h..
en donde e; es el residuo ordinario de mínimos cuadrados;
29
¡?
_
^ - E (n-k)
es el cuadrado medio del residuo , y 1-hy es el elemento diagonal de la matriz I-H.
De los mismos resultados , ya mencionados de Pierc:e y
Kopecky y Mukantseva, se tiene que la FDE calculada con
estos nuevos residuos tiene las mismas propiedades asintóticas.
En el caso de una regresión simple:
y,=po+fi,x+u;
los pasos a seguir son los siguientes:
1. Obtener los residuos de la regresión
e,- y, y,
2. Calcular los residuos estudentizados (Pierce y Gray,
1982), que se obtienen con la fórmula:
e.
G{1-ñ xx2 Í
(Xr X)Z
en donde
_ e?
a-^ (n-2)
3. Calcular U ,= F (!) en donde F (.) es la función de distribución normal , estándar.
4. Obtener las estadísticas de orden de las variables
transformadas U , , U(,).
30
5. Calcular A? con las U(), i = 1, ..., n
6. Realizar la prueba : consultando en la tabla del caso 3 (en este
caso no se hace la modificación para n finita , pues no se
conoce).
Rechazar Ho al nivel especificado si A2 es mayor que el
porcentil de la tabla.
El uso de la CPIT en un modelo de regresión múltiple
En el caso de un modelo de regresión múltiple, la transformación CPIT (no secuencial) lleva a un procedimiento equivalente al uso de unos «nuevos residuos» e* (de tipo predictivo),
en el que
U=
1
sustituye a la F(^) del procedimiento anterior, en donde k es
el número de variables en el modelo , y G7 (.) es la función de
distribución t de Student con y grados de libertad , evaluada
en .,y e* , son los residuos predictivos . Estos se obtienen a
partir de lose con la siguiente fórmula (O'Reilly, 1993):
e
e nn -1 (1
(X'X)1 x) 62
n-k-1 e2,
con
en donde
Q2=
SCE
n
es el estimador máximo verosímil sin corrección para
el sesgo.
31
Los residuos e", se conocen como los residuos predictivos
o (21T.
La transformación CPIT será utilizada a lo largo del presente trabajo.
Para ejemplificar el uso de la estadística A2 en la prueba
de normalidad de los errores en un modelo de regresión
lineal múltiple , utilizaremos los datos que gentilmente me proporcionaron las profesoras Lilia Domínguez y Flor Braun.
los datos aparecen en el apéndice bajo el título de PROB84,
y consisten de 84 observaciones para cada una de 10 variables independientes.
FI po blema consiste en analizar la productividad entre
n^pre°s zs grandes y pequeñas.
Los cálculos realizados se hicieron en un programa de
1 ;rt an, que la autora del presente trabajo escribió.
Este programa recibe como entrada la matriz de observaciones independientes X y el vector de observaciones dependientes y. Obtiene el vector de los coeficientes de regresión estimados ; los residuos ; estandariza estas úlrifnos calcula
los elementos de la diagonal de la matriz T X(X' V ' V_ lue
sirven para estudentizar los residuos ; transforma carda ono
de los residuos con la CPIT; los ordena, s. per ultimo, alce,
la estadística Andersi)n-Darling.
Los cnefir i^n*e^ ^a o eresión otinti^i1 o ;nn !^ . <i#;nt te ,
I3.= 1.)133',31(!, 0,^ 0.O294411 5
5557
l1 = 0. )6500 i; l3,- -11.04134133; 9.. 0 0l 13"3 i?;
[3,- n 14131(!-1 (3.= 0.0104409; P,= r)-O13!;`^1` ^
13L= -e).C
7852
Sc pr: ,e^ta ,rr=o ejemplo de cada uno de los elementos
an s, ^. id--;, los primeros 10 resultados tal e como se
rln`^-;u°ifrr,ri de la salida del prograrnaa.
32
Los diez primeros residuos estandarizados son:
-1.093073 -0.7844011 -1.163355 -1.469098 0.4263015
0.859099 0.7142838 -0.5398913 0.2117695 0.4479944
Los elementos de la diagonal son:
0.88273
0.9062845 0.8728446 0.8583438 0.834879
0.8385147 0.8109857 0.8081338 0.7912683 0.8097361
Los residuos estudentizados internos:
-1.093414 -0.7712405 -1.171686 -1.500863 0.4355022
0.8979219 0.7421956 -0.561075 0.2220086 0.4647985
Los residuos ordenados son:
-2.378733 -2.244148 -1.820073 -1.722173 -1.651665
-1.58481 -1.500863 -1.403008 -1.373298 -1.257801
Los residuos CPIT:
0.009994694 0.0139275 0.03642355 0.04463642 0.05144921
0.05866619 0.06885199 0.08242671 0.08693153 0.10622362
La estadística A2 calculada es: 0.2053746
De acuerdo al resultado obtenido no se rechaza H0.
Por lo tanto podemos suponer que los errores se comportan en forma normal.
33
Descargar