ESTADÍSTICA

Anuncio
ESTADÍSTICA
AYUDAS PARA
EL TEST
(1ºParcial)
1) La suma de probabilidades de todos los casos posibles de un
experimento tiene que ser igual a uno.
2) La probabilidad de aprobar este test (5 preguntas, cada una con
4 respuestas posibles pero solo una verdadera) respondiendo
aleatoriamente:
Se trata de una variable aleatoria binormal con n=5,
probabilidad= ¼. B(5, ¼);
La probabilidad es P= P(x=3) +P(x=4) + P(x=5):
P = 0.10247
3) En el experimento de lanzar un dado. ¿qué es más probable,
obtener un 6 en el primer lanzamiento o sacar un 6 en el sexto
lanzamiento sabiendo que en los primeros 5 anteriores no ha
salido ningún 6? Es igual de probable.
4) Dos sucesos disjuntos pueden ser dependientes.
5) Dos sucesos disjuntos no pueden ser independientes.
6) Dos sucesos independientes si pueden darse conjuntamente.
7) Dos sucesos compatibles pueden ser dependientes o
independientes.
8) Un suceso razonable es un conjunto de valores de la v.a que
responden puramente a la aleatoriedad del fenómeno al que
representan. (P=95%)
9) Un suceso raro es un suceso en es que P<<1, cuya ocurrencia no
cabe esperar que sea debida a la aleatoriedad del fenómeno
estudiado sino a la concurrencia de cargas ajenas a él (P=5%)
10)¿Cómo se obtiene σ2 a partir de µ? σ2=α1+α2
11)¿Existen siempre µ y σ? No ,las integrales o sumatorios pueden
ser divergentes
12)¿Para valores pequeños de σ? Los valores de la v.a se concentran
en torno a su esperanza µ.
13)¿Para valores grandes de σ? Los valores de la v.a se reparten
ampliamente alrededor de su esperanza µ.
14)En una variable aleatoria continua no tiene sentido el cálculo de
probabilidad en un punto, sino en un intervalo.
15)Dos variables aleatorias independientes nunca tienen covarianza
< 0.
16)Dos variables independientes tienen coeficiente de correlación
nulo. Peor aproximación.
17)La variable aleatoria ß no puede converger a Dirac excepto si el
suceso inicial es uniforme. (falso, siempre converge a Dirac)
18)Sea una variable normal (µ,σ):
a) La distribución es simétrica respecto del origen. Falso, lo
es respecto µ.
b) Siendo F(x) la función F (µ+x)=F (µ-x). Falso.
c) Media y esperanza coinciden. Correcto
19)El coeficiente de correlación de dos variables aleatorias …
a) Es siempre ≤ 2 .Falso.
b) Será negativo si la convergencia Bayesiana es negativa.
Falso.
c) Es dos si... Falso, nunca será dos.
d) Ninguna de las anteriores. Verdadero.
20)Sean dos variables aleatorias (x, y), se sabe que f(x, y) = xy,
f1(x)=x, y que f2(y)=y ¿son independientes? Es condición
necesaria y suficiente para la independencia que f(x,
y)=f1(x)f2(x). no hace falta saber su dominio, se sabe que en este
caso su dominio será un paralelogramo de lados paralelos a los
ejes coordenados.
21)Relacionado con variables aleatorias deducidas de la normal…
(pág. 315)
22)En una Chi cuadrado con n grados de libertad,
a) la esperanza coincide con la varianza. Falso, E (ξ)=n; V
(ξ)=2n.
b) La función F con n y m grados de libertad es un cociente de
normales N (0,1). Falso.
c) La varianza de la t de student tiende asintóticamente a 0,5
al crecer n (grados de libertad). Falso, lim V(ξ)=lim1/n =1.
d) Chi cuadrado es una suma de los cuadrados de variables
normales N(0,1). Verdadero.
23)Sea una variable aleatoria bidimensional con función de
densidad f(x,y)=kxy definida para x en (0,1); y en (0,1):
a) El coeficiente de correlación de X e Y tiende
asintóticamente a 0. Falso.
b) K es siempre mayor que 5. Falso, k=4; f(x)f(y)= ¼ k2xy
c) X e Y son independientes. Verdadero, dominio rectangular
lados paralelos.
d) El coeficiente de correlación vale 0,95. Falso.
24)Para calcular el Ia de la media de una variable aleatoria…
a) Realizaríamos χ2 o de adherencia. Falso.
b) Calcularíamos el semivariagrama. Falso
c) Partiríamos de la variable aleatoria de la media muestral.
Verdadera.
25)Un contraste paramétrico aprovecha mejor la información de la
muestra que uno no paramétrico.
26)Un contraste no paramétrico…
a) Es siempre preferible a uno paramétrico. Falso.
b) Mejora la tendencia eficiente de la muestra. Falso.
c) Es un recurso para muestras pequeñas (test de las
sigmas). Verdadero.
d) Nunca debe realizarse. Falso.
27)El estimador de máxima verosimilitud de la media de la
población es la media muestral…
a) Nunca. Falso.
b) Siempre. Falso.
c) En algunos casos. Verdadero.
d) Si el dominio es rectangular. Falso.
28)La varianza muestral como estimador de la varianza poblacional
es:
a) Centrado. Falso.
b) Sesgado. Verdadero.
c) Asintóticamente centrado sólo cuando es suficiente. Falso.
d) Centrado si cumple Rao- Blackwell. Falso.
29)¿Puede decidir que estimador es el mejor entre las siguientes
parejas?
a) Suficiente- eficiente. Falso.
b) Suficiente- centrado. Falso.
c) Eficiente- centrado. Verdadero, si es eficiente, es el de
menor riesgo de todos los centrados, por tener varianza
mínima y por lo tanto el menor.
30)La varianza de la muestra es un estimador eficiente de la
varianza poblacional. Falso, es siempre sesgado, así que o puede
ser eficiente.
31)Responder verdadero o falso:
a) Un estimador centrado es siempre mejor que uno sesgado.
Falso.
b) Un estimador centrado es siempre peor que uno sesgado.
Falso.
c) Un estimado eficiente es asintóticamente eficiente. Falso.
32)¿S2 puede ser un estimador eficiente? S2es un estimador
centrado para S, luego si estamos S2 y tiene varianza mínima sí
que podría serlo.
33)¿La cuasi varianza muestral puede ser un estimador eficiente? La
cuasi varianza muestral es un estimador centrado respecto σ de
la varianza poblacional, y por ser centrada puede ser eficiente.
Sólo hace falta que su varianza sea mínima. Por tanto, si tiene
mínima varianza, la cuasi varianza muestral será un estimador
eficiente de la varianza poblacional.
34)¿Qué propiedades tiene una transformación Y=F(x) cuando la
función de distribución de la variable x es simétrica?
g(y)dy=f(x)dx →g(y)=f(x)/(dy/dx)=f(x)/f(x)=1. X=F’(x).
35)¿La función f(x)=k(1-2x) puede ser función de densidad de una
variable definida entre 0 y 1? No, pues no es >0 para todo x en
[0,1].
36)¿Existe siempre la función generatriz? No.
37)¿Existe siempre la función característica? Si.
38)Una variable aleatoria definida para x>0 entero y 1 tiene
f(x)=(kx2)- 0,5. ¿Es función de densidad? No es función de
densidad ya que entre [0,a], f(x)<0.
39)Toda f(x) positiva definida en [a,b] tal que ∫f(x)dx=1 es una
función de densidad.
40)Una función de densidad es necesariamente positiva excepto
cero en algún punto.
41)El área encerrada entre dos puntos a y b bajo una función de
densidad representa la probabilidad de que la variable aleatoria
se encuentre entre esos valores.
42)Siendo las variables aleatorias x e y independientes, si u=x+y,
v=x-y ¿son independientes u y v? Falso. u=v+2y.
43)Sea una variable aleatoria bidimensional (x,y) de función
densidad f(x,y) definida en un dominio circular D, ¿son x e y
independientes? No pueden serlo, dominio no rectangular.
44)Sea una variable aleatoria bidimensional definida en (0,1)x(0,1)
¿pueden ser sus variables independientes? Podrían, pues es un
dominio rectangular.
45)Para contrastar con n=500 si se trata de una v. de Poisson:
Contraste X2: requiere muestras grandes pero es el mejor.
46)¿Qué quiere decir que la variable aleatoria de Poisson tiene la
propiedad aditiva? ¿En qué condiciones?
Quiere decir que la suma de variables de Poisson independientes
es también una variable aleatoria de Poisson. La distribución
goza de la propiedad aditivas cuando se refiere la variables
independientes, como puede comprobarse calculando la función
característica de la variable suma como producto de las
funciones características de las variables independientes que se
suman P(λ1)+P(λ2)+P(λ3)… = P(λ1+ λ2+ λ3…)con
P(λi)independiente.
47)Sea una v.a bidimensional, como dominio circular de radio finito.
Las variables nunca serán independientes.
48)La variable aleatoria “Tiempo hasta la llegada n” en un proceso
de Poisson ¿Qué tipo de variable es?
En un proceso de Poisson puede definirse la variable γ (gamma)
que modeliza el tiempo que hay que esperar hasta que ocurra la
instancia n-ésima. La variable γ Г(µ,n) con n entero se denomina
variables de Erlang. Se trata de una variable aleatoria continua.
49)Dada una muestra de 500 valores, se desea contrastar si
corresponde a una variable de Poisson. Describir que tipo de
contraste habría que realizar.
La hipótesis de contraste de corresponder a una determinada
distribución de probabilidad se tratan específicamente con los
test de adherencia o de bondad de ajuste (contraste χ2) para
muestras grandes (500 >30).
El test χ2de Pearson se trata de un test que contrasta la
hipótesis nula(la muestra procede de una determinada
distribución) a partir de la distribución de un estadístico que
relaciona las frecuencia teóricas y de la muestra. Ver esquema
pág. 157- 158 del libro.
50)La media de una muestra con n= 9 es x=7. Si σ= 1, ¿es
aceptable la hipótesis de que µ=8 con α= 5%?
En ningún caso I=X±1’96
= 7±1’96* 1/3 [6,35; /,65]
51)Para calcular un intervalo de confianza para la media poblacional
a partir de una muestra aleatoria ¿qué debemos hacer?
a) Uso el análisis de la varianza. Falso.
b) Test de adherencia. Falso.
c) Semivariagrama. Falso.
d) Partir del valor de la media muestral (más propiedades de
la media muestral). Verdadero.
52)Para calcular un intervalo de confianza de la media de una v.a a
partir de una muestra…
a) Utilizaríamos el análisis de la varianza particularizando
para la media. Falso.
b) Realizaríamos el test Chi- 2 de adherencia. Falso.
c) Calcularíamos el semivariagrama correspondiente. Falso
d) Partiríamos de las propiedades de la variable aleatoria
“media muestral”. Verdadero.
53)Cuando se calcula un intervalo de confianza…
a) Al aumentar en nivel de confianza aumenta la amplitud del
intervalo. Verdadero, confianza del 100%, I sale (-∞,∞)
b) Al aumentar en nivel de confianza disminuye la amplitud
del intervalo. Falso.
c) La amplitud del intervalo es independiente del intervalo de
confianza. Falso.
d) Depende del tipo de variable aleatoria considerada. Falso,
es independiente y luego se comprueba si la variable
pertenece a él o no.
54)De una muestra de tamaño n=10 se pretende determinar si
puede proceder de una población normal. Para ello…
a) Se realiza un test chi cuadrado. Falso.
b) Se calculará el intervalo de confianza de la media. Falso.
c) Se realiza un contraste no paramétrico. Verdadero.
55)En una muestra de tamaño n=10 se calcula la media x y la
desviación típica muestrales S2. En otra muestra de tamaño
n=20 se obtiene la misma media y desviación.
a) Es imposible. Falso.
b) La desviación típica debería valer la mitad con la muestra
mayor. Falso.
c) La desviación típica debería valer el doble con la muestra
mayor. Falso.
d) El intervalo de confianza de la media será menor con la
muestra mayor, ya que I= x±zσ/(n)^1/2. Verdadero
,mayor muestra más precisión en las estimaciones.
56)La media muestral de una m.a.s tamaño 100 es 1 ¿Puede la
muestra proceder de una población N(0,1)?
a) Depende del nivel de confianza. Verdadero.
b) Si, si tiende asintóticamente. Falso.
c) Es poco probable. Falso.
d) En ningún caso. Falso.
57)Para n=100 X=1. ¿Puede proceder la muestra de una N(0,1)?
Depende del nivel de confianza de contraste.
Es muy raro que con una muestra tan grande x=1 y µ=0, pero I=
1±Zα0,10. Para que esté el 0 necesitamos Zα= 10 con un
intervalo de confianza grande está el 1.
58)En un test de adherencia(chi cuadrado: χ2) el estadístico
calculado toma el valor de Id= 1’35; si el numero de grados de
libertad es de 5 (χ52):
Aceptamos la hipótesis para niveles de significación del 5% o
inferiores (se ve en las tablas).
59)Si la probabilidad de volver a un mismo estado en una cadena de
Markov es < 1 → es irreductible.
60)Dada una Cadena de Markov con matriz de transición: M=
¿Es ergódica?
No, ya que hay dos estados absorbentes→ la cadena de Markov
no es irreductible. Para que una cadena de Markov pueda ser
ergódica a parte de ser recurrente, aperiódica y no nula, se
supone homogénea e irreductible, y esta no lo es.
61)Coeficiente de correlación =0 → covarianza nula.
62)Sea X v.a en Г(185, 2) y sea Y= 127+ x/√3π su curva de
regresión ¿cuál es su coeficiente de correlación? Si hay
dependencia funcional, el coeficiente de correlación es 1.
63)Dos rectas de regresión con pendientes de ≠ signo → Varianza
>0
64)Las rectas de regresión deben tener las pendientes del mismo
signo. Además el signo de sus pendientes es el de la cuasi
varianza. Se cortan siempre dentro de su dominio en el punto
(x,y)= (E(x), E(y)).
65)Dadas dos v.a (x, y) con curva de regresión ξ2+= Y= E(x)¿son x e
y independientes?
Y*=Q(x)=E(y/x=x)=
se debe cumplir
la igualdad en 1 para ello f(x,y)/f1(x)=f2(y)→f(x,y)=f1(x)f2(y)
condición necesaria y suficiente para la independencia de
variables.
Si, son independientes.
66)¿Las rectas de regresión de una v.a deben tener pendientes del
mismo signo?
Si, siempre que Cov(x,y)≠0.
67)El coeficiente de correlación de dos variables aleatorias es cero
a) Siempre. Falso.
b) Nunca. Falso.
c) Si y solo si son independientes. Falso.
d) Ninguna de las anteriores es correcta. Verdadero.
68)¿Puede ser la varianza negativa? Nunca .
69)La convergencia casi segura implica la convergencia de una
sucesión de probabilidades. Verdadero.
70)Una variable ß converge siempre a una delta de Dirac.
Verdadero.
71)La función generatriz de momentos de una variable de Cauchy
no existe. Verdadero, el cálculo de los momentos par lleva a una
integral divergente, la variable crece por momentos.
72)La variable de Cauchy es simétrica con respecto al eje de
coordenadas.
73)Una variable de Cauchy (0,1) se puede obtener como cociente de
dos variables N(0,σ) independientes entre sí. Verdadero.
74)El coeficiente de correlación nulo implica covarianza, S2, nula.
Verdadero.
75)Dos variables bidimensionales con dominio circular no son
independientes. Verdadero.
76)Sea N(µ,σ), la distribución de probabilidad es simétrica respecto
del origen. Falso.
77)Dadas las variables x e y y la curva regresión y =E(k)=cte. ¿Son
independientes?
E[(y-k)2] mínimo→ k=E[y]=E[x]
E[(Y-G(x))2]
Y=G(x)= E(Y/X=x)=
La mayor aproximación no depende de x, luego son
independientes.
78)Sean dos variables aleatorias definidas en un dominio DxyΞ
rectangular. ¿son independientes?. Si, es condición necesaria y
suficiente
79)Cuando hay dependencia funcional de las variables, el
coeficiente de correlación es 1 porque la aproximación es exacta.
80)Sea x una variable aleatoria con E(x)=1; E(x2)=2; E(x3)=3.
Calcular
.
81)La convergencia de probabilidad implica la convergencia de
sucesión de variables. Falso.
82)Sea f(xy) tal que su dominio de convergencia sea una elipse de
ejes a y b. ¿son independientes las variables?
a) Si, son independientes. Falso, nunca.
b) Son independientes si y solo si a=b. Falso.
c) Son siempre independientes. Falso.
d) Nunca son independientes. Verdadero, el dominio es
incompatible con la independencia.
83)Si dos variables bidimensionales están en un dominio circular son
independientes. Falso, sólo serán independientes cuando el
dominio tenga los lados paralelos a los ejes coordenados.
84)No puede haber una función de densidad negativa.
85)La convergencia cuasi segura implica la convergencia de una
sucesión de probabilidades. Verdadero.
86)Propiedades de la transformación y= F(x) cuando su función f(x)
es la función de distribución
g(y)dy=f(x)dx
g(y)=f(x)/(dy/dx)=f(x)/f(x)=1 →
x=F-1(y)
87)Sea χ2 (variable aleatoria chi-cuadrado de Pearson) con n grados
de libertad.
a) La esperanza coincide con la varianza. Falso, E(ξ)=n y
V(ξ)=2n.
b) La función es un cociente. Falso, se define como la suma
de los cuadrados de n variables Z normales N(0,1) e
independientes
c) χ2 es la suma de los cuadrados de N(0,1). Verdadero.
d) Ninguna de las anteriores es correcta. Falso
88)Sea una función de densidad: f(xy)=kxy definida en [0,1]x[0,1]
a) El coeficiente de correlación tiende asintóticamente a 0.
Falso.
b) K>5. Falso.
c) Las variables x e y son independientes. Verdadero.
89)La media de la muestra
y la varianza -2’75, la muestra:
a) Se acepta. Falso.
b) No se puede tomar una decisión. Falso.
c) Se rechaza. Verdadero, la varianza no puede ser negativa.
90)El periodo de retorno es el inverso de la probabilidad cuando es
transitorio. Falso.
91)Cuando dos sucesos no tienen ningún elemento en común su
intersección es el suceso imposible, entonces se llaman sucesos
disjuntos o incompatibles
92)La función densidad de probabilidad es la derivada de la función
distribución de probabilidad.
Las propiedades son:
FDP(x)
0 para toda x.
La integral de FDP(x) es el área bajo la curva de FDP(x), siempre
es 1.
La probabilidad de que X tome un valor en el intervalo [a,b] es el
área bajo la curva de la función de densidad. La gráfica FDP(x) se
conoce como curva de densidad.
93)No todas las variables aleatorias tienen un valor esperado (por
ejemplo la [distribución de Cauchy]).
94)Propiedades de la varianza :
, propiedad que permite que la definición de
desviación típica sea consistente.
Siendo a y b constantes cualesquiera
95)La función característica siempre existe, ya que el sumatorio o
integral definida que la calcula es siempre convergente.
96)Una variable aleatoria queda plenamente caracterizada cuando
se conoce su función de densidad, su función de distribución o su
función característica. Por el teorema de Levy
97)La función característica permite obtener los momentos de la
variable aleatoria.
98)No se puede asegurar que exista siempre la función generatriz,
ya que al desaparecer la unidad imaginaria en la expresión de
M(t) no es posible aplicar el razonamiento realizado
anteriormente sobre la definición de función característica.
99)Una función de distribución ha de cumplir 3 condiciones:
Y
Es continua por la derecha
Es monótona no decreciente
Descargar