Distribución Binomial

Anuncio
Distribución Binomial
En Estadística, la Distribución Binomial es una distribución de
probabilidad discreta que mide el número de éxitos en una secuencia de n
ensayos independientes de Bernoulli, con una probabilidad fija p de
ocurrencia del éxito entre los ensayos.
Un experimento de Bernoulli se caracteriza por ser dicotómico, esto es,
sólo son posibles dos resultados. A uno de estos se denomina éxito y tiene
una probabilidad de ocurrencia p y al otro, fracaso, con una probabilidad q
= 1 - p. En la distribución binomial el anterior experimento se repite n
veces, de forma independiente, y se trata de calcular la probabilidad de un
determinado número de éxitos. Para n = 1, la binomial se convierte, de
hecho, en una distribución de Bernoulli.
Para representar que una variable aleatoria X sigue una distribución
binomial de parámetros n y p, se escribe:
La distribución Binomial es la base del test binomial de significación
estadística.
Ejemplos
La siguiente situación es un ejemplo de experimento que puede
modelizarse por esta distribución:

Se lanza un dado diez veces y se cuenta el número de tres obtenidos:
X ~ B(10, 1/6)
Experimento Binomial
Existen muchas situaciones en las que se presenta una experiencia
binomial. Este tipo de experiencias se caracteriza por estar formada por un
número predeterminado n de experimentos iguales. Cada uno de los
experimentos es independiente de los restantes (la probabilidad del
resultado de un experimento no depende del resultado del resto). El
resultado de cada experimento ha de admitir sólo dos categorías (a las que
se denomina éxito y fracaso). Las probabilidades de ambas posibilidades
han de ser constantes en todos los experimentos (se denotan como p y q o p
y 1-p).
Se designa por X a la variable que mide el número de éxitos que se han
producido en los n experimentos.
Cuando se dan estas circunstancias, se dice que la variable X sigue una
distribución de probabilidad binomial, y se nota B(n,p).
Características analíticas
Su función de probabilidad está dada por:
donde
, siendo
elementos tomados de en )
las combinaciones de
en
(
Propiedades características
Relaciones con otras variables aleatorias
Se verifica que si
son tales que cada una sigue una distribución
Bernouilli de parámetro
entonces
de parámetros
, y todas ellas son independientes entre sí,
resulta ser una variable aleatoria con distribución binomial
. Además, si n es grande y
es pequeño, de modo que el
producto entre ambos parámetros tiende a , entonces la distribución de la
variable aleatoria binomial tiende a una Distribución de Poisson de
parámetro
Por último, se cumple que cuando n es muy grande (n ≥ 30) la distribución
binomial se aproxima a la distribución normal.
Propiedades reproductivas
Dadas n variables aleatorias
, tales que:

Todas tienen una distribución binomial;

Todas tienen el mismo parámetro ;

Cada una tiene su propio parámetro
(es decir, los n no
necesariamente tienen que ser iguales);

NO son TOTALMENTE independientes entre sí;

Se toma la variable aleatoria
;

Se toma
;
Entonces:
La variable aleatoria Y tiene una distribución Binomial, con parámetros
y .
Por lo tanto, dadas n variables binomiales independientes, de parámetros ni
, i = 1, ..., n y , su suma es también una variable binomial, de parámetros
n1 + ... + nn y .
Distribución binomial
Función de probabilidad
Función de distribución de probabilidad
Parámetros
número de ensayos (entero)
probabilidad de éxito (real)
Dominio
Función de probabilidad (fp)
Función de distribución (cdf)
Media
Uno de
Mediana
Moda
Varianza
Coeficiente de simetría
Curtosis
Entropía
Función generadora de
momentos (mgf)
Función característica
Distribución de Poisson
En teoría de probabilidad y estadística, la distribución de Poisson es una
distribución de probabilidad discreta. Expresa la probabilidad de un
número k de eventos ocurriendo en un tiempo fijo si estos eventos ocurren
con una tasa media conocida, y son independientes del tiempo desde el
último evento.
La distribución fue descubierta por Siméon-Denis Poisson (1781–1840)
que publicó, junto con su teoría de probabilidad, en 1838 en su trabajo
Recherches sur la probabilité des jugements en matières criminelles et
matière civile ("Investigación sobre la probabilidad de los juicios en
materias criminales y civiles"). El trabajo estaba enfocado en ciertas
variables aleatorias N que cuentan, entre otras cosas, un número de
ocurrencias discretas (muchas veces llamadas "arribos") que tienen lugar
durante un intervalo de tiempo de duración determinada. Si el número
esperado de ocurrencias en este intervalo es λ, entonces la probabilidad de
que haya exactamente k ocurrencias (siendo k un entero no negativo, k = 0,
1, 2, ...) es igual a:
dónde

e es el base del logaritmo natural (e = 2.71828...),

k! es el factorial de k,

k es el número de ocurrencias de un evento,

λ es un número real positivo, equivalente al número esperado de
ocurrencias durante un intervalo dado. Por ejemplo, si los eventos
ocurren de media cada 4 minutos, y se está interesado en el número
de eventos ocurriendo en un intervalo de 10 minutos, se usaría como
modelo una distribución de Poisson con λ = 2.5.
Por ejemplo, si 2% de los libros encuadernados en cierto taller tiene
encuadernación defectuosa, obtener la probabilidad de que 5 de 400 libros
encuadernados en este taller tengan encuadernaciones defectuosas.
Su media y su varianza son:
Como una función de k, ésta es la función probabilidad de masa. La
distribución de Poisson puede ser vista como un caso limitante de la
distribución binomial, es decir, que una distribución binomial en la que
y
se puede aproximar por una distribución de Poisson de
valor
La distribución de Poisson es también llamada Poissoniana, análogamente
al término Gaussiana para una distribución de Gauss o distribución normal.
Procesos de Poisson
La distribución de Poisson, se aplica a varios fenómenos discretos de la
naturaleza (esto es, aquellos fenómenos que ocurren 0, 1, 2, 3, ... veces
durante un periodo definido de tiempo o en una área determinada) cuando
la probabilidad de ocurrencia del fenómeno es constante en el tiempo o el
espacio. Ejemplos de estos eventos que pueden ser modelados por la
distribución de Poisson incluyen:

El número de autos que pasan a través de un cierto punto en una ruta
(suficientemente distantes de los semáforos) durante un periodo
definido de tiempo.

El número de errores de ortografía que uno comete al escribir una
única página.

El número de llamadas telefónicas en una central telefónica por
minuto.

El número de servidores Web accedidos por minuto.

El número de animales muertos encontrados por unidad de longitud
de ruta.

El número de mutaciones de determinada cadena de ADN después
de cierta cantidad de radiación.

El número de núcleos atómicos inestables que decayeron en un
determinado periodo de tiempo en una porción de sustancia
radiactiva. La radiactividad de la sustancia se debilitará con el
tiempo, por lo tanto el tiempo total del intervalo usado en el modelo
debe ser significativamente menor que la vida media de la sustancia.

El número de estrellas en un determinado volumen de espacio.

La distribución de receptores visuales en la retina del ojo humano.

La inventiva de un inventor a través de su carrera.
Propiedades

El valor esperado de una variable aleatoria con distribución de
Poisson es igual a λ y también lo es su varianza. Los momentos más
altos de la distribución de Poisson son polinomios de Touchard en λ
cuyos coeficientes tienen un sentido combinatorio. De hecho, cuando
el valor esperado de la distribución de Poisson es 1, entonces la
fórmula de Dobinski dice que el enésimo momento iguala al número
de particiones de tamaño n.

La moda de una variable aleatoria de distribución de Poisson con un
λ no entero es igual a
(o suelo de λ), el cual es el número entero
más grande menor o igual a λ. Esto también es expresado como la
función parte entera de λ. Cuando λ es un entero positivo, las modas
son λ y (λ − 1).

Sumas de las variables aleatorias de distribución de Poisson:
Si
sigue una distribución de Poisson con parámetro
y Xi son independientes entonces
también sigue una distribución de Poisson cuyo parámetro es la suma
de los parámetros del componente.

La función generadora de momentos de la distribución de Poisson
con valor esperado λ es:

Todas las acumulaciones de la distribución de Poisson son iguales al
valor esperado λ. El enésimo momento factorial de la distribución de
Poisson es λn.

La distribuciones de Poisson son funciones probabilísticas
infinitamente divisibles.

La divergencia Kullback-Leibler dirigida entre Poi(λ0) y Poi(λ) está
dada por:

Cuando λ tiende a infinito, podemos aproximar a una distribución
normal. Por ello, podemos tipificar ya que conocemos cual es la
media y varianza de una Poisson.
X˜Po(λ) ~ N(λ,λ)
Tipificando:
Y ˜ N(0,1)
Distribución de Poisson
Función de probabilidad
El eje horizontal es el índice k. La función solamente está definida en
valores enteros de k. Las líneas que conectan los puntos son solo
guías para el ojo y no indican continuidad.
Función de distribución de probabilidad
El eje horizontal es el índice k.
Parámetros
Dominio
Función de
probabilidad (fp)
Función de
distribución (cdf)
Media
Mediana
Moda
Varianza
Coeficiente de
(dónde Γ(x, y) es la Función gamma
incompleta)
simetría
Curtosis
Entropía
Función generadora
de momentos (mgf)
Función
característica
Distribución Normal o de Gauss
En Estadística y Probabilidad se llama distribución normal, distribución de
Gauss o distribución gaussiana, a una de las distribuciones de probabilidad
de variable continua que con más frecuencia aparece en fenómenos reales.
La gráfica de su función de densidad tiene una forma acampanada y es
simétrica respecto de un determinado parámetro. Esta curva se conoce
como campana de Gauss.
La importancia de esta distribución radica en que permite modelizar
numerosos fenómenos naturales, sociales y psicológicos. Mientras que los
mecanismos que subyacen a gran parte de este tipo de fenómenos son
desconocidos, por la ingente cantidad de variables incontrolables que en
ellos intervienen, el uso del modelo normal puede justificarse asumiendo
que cada observación se obtiene como la suma de unas pocas causas
independientes.
La distribución normal también es importante por su relación con la
estimación por mínimos cuadrados, uno de los métodos de estimación más
simples y antiguos.
Algunos ejemplos de variables asociadas a fenómenos naturales que siguen
el modelo de la normal son:

caracteres morfológicos de individuos como la estatura;

caracteres fisiológicos como el efecto de un fármaco;

caracteres sociológicos como el consumo de cierto producto por un
mismo grupo de individuos;

caracteres psicológicos como el cociente intelectual;

nivel de ruido en telecomunicaciones;

errores cometidos al medir ciertas magnitudes;

etc.
La distribución normal también aparece en muchas áreas de la propia
estadística. Por ejemplo, la distribución muestral de las medias muestrales
es aproximadamente normal, incluso si la distribución de la población de la
cual se extrae la muestra no es normal. Además, la distribución normal
maximiza la entropía entre todas las distribuciones con media y varianza
conocidas, lo cual la convierte en la elección natural de la distribución
subyacente a una lista de datos resumidos en términos de media muestral y
varianza. La distribución normal es la más extendida en estadística y
muchos tests estadísticos están basados en una supuesta "normalidad".
En probabilidad la distribución normal aparece como el límite de varias
distribuciones de probabilidad continuas y discretas.
Distribución normal
Función de densidad de probabilidad
La línea verde corresponde a la distribución normal estándar
Función de distribución de probabilidad
Parámetros
Dominio
Función de densidad (pdf)
Función de distribución (cdf)
σ>0
Definición formal
Hay varios modos de definir formalmente una distribución de probabilidad.
La forma más visual es mediante su función de densidad. De forma
equivalente, también pueden darse para su definición la función de
distribución, los momentos, la función característica y la función generatriz
de momentos, entre otros.
Función de densidad
Se dice que una variable aleatoria continua X sigue una distribución normal
de parámetros μ y σ y se denota X ~ N (μ, σ) si su función de densidad está
dada por:
donde μ (mu) es la media y σ (sigma) es la desviación típica (σ2 es la
varianza)
Se llama distribución normal "estándar" a aquella en la que sus parámetros
toman los valores μ = 0 y σ = 1. En este caso la función de densidad tiene la
siguiente expresión:
Su gráfica se muestra a continuación y con frecuencia se usan TABLAS
para el cálculo de los valores de su distribución.
Propiedades
Algunas propiedades de la distribución normal son:
1. Es simétrica respecto de su media, μ;
2. La moda y la mediana son ambas iguales a la media, μ;
3. Los puntos de inflexión de la curva se dan para x = μ − σ y x = μ + σ.
4. Distribución de probabilidad en un entorno de la media:
 en el intervalo [μ - σ, μ + σ] se encuentra comprendida,
aproximadamente, el 68,26% de la distribución;
 en el intervalo [μ - 2σ, μ + 2σ] se encuentra, aproximadamente,
el 95,44% de la distribución;
 por su parte, en el intervalo [μ -3σ, μ + 3σ] se encuentra
comprendida, aproximadamente, el 99,74% de la distribución.
Estas propiedades son de gran utilidad para el establecimiento
de intervalos de confianza. Por otra parte, el hecho de que
prácticamente la totalidad de la distribución se encuentre a tres
desviaciones típicas de la media justifica los límites de las
tablas empleadas habitualmente en la normal estándar.
5. Si X ~ N(μ, σ) y a y b son números reales, entonces (aX + b) ~
N(aμ+b, aσ).
6. Si X ~ N(μx, σx) e Y ~ N(μy, σy) son variables aleatorias normales
independientes, entonces:
 Su suma está normalmente distribuida con U = X + Y ~ N(μx +
μy, σx2 + σy2). Recíprocamente, si dos variables aleatorias
independientes tienen una suma normalmente distribuida,
deben ser normales (Teorema de Crámer).
 Su
diferencia
está
normalmente
distribuida
con
.
 Si las varianzas de X e Y son iguales, entonces U y V son
independientes entre sí.
 La
[[divergencia
de
Kullback-Leibler,
7. Si
e
son
variables
aleatorias
independientes normalmente distribuidas, entonces:
 Su producto XY sigue una distribución con densidad p dada
por
donde K0 es una función de Bessel
modificada de segundo tipo.
 Su cociente sigue una distribución de Cauchy con X / Y˜
Cauchy (0,σX / σY). De este modo la distribución de Cauchy es
un tipo especial de distribución cociente.
8. Si
son variables normales estándar independientes,
sigue una distribución χ² con n grados de
entonces
libertad.
9. Si
son variables normales estándar independientes,
entonces la media muestral
y la varianza
muestral
son
independientes. Esta propiedad caracteriza a las distribuciones
normales y contribuye a explicar por qué el test-F no es robusto
respecto a la no-normalidad).
Estandarización de variables aleatorias normales
Como consecuencia de la Propiedad 1, es posible relacionar todas las
variables aleatorias normales con la distribución normal estándar.
Si X ~ N (μ,σ2), entonces
es una variable aleatoria normal estándar: Z ~ N (0,1).
La transformación de una distribución X ~ N (μ, σ) en una N (0, 1) se llama
normalización, estandarización o tipificación de la variable X.
Una consecuencia importante de esto es que la función de distribución de
una distribución normal es, por consiguiente,
A la inversa, si Z es una distribución normal estándar, Z ~ N (0,1), entonces
X = σZ + μ
es una variable aleatoria normal de media μ y varianza σ2.
La distribución normal estándar está tabulada (habitualmente en la forma
del valor de la función de distribución Φ) y las otras distribuciones
normales pueden obtenerse como transformaciones simples, como se
describe más arriba, de la distribución estándar. De este modo se pueden
usar los valores tabulados de la función de distribución normal estándar
para encontrar valores de la función de distribución de cualquier otra
distribución normal.
Uso de tablas
La probabilidad de que una variable aleatoria (que sigue una distribución
normal) se encuentre entre dos valores determinados será en general difícil
de calcular (hay que usar la integral de la función de probabilidad). Para
ello, existen TABLAS CON LOS VALORES CORRESPONDIENTES, si
bien éstos se calculan para la distribución Normal Tipificada.
Básicamente, se busca un valor de x (por ejemplo,
nos da la probabilidad de que
), y la tabla
:
En el caso de que la distribución no sea estándar, por ejemplo,
con
y
, tendremos que tipificar la variable de la siguiente
manera:
Y se obtiene una variable Z normal, que además está tipificada, ahora se
consulta en la tabla,
La tabla
Esta tabla de doble entrada, presenta la probabilidad para Z < x, de la
distribución normal tipificada, para valores de x iguales o mayores que
cero, en la fila superior esta la parte entera de x, y en la columna de la
izquierda los dos primeros decimales, en la casilla donde se cruzan la fila y
la columna correspondientes, figura el valor de la probabilidad de que Z <
x, con seis cifras decimales, separadas de tres en tres por un espacio en
blanco para facilitar la lectura.
Tabla Distribución Normal Tipificada.
Zp
0,00
1,00
2,00
3,00
4,00
0,00
0, 500 000
0, 841 344
0, 977 249
0, 998 650
0, 999 968
0,01
0, 503 989
0, 843 752
0, 977 784
0, 998 693
0, 999 969
0,02
0, 507 978
0, 846 135
0, 978 308
0, 998 736
0, 999 970
0,03
0, 511 966
0, 848 494
0, 978 821
0, 998 777
0, 999 972
0,04
0, 515 953
0, 850 830
0, 979 324
0, 998 817
0, 999 973
0,05
0, 519 938
0, 853 140
0, 979 817
0, 998 855
0, 999 974
0,06
0, 523 922
0, 855 427
0, 980 300
0, 998 893
0, 999 975
0,07
0, 527 903
0, 857 690
0, 980 773
0, 998 929
0, 999 976
0,08
0, 531 881
0, 859 928
0, 981 237
0, 998 964
0, 999 977
0,09
0, 535 856
0, 862 143
0, 981 691
0, 998 999
0, 999 978
0,10
0, 539 827
0, 864 333
0, 982 135
0, 999 032
0, 999 979
0,11
0, 543 795
0, 866 500
0, 982 570
0, 999 064
0, 999 980
0,12
0, 547 758
0, 868 643
0, 982 997
0, 999 095
0, 999 981
0,13
0, 551 716
0, 870 761
0, 983 414
0, 999 125
0, 999 981
0,14
0, 555 670
0, 872 856
0, 983 822
0, 999 155
0, 999 982
0,15
0, 559 617
0, 874 928
0, 984 222
0, 999 183
0, 999 983
0,16
0, 563 559
0, 876 975
0, 984 613
0, 999 211
0, 999 984
0,17
0, 567 494
0, 878 999
0, 984 996
0, 999 237
0, 999 984
0,18
0, 571 423
0, 880 999
0, 985 371
0, 999 263
0, 999 985
0,19
0, 575 345
0, 882 976
0, 985 737
0, 999 288
0, 999 986
0,20
0, 579 259
0, 884 930
0, 986 096
0, 999 312
0, 999 986
0,21
0, 583 166
0, 886 860
0, 986 447
0, 999 336
0, 999 987
0,22
0, 587 064
0, 888 767
0, 986 790
0, 999 358
0, 999 987
0,23
0, 590 954
0, 890 651
0, 987 126
0, 999 380
0, 999 988
0,24
0, 594 834
0, 892 512
0, 987 454
0, 999 402
0, 999 988
0,25
0, 598 706
0, 894 350
0, 987 775
0, 999 422
0, 999 989
0,26
0, 602 568
0, 896 165
0, 988 089
0, 999 442
0, 999 989
0,27
0, 606 419
0, 897 957
0, 988 396
0, 999 462
0, 999 990
0,28
0, 610 261
0, 899 727
0, 988 696
0, 999 480
0, 999 990
0,29
0, 614 091
0, 901 474
0, 988 989
0, 999 499
0, 999 991
0,30
0, 617 911
0, 903 199
0, 989 275
0, 999 516
0, 999 991
0,31
0, 621 719
0, 904 902
0, 989 555
0, 999 533
0, 999 991
0,32
0, 625 515
0, 906 582
0, 989 829
0, 999 549
0, 999 992
0,33
0, 629 299
0, 908 240
0, 990 096
0, 999 565
0, 999 992
0,34
0, 633 071
0, 909 877
0, 990 358
0, 999 581
0, 999 992
0,35
0, 636 830
0, 911 491
0, 990 613
0, 999 595
0, 999 993
0,36
0, 640 576
0, 913 084
0, 990 862
0, 999 610
0, 999 993
0,37
0, 644 308
0, 914 656
0, 991 105
0, 999 624
0, 999 993
0,38
0, 648 027
0, 916 206
0, 991 343
0, 999 637
0, 999 994
0,39
0, 651 731
0, 917 735
0, 991 575
0, 999 650
0, 999 994
0,40
0, 655 421
0, 919 243
0, 991 802
0, 999 663
0, 999 994
0,41
0, 659 096
0, 920 730
0, 992 023
0, 999 675
0, 999 994
0,42
0, 662 757
0, 922 196
0, 992 239
0, 999 686
0, 999 995
0,43
0, 666 402
0, 923 641
0, 992 450
0, 999 698
0, 999 995
0,44
0, 670 031
0, 925 066
0, 992 656
0, 999 709
0, 999 995
0,45
0, 673 644
0, 926 470
0, 992 857
0, 999 719
0, 999 995
0,46
0, 677 241
0, 927 854
0, 993 053
0, 999 729
0, 999 995
0,47
0, 680 822
0, 929 219
0, 993 244
0, 999 739
0, 999 996
0,48
0, 684 386
0, 930 563
0, 993 430
0, 999 749
0, 999 996
0,49
0, 687 933
0, 931 887
0, 993 612
0, 999 758
0, 999 996
0,50
0, 691 462
0, 933 192
0, 993 790
0, 999 767
0, 999 996
0,51
0, 694 974
0, 934 478
0, 993 963
0, 999 775
0, 999 996
0,52
0, 698 468
0, 935 744
0, 994 132
0, 999 784
0, 999 996
0,53
0, 701 944
0, 936 991
0, 994 296
0, 999 792
0, 999 997
0,54
0, 705 401
0, 938 219
0, 994 457
0, 999 799
0, 999 997
0,55
0, 708 840
0, 939 429
0, 994 613
0, 999 807
0, 999 997
0,56
0, 712 260
0, 940 620
0, 994 766
0, 999 814
0, 999 997
0,57
0, 715 661
0, 941 792
0, 994 915
0, 999 821
0, 999 997
0,58
0, 719 042
0, 942 946
0, 995 059
0, 999 828
0, 999 997
0,59
0, 722 404
0, 944 082
0, 995 201
0, 999 834
0, 999 997
0,60
0, 725 746
0, 945 200
0, 995 338
0, 999 840
0, 999 997
0,61
0, 729 069
0, 946 301
0, 995 472
0, 999 846
0, 999 997
0,62
0, 732 371
0, 947 383
0, 995 603
0, 999 852
0, 999 998
0,63
0, 735 652
0, 948 449
0, 995 730
0, 999 858
0, 999 998
0,64
0, 738 913
0, 949 497
0, 995 854
0, 999 863
0, 999 998
0,65
0, 742 153
0, 950 528
0, 995 975
0, 999 868
0, 999 998
0,66
0, 745 373
0, 951 542
0, 996 092
0, 999 873
0, 999 998
0,67
0, 748 571
0, 952 540
0, 996 207
0, 999 878
0, 999 998
0,68
0, 751 747
0, 953 521
0, 996 318
0, 999 883
0, 999 998
0,69
0, 754 902
0, 954 486
0, 996 427
0, 999 887
0, 999 998
0,70
0, 758 036
0, 955 434
0, 996 532
0, 999 892
0, 999 998
0,71
0, 761 148
0, 956 367
0, 996 635
0, 999 896
0, 999 998
0,72
0, 764 237
0, 957 283
0, 996 735
0, 999 900
0, 999 998
0,73
0, 767 304
0, 958 184
0, 996 833
0, 999 904
0, 999 998
0,74
0, 770 350
0, 959 070
0, 996 927
0, 999 907
0, 999 998
0,75
0, 773 372
0, 959 940
0, 997 020
0, 999 911
0, 999 998
0,76
0, 776 372
0, 960 796
0, 997 109
0, 999 915
0, 999 999
0,77
0, 779 350
0, 961 636
0, 997 197
0, 999 918
0, 999 999
0,78
0, 782 304
0, 962 462
0, 997 281
0, 999 921
0, 999 999
0,79
0, 785 236
0, 963 273
0, 997 364
0, 999 924
0, 999 999
0,80
0, 788 144
0, 964 069
0, 997 444
0, 999 927
0, 999 999
0,81
0, 791 029
0, 964 852
0, 997 522
0, 999 930
0, 999 999
0,82
0, 793 892
0, 965 620
0, 997 598
0, 999 933
0, 999 999
0,83
0, 796 730
0, 966 375
0, 997 672
0, 999 935
0, 999 999
0,84
0, 799 545
0, 967 115
0, 997 744
0, 999 938
0, 999 999
0,85
0, 802 337
0, 967 843
0, 997 813
0, 999 940
0, 999 999
0,86
0, 805 105
0, 968 557
0, 997 881
0, 999 943
0, 999 999
0,87
0, 807 849
0, 969 258
0, 997 947
0, 999 945
0, 999 999
0,88
0, 810 570
0, 969 946
0, 998 011
0, 999 947
0, 999 999
0,89
0, 813 267
0, 970 621
0, 998 073
0, 999 949
0, 999 999
0,90
0, 815 939
0, 971 283
0, 998 134
0, 999 951
0, 999 999
0,91
0, 818 588
0, 971 933
0, 998 192
0, 999 953
0, 999 999
0,92
0, 821 213
0, 972 571
0, 998 249
0, 999 955
0, 999 999
0,93
0, 823 814
0, 973 196
0, 998 305
0, 999 957
0, 999 999
0,94
0, 826 391
0, 973 810
0, 998 358
0, 999 959
0, 999 999
0,95
0, 828 943
0, 974 412
0, 998 411
0, 999 960
0, 999 999
0,96
0, 831 472
0, 975 002
0, 998 461
0, 999 962
0, 999 999
0,97
0, 833 976
0, 975 580
0, 998 510
0, 999 964
0, 999 999
0,98
0, 836 456
0, 976 148
0, 998 558
0, 999 965
0, 999 999
0,99
0, 838 912
0, 976 704
0, 998 605
0, 999 966
0, 999 999
Ejemplo:
Buscar la probabilidad normal tipificada de que Z < 2,04.
En la columna del 2 y la fila del 0,04, esta el valor 0,979 324, esto es:
Para otros valores
En la tabla anterior se pueden buscar los valores de la probabilidad normal
tipificada:
para valores de x mayores o iguales a cero, como el ejemplo anterior, hay
más casos, que con los datos de la tabla se pueden resolver.
Para x < 0
Para hacer este cálculo hay que tener en cuenta lo siguiente:
sabiendo que la suma de la probabilidad de que Z sea menor que un valor,
más la probabilidad de que sea mayor que ese valor es uno:
despejando:
Y sabiendo que la función normal tipificada es simétrica respecto al eje x =
0:
y sustituyendo, tenemos que:
Donde el valor:
se busca en la tabla.
Ejemplo
Cual es la probabilidad: P(Z(0,1) < − 1,32)
los valores negativos no vienen en la tabla, pero según lo anterior:
según la tabla:
por tanto:
que resulta:
Probabilidad de Z > x y x > 0
Como en el caso anterior partimos de:
despejando:
y el valor:
se busca en la tabla.
Ejemplo
Cual es la probabilidad: P(Z(0,1) > 2,11)
según el calculo anterior:
de la tabla tenemos:
lo que resulta:
que resulta:
Probabilidad de Z > x y x < 0
Para calcular:
Partimos de la simetría de la función normal tipificada:
y sustituyendo:
resulta:
ordenando
Ejemplo
Cual es la probabilidad: P(Z(0,1) > − 2,02)
Según lo anterior:
buscando el valor en la tabla, tenemos que:
Probabilidad de x1 < Z < x2
Para calcular la probabilidad de que la variable se encuentre entre dos
valores x1 y x2, siendo x1 < x2 se tiene en cuenta que:
los valores de cada una de estas probabilidades se buscan en la tabla por
separado, o se calculan según el caso, por los métodos anteriores.
Ejemplo
Cual es la probabilidad: P(1,50 < Z(0,1) < 2,00)
se buscan en la tabla las probabilidades:
Luego, según lo anterior:
esto es:
Realizando la operación:
AUTOEVALUACION
Distribución Binomial
1. Un agente de seguros contrata 5 pólizas con personas de la
misma edad y de buena salud. Según las tablas en uso, la
probabilidad de que una persona de esa edad esté viva dentro
de 30 años es 2/3. Hallar la probabilidad de que dentro de 30
años vivan:
 Las 5 personas
 Al menos 4
 A lo sumo una
 No menos de una
2. Calcular, para una distribución binomial en la que p= 0,7 y N
= 60:
 La media
 La desviación típica
 El coeficiente momento de sesgo
 El coeficiente momento de curtosis
3. Si
el 20% de las MEMORY CARD SCPH-1020 para
PlayStation
ensambladas
por
SONY
son
defectuosas,
determinar la probabilidad de que, entre cuatro memorias
escogidas al azar:
 tres sean defectuosas
 Ninguna sea defectuosa
 Al menos dos sean defectuosas
 Una sea sin defectos
 A lo sumo tres funcionen correctamente
Distribución de Poisson
1. Si el 3% de las válvulas manufacturadas por una compañía son
defectuosas, hallar la probabilidad de que en una muestra de 100
válvulas 5 sean defectuosas.
2. Entre las 2 PM y las 4 PM el número promedio de llamadas
telefónicas por minuto que recibe una centralista es 2,5. hallar la
probabilidad de que en un minuto cualquiera se produzcan menos de
2 llamadas.
3. Si la probabilidad de que un equipo de computación sufra un nuevo
ataque por el virus informático alphamiubeta (una variante Z del
gusano Blaster), luego de instalarle determinado programa antivirus
es 0,001. Hallar la probabilidad de que entre 2000 equipos con dicho
programa instalado por lo menos dos de ellos “sufran tal infección”.
Distribución Normal
1. Hallar el area ubicada bajo la curva normal y entre los valores
de Z señalados:
 Z = 0 y Z = 1,23
 Z = -1,45 y Z = 0
 Z = -0,89 y Z = 1,39
 Z = 1,06 y Z = 1,94
 Z = -2,96 y Z = -2,54
 A la izquierda de Z = - 0,67
 A la derecha de Z = - 1,28
2. Si los diámetros de las bolas de cojinetes están normalmente
distribuidas con media de 0,6140 pulgadas y desviación típica
de 0,0025. determine el porcentaje de ellas con diámetros:
 Entre 0,610 y 0,618; ambos inclusive
 Mayores que 0,617
 Menores que 0,608
Distribución híper geométrica
En Estadística la Distribución híper geométrica es una distribución de
probabilidad discreta con tres parámetros discretos N, d y n cuya función de
probabilidad es:
N = Tamaño de población.
n = Tamaño de muestra.
d = Cantidad de elementos que cumple característica deseada.
x = Cantidad de éxitos.
Aquí,
se refiere al coeficiente binomial, o al número de combinaciones
posibles al seleccionar b elementos de un total a.
Esta distribución se refiere a un espacio muestral donde hay elementos de 2
tipos posibles. Indica la probabilidad de obtener un número de objetos x de
uno de los tipos, al extraer (sin reemplazo) una muestra de tamaño n, de un
total de N objetos, de los cuales d son del tipo requerido.
El valor esperado de una variable aleatoria X de distribución híper
geométrica es
Y su varianza
Llamando
,
entonces:
La distribución híper geométrica se puede aproximar por una distribución
binomial Bi (n,p) si
y
Una variable tiene distribución hipergeométrica si procede de un
experimento que cumple las siguientes condiciones:
1)
Se toma una muestra de tamaño n, sin reemplazamiento, de un
conjunto finito de N objetos.
2)
K de los N objetos se pueden clasificar como ‚éxitos y N - K como
fracasos.
X cuenta el número de éxitos obtenidos en la muestra. El espacio
muestral es el conjunto de los números enteros de 0 a n, ó de 0 a K si
K < n.
En este caso, la probabilidad del éxito en pruebas sucesivas no es
constante pues depende del resultado de las pruebas anteriores. Por tanto, las
pruebas no son independientes entre sí.
Parámetros
Dominio
Función de
probabilidad (fp)
Media
Moda
Varianza
Coeficiente de
simetría
Curtosis
Función
generadora de
momentos (mgf)
Función
característica
Distribución multinomial
La distribución multinomial es esencialmente igual a la
binomial con la única diferencia de que cada prueba tiene más de
dos posibles resultados mutuamente excluyentes.
Si tenemos K resultados posibles (Ei , i = 1, ... , K) con
probabilidades fijas (pi , i = 1, ... , K), la variable que expresa el
número de resultados de cada tipo obtenidos en n pruebas
independientes tiene distribución multinomial.
La probabilidad de obtener x1 resultados E1, x2
resultados E2, etc. se representa como:
Los parámetros de la distribución son p1,..., pK y n.
Distribución exponencial
La distribución exponencial es una distribución de probabilidad continua
con un parámetro λ > 0 cuya función de densidad es
-Su función de distribución es
Aquí e significa el número e.
El valor esperado y la varianza de una variable aleatoria X con
distribución exponencial son
Función
Función
de
de
densidad
distribución
de
de
probabilidad
probabilidad
Parámetros
Dominio
Función de densidad (pdf)
λe − λx
Función de distribución (cdf)
1 − e − λx
Media
Mediana
Moda
Varianza
Coeficiente de simetría
Curtosis
Entropía
Función generadora de momentos (mgf)
Función característica
AUTOEVALUACION
Distribución multinomial
1. Se lanza un dado 6 veces. Hallar la probabilidad de que: a) salga
uno una vez, dos veces el dos y tres veces tres; b) que salga cada
numero una vez.
2. una caja contiene 5 bolas de color rojo, 4 de color blanco y tres
de color azul. Se saca al azar una bola de la caja, se anota su
color y se vuelve a colocar en la caja. Hallar la probabilidad de
que entre seis bolas asi seleccionadas, 3 sea de color rojo, 2 de
color blanco y 1 azul.
6.8.4.1 Ejemplo
En un experimento de laboratorio se utilizan 10 gramos de
. Sabiendo
que la duración media de un átomo de esta materia es de 140 días, ¿cuantos
idas transcurrirán hasta que haya desaparecido el
de este material?
Solución: El tiempo T de desintegración de un átomo de
de distribución exponencial:
Como el número de átomos de
es una v.a.
existentes en una muestra de 10
gramos es enorme, el histograma de frecuencias relativas formado por los
tiempos de desintegración de cada uno de estos átomos debe ser
extremadamente aproximado a la curva de densidad, f. Del mismo modo, el
polígono de frecuencias relativas acumuladas debe ser muy aproximado a
la curva de su función de distribución F. Entonces el tiempo que transcurre
hasta que el
del material radiactivo se desintegra es el percentil 90, t90,
de la distribución exponencial, es decir
Figura: Como el número de átomos (observaciones) es extremadamente alto en
10 gramos de materia, el histograma puede ser aproximado de modo excelente por
la función de densidad exponencial, y el polígono de frecuencias acumuladas por la
función de distribución.
6.8.4.2 Ejemplo
Se ha comprobado que el tiempo de vida de cierto tipo de marcapasos sigue
una distribución exponencial con media de 16 años. ¿Cuál es la
probabilidad de que a una persona a la que se le ha implantado este
marcapasos se le deba reimplantar otro antes de 20 años? Si el marcapasos
lleva funcionando correctamente 5 años en un paciente, ¿cuál es la
probabilidad de que haya que cambiarlo antes de
años?
Solución: Sea T la variable aleatoria que mide la duración de un
marcapasos en una persona. Tenemos que
Entonces
En segundo lugar
Luego como era de esperar, por ser propio a un mecanismo exponencial,
o sea, en la duración que se espera que tenga el objeto, no influye en nada
el tiempo que en la actualidad lleva funcionando. Es por ello que se dice
que ``la distribución exponencial no tiene memoria".
4) DISTRIBUCIÓN HIPERGEOMETRICA GENERALIZADA.
Características:
a) Al realizar un experimento con este tipo de distribución, se esperan más
de dos tipos de resultados.
b) Las probabilidades asociadas a cada uno de estos resultados no son
constantes.
c) Los ensayos o repeticiones del experimento no son independientes entre
sí.
d) El número de repeticiones del experimento n, es constante.
Entonces en este caso se tienen más de dos tipos de objetos, por lo que la
fórmula a utilizar sería:
donde:
N = x + y + z = total de objetos
a = total de objetos del primer tipo
b = total de objetos del segundo tipo
c = N-a-b = total de objetos del tercer tipo
n = objetos seleccionados en la muestra
x = objetos del primer tipo en la muestra
y = objetos del segundo tipo en la muestra
z = n-x-y = objetos del tercer tipo en la muestra
Ejemplos:
1.En un lote de productos se tienen 20 productos sin defectos, 3 con
defectos menores y 2 con defectos mayores, se seleccionan al azar 5
productos de este lote, determine la probabilidad de que a) 3 de los
productos seleccionados no tengan defectos y 1 tenga defectos menores, b)
4 de los productos seleccionados no tengan defectos y 1 tenga defectos
menores.
Solución:
a)N= 20+3+2 =25 total de artículos
a=20 productos sin defectos
b= 3 productos con defectos menores
N-a-b= 2 productos con defectos mayores
n= 5 productos seleccionados en la muestra
x = 3 productos sin defectos en la muestra = variable que nos define el # de
productos sin defectos en la muestra
y = 1 producto con defectos menores en la muestra = variable que nos
define el # de productos con defectos menores en la muestra
z = n-x-y = 5–3−1 = 1 producto con defectos mayores en la muestra =
variable que nos define el # de productos con defectos mayores en la
muestra
b)N= 25
a=20 productos sin defectos
b= 3 productos con defectos menores
N-a-b= 2 productos con defectos mayores
n= 5 productos seleccionados en la muestra
x = 4 productos sin defectos en la muestra = variable que nos define el # de
productos sin defectos en la muestra
y = 1 producto con defectos menores en la muestra = variable que nos
define el # de productos con defectos menores en la muestra
z = n-x-y = 5–4−1 = 0 productos con defectos mayores en la muestra =
variable que nos define el # de productos con defectos mayores en la
muestra
3.Un club de estudiantes extranjeros tiene en sus listas a 2 canadienses, 3
japoneses, 5 italianos y 2 alemanes. Si se selecciona aleatoriamente un
comité de 4 estudiantes, encuentre la probabilidad de que: a)estén
representadas todas las nacionalidades, b)estén representadas todas las
nacionalidades, excepto la italiana.
Solución:
a) N = 12 estudiantes
a = 2 Canadienses
b = 3 Japoneses
c = 5 Italianos
N-a-b-c = 2 Alemanes
n = 4 estudiantes seleccionados para formar comité
x = 1 estudiante Canadiense en el comité seleccionado
y = 1 estudiante Japonés en el comité seleccionado
z = 1 estudiante Italiano en el comité seleccionado
n-x-y-z = 1 estudiante Alemán en el comité seleccionado
b) N = 7 estudiantes quitando a los Italianos
a = 2 Canadienses
b = 3 Japoneses
N-a-b = 2 Alemanes
n = 4 estudiantes seleccionados para formar comité
x = 1 o 2 estudiantes Canadienses en el comité seleccionado
y = 1 o 2 estudiantes Japoneses en el comité seleccionado
n-x-y= 1 o 2 estudiantes Alemanes en el comité seleccionado
p(estén representadas todas las nacionalidades, excepto la italiana)
Distribución hipergeométrica
Por claridad, consideremos el siguiente ejemplo: Tenemos una baraja de
cartas españolas (N=40 naipes), de las cuales nos vamos a interesar en el
palo de oros (D=10 naipes de un mismo tipo). Supongamos que de esa
baraja extraemos n=8 cartas de una vez (sin reemplazamiento) y se nos
plantea el problema de calcular la probabilidad de que hayan k=2 oros
(exactamente) en esa extracción. La respuesta a este problema es
En lugar de usar como dato D es posible que tengamos la proporción
existente, p, entre el número total de oros y el número de cartas de la baraja
de modo que podemos decir que:
Este ejemplo sirve para representar el tipo de fenómenos que siguen una
ley de distribución hipergeométrica. Diremos en general que una v.a. X
sigue una distribución hipergeométrica de parámetros, N, n y p, lo que
representamos del modo, si su función de probabilidad es
6.4.10.1 Observación
Cuando el tamaño de la población (N) es muy grande, la ley
hipergeométrica tiende a aproximarse a la binomial:
El valor esperado de la hipergeométrica es el mismo que el de la binomial,
sin embargo su varianza no es exactamente la de la binomial, pues está
corregida por un factor, , que tiende a 1 cuando . A este factor se le
denomina factor de corrección para población finita.
Descargar