Formulario Estadı́stica de Relaciones Laborales • Mediana (caso continuo): M e = ei−1 + • Moda (caso continuo): M o = ei−1 + k X • Media (caso continuo): x̄ = (hi − hi−1 ) (ei − ei−1 ). (hi − hi+1 ) + (hi − hi−1 ) fi xi = i=1 • Percentil: Pα = ei−1 + (N/2 − Ni−1 ) ai . (Ni − Ni−1 ) k 1 X ni xi . N i=1 α 100 − Ni−1 ) (N ai . (Ni − Ni−1 ) • Percentil inverso: y −1 = Ni−1 + • Varianza: V ar(x) = σ 2 = k X (x − ei−1 )(Ni − Ni−1 ) . ai fi (xi − x̄)2 = k X ni x2 i i=1 s • Desviación tı́pica: σ = k P N i=1 fi (xi − x̄)2 = √ − x̄2 . σ2 . i=1 • Coeficiente de variación: C.V. = σ |x̄| . k P • Momento de orden h respecto al origen: ah = i=1 • Momento centrado de orden h: mh = k P i=1 k−1 X • Índice de Gini: Ig = k−1 X (Fi − qi ) i=1 k−1 X ni N (xi =1− Fi i=1 i=1 k−1 X ni h N xi . − x̄)h . qi i donde qi = Fi X Ti yTi = nj xj . T j=1 i=1 • Independencia: X e Y son independientes =⇒ fi/j = fi• ∀ i. Es decir, X e Y son independientes si y n n solamente si nij = i•N •j . • Covarianza: q p X X fij xi yj − x̄ȳ. i=1 j=1 • Estadı́stico de la χ2 : χ2 = X (tij − nij )2 ni• n•j . con tij = tij N i,j • Recta de Y sobre X (Y /X): Y = a + bX: Cov(XY ) V ar(X) b= a = ȳ − bx̄. • Recta de X sobre Y (X/Y ): X = a0 + b0 Y : b0 = Cov(XY ) V ar(Y ) • Coeficiente de correlación lineal de Pearson: r = √ • Coeficiente de determinación: R2 = VE V (Y ) = a0 = x̄ − b0 ȳ. Cov(XY ) √ V ar(X) P fij (ŷi −ȳ)2 P ij 2 f ij ij (yj −ȳ) V ar(y) = V (Y )−V R V (Y ) con − 1 < r < 1. = 1− VR V (Y ) R2 ∈ [0, 1]. En el caso lineal R2 = r2 . • Índice elemental de la magnitud X en el periodo t respecto del 0: It/0 (x) = xt x0 . • Propiedad circular de los ı́ndices: Sea t0 un instante dado, t el periodo corriente y 0 el periodo base, se I verifica que: It/t0 = I t/0 ⇔ It/0 = It/t0 It0 /0 . 0 t /0 • Índice de Laspeyres de Precios: L1/0 (P ) = P P pi1 qi0 . pi0 qi0 • Índice de Laspeyres de Cantidades: L1/0 (Q) = P P pi0 qi1 . pi0 qi0 P P pi1 qi1 . pi0 qi1 P qi1 . P1/0 (Q) = P ppi1 i1 qi0 • Índice de Paasche de Precios: P1/0 (P ) = • Índice de Paasche de Cantidades: • Probabilidad: – Leyes de Morgan: A ∪ B = Ā ∩ B̄ y A ∩ B = Ā ∪ B̄ – Si A ∈ A, entonces P (A) = 1 − P (Ā) – La probabilidad del conjunto vacı́o es 0, P (∅) = 0. – Sean A y B ∈ A, entonces P (A ∪ B) = P (A) + P (B) − P (A ∩ B) – Regla de Laplace: P (A) = casos favorables . casos posibles – Dado un suceso B con probabilidad no nula, se llama probabilidad de A condicionado a B a la probabilidad de que ocurra A sabiendo que ha ocurrido B, y se calcula como: P (A/B) = P P(A∩B) (B) . Pn – Teorema de la probabilidad total: en las condiciones del teorema se verifica que P (B) = i=1 P (B/Ai )P (Ai ). – Teorema de Bayes: en las condiciones del teorema se verifica que P (Ai /B) = PnP (Ai )P (B/Ai ) . j=1 P (Aj )P (B/Aj ) • Variable Aleatoria: ∞ P – Esperanza matemática: E[X] = xi pi i=1 h 2 i – Varianza V ar(X) = E X − E[X] = E[X 2 ] − E[X]2 • Distribuciones: Bernoilli(p); P [exito] = p y P [f racaso] = q = 1 − p n n! px (1 − p)n−x x = – Distribución binomial: X B(n, p), P [X = x] = px (1 − p)x = x!(n−x)! x 0, 1, . . . , n. Propiedades: µ = E[X] = np; σ 2 = V ar[X] = npq x P k – Distribución de Poisson: X P (λ), P [X ≤ x] = e−λ λk! . Propiedades µ = E[X] = λ; – Distribución de Bernoilli: X k=1 σ 2 = V ar[X] = λ. – Normal: X N (µ, σ) si y solamente si su función de densidad es: f (x/µ, σ) = A la variable Z = X−µ σ , la cuál es Z √1 2πσ h exp − 12 x−µ 2 σ N (0, 1) se le denomina Normal tipificada. • Aproximaciones: 1. Aproximación de una distribución Binomial mediante una distribución de Poisson: sea X B(n, p) verificando que np < 5 o que n > 50 y p < 0.1; se puede realizar la siguiente aproximación B(n, p) ' P (λ = np). 2. Aproximación de una distribución Binomial mediante una distribución Normal: sea X B(n, p) cuando np > 5 y p > 0.1 o np > 5 y n < 50; se puede realizar la siguiente aproximación √ B(n, p) ' N np; npq . En este caso para calcular probabilidades puntuales hay que realizar una corrección por continuidad. • Estadı́sticos de contraste: 1. Sea X una v.a. proveniente de una población normal de media µ y varianza σ 2 , es decir, X N (µ, σ), en donde tomamos una muestra aleatoria simple x1 , . . . , xn ; (a) x̄ N µ; √σn x̄ − µ (b) T = √ tn−1 s/ n (n − 1)s2 nσ̂ 2 (c) = χ2n−1 σ2 σ2 n (x − µ)2 P i (d) χ2n σ2 i=1 2. Sea X proveniente de una población binomial, X B(n, p), con p desconocido, y sea un muestreo aleatorio simple x1 , . . . , xn , tal que la proporción p̂ de la muestra será p̂ = nx con x el numero de éxitos en la muestra, de tal manera que: x p̂ = n r pq N p; n i .