1 BIOESTADÍSTICA: ASPECTOS BÁSICOS Aunque cueste reconocerlo por parte de los consumidores de investigación, los errores en estadística son bastante frecuentes y muchos creen que hasta un 50% de los artículos publicados tienen debilidades estadísticas. El pensamiento estadístico es probabilístico. En las últimas décadas el uso de la estadística en revistas médicas ha aumentado en cantidad y sofisticación. El mejor acceso a los paquetes estadísticos aumenta el riego de que se realice una ciencia de mala calidad debido a la ausencia de hipótesis previas, la realización de excesivos análisis, el riesgo de fallos o errores en los paquetes estadísticos así como por no revisar atentamente los datos crudos. En cualquier caso, hay que tener presente que no se puede confundir ASOCIACIÓN con CAUSALIDAD. Las técnicas estadísticas nos facilitarán la evidencia de que existe una relación a través de los tests de significación y de las medidas de fuerza de esa asociación, pero sólo la base teórica y la lógica de la investigación le pueden dar sentido. Aunque se cree que “se puede probar cualquier cosa con la estadística”, es más realista decir que sólo con la estadística no se puede establecer nada. La Estadística es el conjunto de métodos necesarios para recoger, clasificar, representar y resumir datos (Estadística descriptiva), así como para extraer consecuencias científicas a partir de ellos (Estadística inferencial o analítica). CONCEPTOS GENERALES Población: Es el conjunto completo de individuos o unidades estadísticas (poseedores de una serie de caracteres) a los cuales se van a referir las conclusiones de un determinado estudio. Dado que las poblaciones que interesan al investigador son muy extensas, y por tanto es 2 imposible estudiarlas de forma completa, se va a trabajar con subconjuntos de esa población o muestras. Las técnicas estadísticas nos permiten inferir las características y relaciones existentes en la población analizando dichos aspectos en una muestra representativa (si se ha obtenido aleatoriamente). Por lo tanto, existe una única población e infinidad de muestras representativas. Parámetro: Es el valor real de cualquier característica de una población (por ejemplo el peso medio de la población de la Comunidad de Madrid, o el porcentaje de diabéticos en la población española). Cada parámetro (poblacional) puede ser estimado a partir de los datos extraídos de una muestra representativa mediante la utilización de una fórmula (una función) en la que entran esos datos obtenidos. A esa función se le denomina estadístico. Usando ese estadístico obtendremos un valor, o estimación del parámetro poblacional. P. ej: Imaginemos que conociéramos con exactitud el peso medio de la población de la CAM, que sería m = 77,4 Kg. y que extrayendo una muestra representativa de 500 personas hubiéramos sumado todos los pesos y el resultado de la suma lo hubiésemos dividido entre 500, habiendo obtenido un peso medio de m = 76,6 Kg. El valor 77,4 es el parámetro, la operación realizada con los datos observados en la muestra sería el estadístico media y el valor 76,6 es la estimación de aquel parámetro. La media de la población (parámetro) es la verdadera y tiene un único valor (m = 77,4 Kg.), mientras que al aplicar el estadístico m a cada muestra obtendremos un valor diferente). La fluctuación de las estimaciones obtenidas en torno al verdadero valor del parámetro serán tanto menores cuanto mayor sea el tamaño de las muestras. Es costumbre utilizar letras griegas para designar los parámetros poblacionales y letras latinas en el caso de las estimaciones muestrales. Variable: Se refiere a cada uno de los caracteres o aspectos que se registran en una muestra de individuos (por ejemplo la raza, la edad, el sexo, el nivel de glucemia, etc...). Cada individuo presenta una y sólo una de las posibles modalidades de ese carácter. Las variables pueden ser: 1. CUALITATIVAS O CATEGÓRICAS: Si sus modalidades no son medibles: a. Escala Nominal: No hay un orden entre las categorías: Binarias o Dicotómicas: Sólo constan de dos categorías (sexo: masculino/ femenino; afectación hepática: si/ no). Más de dos categorías: Grupo sanguíneo: A, B, O, AB. b. Escala ordinal: Las categorías son susceptibles de ordenación ascendente o descendente (afectación hepática: nula/leve /moderada/ grave). 3 CUANTITATIVAS: Si sus modalidades son medibles (datos métricos): 1. Discreta: No puede tomar cualquier valor entre dos valores dados (nº de hijos, nº de partos). 2. Continua: Puede tomar cualquier valor dentro de un intervalo (estatura, colesterolemia). Una serie de observaciones sólo queda perfectamente definida si se dan sus valores originales (datos continuos) ó su distribución de frecuencias con clases sin agrupar (datos cualitativos o discretos), pero puede ser resumida correctamente mediante una serie de medidas llamadas genéricamente medidas de una distribución de frecuencias, que son las medidas de posición y las medidas de dispersión; las cuales estudiaremos a continuación... MEDIDAS DE TENDENCIA CENTRAL O DE CENTRALIZACIÓN Son las medidas de posición más usuales y aluden a un número “central” que intenta representar a toda la muestra (“¿alrededor de que valor se encuentran los datos de mi distribución?”). Dentro de ellas tenemos: MEDIA: Existen varios tipos de media, pero cuando se habla de media sin más, nos estamos refiriendo a la media aritmética, que es igual a la suma de las observaciones dividida entre el número de observaciones. La media es sensible a las desviaciones y a los valores extremos ya que usa todos los valores en su cálculo. Sólo es una buena medida de tendencia central para las distribuciones simétricas. Es útil para datos como frecuencia cardíaca o tensión arterial, pero no para escalas como Apgar, Glasgow etc. Donde: x= media xi = elemento iésimo f i = frecuencia de aparición del elemento iésimo n = número de elementos MEDIA GEOMÉTRICA: La media geométrica G de un conjunto de números x 1, x 2,..., xn que se presentan con frecuencias f1, f2,..., fn, respectivamente será: 4 MEDIA CUADRÁTICA: La media cuadrática Q de un conjunto de números x1, x2,..., xn que se presentan con frecuencias f1, f2,..., fn, respectivamente será: MEDIDAS DE TENDENCIA CENTRAL O DE CENTRALIZACIÓN MEDIANA: La mediana de un conjunto de datos ordenados es un número (perteneciente o no a la muestra) que ocupa el valor medio de la distribución estadística. Por tanto, deja el 50% de las observaciones de la muestra por debajo y el 50% por encima. MODA: Llamamos moda de una distribución, al valor dentro del conjunto de datos que se presenta con mayor frecuencia. Es útil para describir datos nominales. RESTO DE MEDIDAS DE POSICIÓN: Análogamente a la mediana (que divide la distribución en dos partes iguales), existen otras medidas de posición genéricamente llamadas cuartiles. Las más utilizadas son los cuartiles y los percentiles. Consideraciones acerca de las medidas de posición La media aritmética es la medida de posición más utilizada ya que se basa en el total de las observaciones y matemáticamente es de fácil manejo. Su desventaja es que resulta muy influida por los valores extremos, y por ello se emplea preferentemente en distribuciones simétricas. La media geométrica es muy utilizada en microbiología y serología (a la hora de expresar titulaciones). La mediana es preferida cuando la distribución de los datos es asimétrica (y por tanto los valores extremos distorsionan el valor de la media). Como desventaja respecto de la media, pierde información, ya que no tiene en cuenta la magnitud exacta de la mayoría de las observaciones. Además no es tan manejable desde el punto de vista matemático, con vistas a la estadística analítica. La moda interesa cuando queremos estimar de forma rápida y no muy precisa una medida de tendencia central. Al igual que la mediana no se ve afectada por los valores extremos y es poco susceptible de manejo matemático 5 Aplicabilidad de las medidas de tendencia central MEDIDAS DE DISPERSIÓN Las medidas de posición nos informan acerca de cuáles son los valores de la muestra, pero no nos dicen nada de cómo son de diferentes esos datos. Si las medidas de centralización sirven para hallar un dato “central” alrededor del cual se distribuye la muestra, las medidas de dispersión nos contestan a la pregunta: “¿cómo se distribuyen esos datos alrededor del “central”?; ¿se encuentran muy agrupados, o muy dispersos?”. Estudiaremos: a. Rango, amplitud o recorrido: Diferencia entre los valores más grande y más pequeño de la muestra. Tiene la ventaja de expresarse en las mismas unidades de los datos y ser fácil de calcular. Sus desventajas son que sólo utiliza para su cálculo dos elementos de la muestra (y además los extremos), y que aumenta con el tamaño muestral. El uso de la amplitud es restringido, utilizándose cuando se desea una medida rápida de la dispersión de la muestra. Es la medida de dispersión que debe acompañar a la moda, en las escasas ocasiones en que ésta sea la medida de posición utilizada. b. Rango intercuartílico: Diferencia entre los cuartiles tercero y primero. Al igual que la anterior se emplea con fines meramente descriptivos. Se sugiere su uso para describir la variabilidad de los datos que no cumplen los estándares de análisis paramétrico como las escalas de datos ordinales y es la medida de dispersión adecuada cuando se utiliza la mediana como medida de posición. c. Desviación típica (o estándar): Raíz cuadrada de la media de los cuadrados de las desviaciones con respecto a la media de la distribución. 6 Se trata de la medida de dispersión más utilizada en la literatura científica, y es de elección cuando usamos la media como medida de posición. El 68'26% de los datos de una población con distribución normal caen dentro de más o menos una desviación estándar de la media y 95.44% de los puntos caen dentro del valor de la media más o menos 2 desviaciones estándar. En una distribución normal la desviación estándar no debería ser mayor que la mitad de la media (ya que esto es un dato de normalidad de la distribución). Es la medida de dispersión que posee más estabilidad frente a las fluctuaciones de la muestra tomada. Deberá hallarse cuando posteriormente haya que calcular otras medidas, sobre todo relacionadas con la inferencia estadística. Se basa en todos los valores de la variable, atendiendo a su magnitud y a su signo y se mide en las mismas unidades de la variable. La varianza (s2) es el cuadrado de la desviación estándar y constituye otra medida de dispersión, cuya desventaja respecto a la anterior es que se mide en unidades al cuadrado. d. Error estándar de la media: Es un estadístico derivado de la desviación estándar y se calcula como De manera que el EEM siempre va a ser más pequeño que la desviación estándar, y cuanto mayor sea n, menor será el EEM. El EEM se usa para estimar la precisión o fiabilidad de una muestra. No informa sobre la dispersión de una muestra. Es útil porque se utiliza para calcular los intervalos de confianza. Evalúa la precisión con que una muestra representa a la población original. e. Coeficiente de variación: La desviación estándar de un conjunto de mediciones se expresa con las mismas unidades que estas medidas. A veces puede ser útil describir la variabilidad expresando la desviación estándar como un porcentaje de su media. Por ejemplo, ¿qué implica mayor dispersión, 2 metros respecto de una media de 366m, ó 0,3mm respecto de una media de 1,5mm? Estamos ante 7 el coeficiente de variación, es decir, la desviación estándar medida en unidades de su media: DISTRIBUCIONES DE PROBABILIDAD Siempre que hablemos de probabilidad entenderemos por tal el límite teórico de las frecuencias relativas de un suceso cuando el número de pruebas o ensayos es infinito. La gran mayoría de los fenómenos de la naturaleza siguen exacta o aproximadamente unas pocas leyes bien conocidas que son las leyes o distribuciones de probabilidad teóricas. Las tres más importantes son la binomial, la de Poisson (ambas para variables discretas), y la Normal (para continuas). Distribución Binomial La Distribución Binomial es aquella en la que un cierto suceso sólo admite dos resultados posibles (éxito-fracaso, masculino-femenino..). Además, la probabilidad de éxito (p) y la de fracaso (q=1-p), se mantienen constantes a lo largo de todas las pruebas. Por último ha de cumplirse que todos los sucesos sean independientes entre sí, y por tanto que el resultado de cada uno de ellos no dependa de los resultados anteriores. Sea un experimento para el que únicamente se pueden presentar los sucesos A (éxito) y B = no A (fracaso), siendo p(A)= p y p(B)= q , con p+q =1. Por ej: lanzar 20 veces una moneda al aire y averiguar la probabilidad de obtener 3 caras. Se realizan n pruebas de ese experimento y queremos saber la probabilidad de obtener r éxitos en esas n pruebas. Este problema se resuelve con: siendo: p(r)= probabilidad de obtener r éxitos (que aparezca r veces el suceso A) =número combinatorio “n sobre r”, que se calcula mediante la fórmula donde n!=n.(n-1).(n-2)...3.2.1 La distribución Binomial se caracteriza por los valores n y p , que son los parámetros de la distribución. Se demuestra que la media o esperanza matemática) y la desviación estándar de la distribución son: 8 Media: Desviación estándar: Distribución De Poisson Se puede considerar como un caso límite de la binomial en la cual n es muy grande y p muy pequeño. Pero además de su utilidad como caso particular de la Binomial también tiene interés cuando sucesos iguales ocurren aleatoriamente a lo largo del tiempo o cuando pequeñas partículas se distribuyen de forma aleatoria en el espacio. La ley de poisson depende del parámetro l=n.p, da la probabilidad p(0), p(1), p(2)...etc de hallar en muestras de tamaño n un numero r de sujetos con igual característica. Se demuestra que la probabilidad de encontrar aproximadamente r sujetos con la misma característica es: siendo e=2,7182...(la base del logaritmo natural) La esperanza matemática y la varianza son: Sea por ejemplo, una población con una prevalencia de diabetes del 2%. La probabilidad de encontrar 0, 1, 2, 3,... etc diabéticos en una muestra aleatoria de 100 sujetos viene dada de forma exacta por la ley Binomial B(100;0,02), pero también se puede calcular con mucha aproximación, mediante la ley de Poisson p(2), ya que p es pequeño y n grande (n*p=100*0,02=2). Distribución Normal O de Gauss La distribución Normal es la distribución continua más importante en la teoría y en la práctica estadísticas. Una gran mayoría de las variables aleatorias de la naturaleza la siguen. Las propiedades más importantes de la curva (que tiene forma de campana, campana de Gauss), son: La curva Normal es simétrica con respecto a la ordenada de la media. En ese punto la media presenta la ordenada máxima. Las tres medidas importantes de tendencia central (media, mediana y moda) coinciden en el mismo punto de esa curva. 9 La curva normal es asintótica con el eje de abscisas, es decir las ramas son casi tangentes (lo son en el infinito) con el eje de abscisas. La curva es simétrica y mesocúrtica. El área encerrada por la curva vale 1. Entre –s y +s se halla comprendido el 68,27% del área. Entre –2s y +2s, se encuentra el 95,45% y entre –3s y +3s el 99,73% del área total (siendo s la desviación estándar de la distribución). Por último, decir que si en una distribución Binomial la n es grande, aproximadamente se distribuirá como una Normal. Dado que la de Poisson es un caso particular de la Binomial, también se podrá aproximar a una Normal. ESTIMACIÓN Y CONTRASTE DE HIPÓTESIS Hay dos amplias categorías en la inferencia estadística: la estimación y los contrastes de hipótesis. La teoría de la estimación sirve para determinar el valor de los parámetros poblacionales en base al de los parámetros muestrales. Por su parte, el contraste de hipótesis es un conjunto de reglas tendentes a decidir cuál de dos hipótesis (hipótesis nula o hipótesis alternativa) debe aceptarse en torno al resultado obtenido en una muestra. A un estadístico empleado para aproximar o estimar un parámetro de la población e se le llama estimador puntual de e y se denota por ê. Una vez que la muestra ha sido tomada y se han hecho algunas observaciones se puede obtener el valor numérico del estadístico ê (sea la media, desviación estándar,..), que se conoce como estimación puntual. Pero además de la estimación puntual obtenemos un intervalo de confianza, es decir un intervalo numérico hallado a partir de la muestra que con un alto nivel de seguridad contiene el verdadero valor del parámetro poblacional. 10 En general, en estadística se dice que unos valores o resultados tienen significación o son significativos cuando son poco probables y, por tanto, seguramente no son debidos al azar, sino a factores específicos. De modo más estricto, significación estadística hace referencia a la cuestión de determinar estadísticamente, si unos determinados valores o resultados, obtenidos mediante muestras, son poco probables, de modo que no pueden explicarse por las fluctuaciones de las muestras, sino que, al diferir marcadamente de los que se esperaría producidos por el efecto del simple azar, indican que los resultados obtenidos de las muestras, son válidos y extensibles, estadísticamente, a las poblaciones de las que proceden las muestras y, por tanto, dan pie para rechazar la hipótesis nula. Esta cuestión es la razón de ser de la Estadística Inferencial y de las pruebas estadísticas de hipótesis. Test de significación: Es un procedimiento estadístico mediante el cual se determina el grado en el que los datos obtenidos son compatibles con una hipótesis específica bajo estudio. El resultado del proceso de evaluación se llama nivel de significación estadística (valor de P) de los datos con relación a la hipótesis. Mediante los tests estadísticos, aplicando teorías de probabilidad, decidimos cuál es la probabilidad de que diferencias tan grandes como las observadas sean debidas al azar si la eficacia de ambos (o más) “tratamientos” es la misma. El objetivo de las pruebas de significación es valorar cómo de “potente” es la evidencia de que un “tratamiento” es mejor que otro. Esta evidencia se establece en términos de probabilidades (valores de P), de forma que cuanto menor es el valor de la P, menor es la probabilidad de que la diferencia de los tratamientos haya aparecido por azar. P sólo cuantifica la probabilidad de cometer un error tipo I (concluir que el tratamiento produce un efecto cuando realmente no lo produce). La utilización de los valores de “p<0,05” o “p<0,01” son una convención arbitraria y no está justificada desde el punto de vista matemático ni clínico. En la práctica existe muy poca diferencia entre un valor de p = 0,06 y p = 0,04, como para establecer una separación rígida entre ambos. 11 Las técnicas que permiten evaluar el grado de compatibilidad de los datos muestrales con una hipótesis predeterminada se conoce genéricamente con el nombre de test (pruebas o contrastes) de hipótesis. En ocasiones el interés de la investigación se centra no tanto en estimar el valor de un parámetro sino en determinar si es superior o inferior a un valor determinado. Una hipótesis estadística es una asunción relativa a una o varias poblaciones, que puede ser cierta o no. Las hipótesis estadísticas se pueden contrastar con la información extraída de las muestras y tanto si se aceptan como si se rechazan se puede cometer un error. La hipótesis formulada con intención de rechazarla se llama hipótesis nula y se representa por H0. Rechazar H0 implica aceptar una hipótesis alternativa (H1). La situación se puede esquematizar: 12 α=p (rechazar H0|H0 cierta) El error tipo 1 se considera el error más grave en experimentos biomédicos y consiste en concluir que un tratamiento es eficaz cuando en realidad no lo es. Se suele aceptar un riesgo de error de 5% (α =0.05). La pregunta inmediata es por qué no exigir una seguridad máxima, es decir por qué no exigir un (α =0.01). Si lo hiciéramos, entonces correríamos el riesgo de no encontrar una diferencia significativa cuando realmente la hay. La contrapartida de un error a muy bajo es incrementar el error tipo II. β=p (aceptar H0|H0 falsa) El error tipo β es el riesgo de no detectar un efecto clínicamente significativo. Potencia=1-β=p (rechazar H0|H0 falsa) La potencia es el poder de reconocer diferencias verdaderas. Si en un contraste de hipótesis se rechaza H0, se debe calcular α, pero si no se rechaza, se debe calcular β. Tener en cuenta que: 1- α y β están inversamente relacionadas. 2- Sólo pueden disminuirse las dos aumentando el tamaño muestral (n). Los pasos necesarios para realizar un contraste relativo a un parámetro “ ” son: 1. Establecer la hipótesis nula en términos de igualdad H0: = 0 2. Establecer la hipótesis alternativa, que puede hacerse de tres maneras, dependiendo del interés del investigador H1: 0 H1: < 0 H1: > 3. en el primer caso se habla de contraste bilateral o de dos colas, y en los otros dos de lateral (derecho en el 2º caso, o izquierdo en el 3º) o una cola. 4. Elegir un nivel de significación: nivel crítico para α: “valor p” de los contrastes. 5. Elegir un estadístico de contraste: estadístico cuya distribución muestral se conozca en H0 y que esté relacionado con y establecer, sobre la base de dicha distribución, la región crítica: región en la que el estadístico tiene una probabilidad menor que α si H0 fuera cierta y, en consecuencia, si el estadístico cayera en la misma, se rechazaría H0. 6. Calcular el estadístico para una muestra aleatoria y compararlo con la región crítica, o equivalentemente, calcular el "valor p" del estadístico (probabilidad de obtener ese valor, u otro más alejado de la H0, si H0 fuera cierta) y compararlo con la región crítica. 13 Contraste de una media en una población con un valor teórico Se contrasta una media obtenida en una muestra de una población con una media teórica. Para contrastar la hipótesis nula Ho: = o con una hipótesis alternativa bilateral H1: o se utiliza el estadístico. Que sigue una distribución t de Student con n-1 grados de libertad si la hipótesis nula es cierta. Por tanto, para obtener el valor de p bilateral se contrasta el valor del estadístico con la distribución tn-1. Comparación de una proporción en una población con un valor teórico Se compara el porcentaje obtenido en una muestra de una población con un porcentaje teórico. Para contrastar la hipótesis nula Ho: hipótesis alternativa bilateral H1: = o con una o se utiliza el estadístico: Con corrección de continuidad: Que bajo la hipótesis nula, seguirá aproximadamente una distribución N (0,1). El grado de significación de z se obtiene a partir de la tabla de la ley Normal. La elección de la prueba estadística más adecuada a fin de comparar la homogeneidad de dos muestras viene determinada por: 1. El tipo de variable estudiada (cuantitativa-cualitativa). 2. Según se analicen datos independientes o apareados. 3. Las condiciones de aplicabilidad (normalidad, tamaño de la muestra...). 14 COMPARACIÓN DE MEDIAS a. Muestras Independientes Supongamos que disponemos de dos muestras de dos poblaciones base, de tamaño nA y nB, con medias mA y mB. Para el estudio de la homogeneidad de dos medias será preciso comparar si su diferencia, d = mA - mB, supera o no la atribuible al azar. Según la hipótesis nula, las medias son iguales. La distribución de diferencias de medias sigue una ley Normal con las siguientes características: Si se cumple la hipótesis nula, ¿Cuál es la probabilidad de que exista una discrepancia entre las medias, mA - mB, tan importante o mayor a la que hemos observado? Es decir, queremos saber, si la diferencia es superior a 1,96XEE, en cuyo caso la diferencia sería estadísticamente significativa (p<0,05). El error estándar de la diferencia de medias es igual a la suma de los errores estándar de cada una de las muestras. Se calcula con la ecuación 1. Si se desconocen las desviaciones estándar en la población, que es lo más frecuente, es necesario emplear una aproximación de estos valores utilizando las desviaciones estándar de las muestras. Esto se puede hacer con la asunción adicional de que las desviaciones estándar en las poblaciones base son equivalentes, A= B. Si las desviaciones estándar son equivalentes A= B= , la ecuación 1 se puede simplificar de la forma indicada en la ecuación 2 (siendo Sp la varianza combinada de las dos muestras): Queda por calcular la desviación típica común, basada en los resultados de la muestra. Ésta se obtendría de un promedio de ambas desviaciones pero de forma ponderada, para que se dé más peso a la muestra más numerosa (ecuación 3). Asimismo, en el caso de dos muestras pequeñas, no se puede demostrar que la distribución de la diferencia de medias siga una curva de Gauss, y no pueden utilizarse los valores 1,96 y 2,6 como coeficientes del intervalo de confianza. Es preciso recurrir a la distribución t de Student. 15 El error estándar deberá multiplicarse, para hallar el intervalo de confianza, por los valores t obtenidos en la tabla de Student, entrando en ella con nA + nB–2. Si d>tXEE, la diferencia será estadísticamente significativa. Cuando nA + nB –2 sea igual a 30, los valores de Student prácticamente coinciden con los de la curva de Gauss (ecuación 4). b. Dos muestras apareadas Es frecuente el caso de comparar dos valores medios obtenidos en dos muestras de pacientes pero con la particularidad de que se trata de los mismos individuos, considerados, por ejemplo, antes y después de un tratamiento. Existe una prueba estadística específica que permite analizar la homogeneidad de dos medias en datos apareados (prueba de la t pareada). El mal uso del test de distribución t es uno de los errores más comunes en la literatura médica. Es apropiado para comparar dos grupos o un grupo antes y después de un tratamiento. Si se aplica mal el test t para comparar más de dos grupos, se obtienen valores de P pequeños que pueden llevar a los investigadores a afirmar que el tratamiento produce más efecto del que los datos justifican. Disponemos de dos muestras: (n1, m1, s1) y (n2, m2, s2). Las dos muestras pueden considerarse como una sola tomando, en vez de la serie doble de valores, una única serie de incrementos. Esta nueva serie tendrá su propia media y desviación típica. Según la hipótesis nula, el tratamiento es ineficaz y los incrementos nulos. Si se repitiera indefinidamente el experimento, las medias se agruparían en una curva de Gauss de media 0. El intervalo de confianza de la media nula sería 1,96xEE a cada lado de la media. Habría que comprobar si la verdadera media de incrementos supera este margen, en cuyo caso sería estadísticamente distinta de la media nula (ecuación 5). Si la serie fuera pequeña, los valores 1,96 y 2,6 serían sustituidos por los valores t de Student (ecuación 6). 16 d media de las diferencias EE estándar de la diferencia de medias Como se desconoce el error estándar de la diferencia poblacional, se emplea la desviación estándar de las diferencias de la muestra. El error estándar sería el calculado en la ecuación 7. El test t se debe usar para evaluar la hipótesis de que dos medias no son diferentes. Si el diseño implica múltiples grupos, se deben hacer otras pruebas como el análisis de la varianza o la generalización multigrupos del test t. Cuando se usan los tests t para diferencias entre múltiples grupos se puede calcular la p verdadera multiplicando la p que informan por el número de tests posibles. c. Pruebas no paramétricas de dos muestras Hasta ahora hemos asumido que la variable analizada sigue una distribución de Gauss. Si esta condición no se cumple, hay que recurrir a las pruebas no paramétricas. Estas pruebas no dependen de la distribución de la variable y no precisan de la condición previa de normalidad de las poblaciones. Son pruebas de menor precisión, por lo que se necesitarán diferencias mayores para demostrar significación estadística. Se utilizarán, por lo tanto, sólo cuando el tamaño de la muestra sea menor de 30 y la distribución de la variable en la población no pueda considerarse normal. En caso de medias en muestras mayores de 30 y con variables de distribución no normal, no será necesario emplear tests no paramétricos. Para la comparación de medias independientes podemos emplear el test de Mann-Whitney, y también el test de Wilcoxon de la suma de clasificaciones. Estas pruebas son análogas, por lo que sus resultados son similares. Entre las diversas pruebas para medias de muestras apareadas podemos apuntar el test de Wilcoxon o test de los rangos con signo y el test de los signos. Nos referimos a los datos nominales y ordinales como datos categóricos o de clasificación. Son datos atractivos porque son fáciles de recoger. En contra tenemos la relativa insensibilidad de las medidas y las limitaciones de los datos que no siguen una distribución normal. Éstos se evalúan mediante tests no paramétricos. Aunque el test t de Student y ANOVA están 17 entre los más poderosos de los métodos de la estadística inferencial no son apropiados para datos nominales y ordinales. Afortunadamente los estadísticos han proporcionado otras técnicas. Chi cuadrado, el test de Fisher y el test de filas X columnas se podrán usar para analizar datos nominales. Mann- Whitney U, Kolmogorov y Wilcoxon con los datos ordinales (como los tests t para comparación única entre grupos, mientras que Kruskal Wallis y Friedman para datos ordinales (y como ANOVA, para comparaciones entre grupos). 18 COMPARACIÓN DE PROPORCIONES a. Muestras independientes Constituye la comparación clásica de porcentajes de una variable cualitativa en dos muestras independientes. El estadístico de comparación Z viene definido por: donde: p1 = r1/n1 p2 = r2/n2 p = r1 + r2/n1 + n2 r1, r2 son el número de casos favorables en los respectivos grupos n1 + n2 el tamaño muestral de ambos grupos. Aplicando el estadístico obtendremos su valor. El grado de significación de z se obtiene a partir de la tabla de la ley Normal. Tabla 2x2 y prueba de χ2 Chi cuadrado se usa para responder preguntas sobre tasas, proporciones o frecuencias. Se usan para decir si hay diferencias entre poblaciones o grupos para la tasa a la que ocurren diferentes resultados. Hay dos tipos de chi cuadrado: test de independencia y “goodness of fit”. Si la técnica estadística de comparación de porcentajes es muy utilizada en investigación biomédica, las tablas 2x2 (y, generalizando, fila x columna) son aún más conocidas y utilizadas. Por ejemplo: En una muestra de 100 pacientes que sufrieron infarto de miocardio se observa que 75 sobrevivieron más de 5 años (éxito). Se quiere estudiar su posible asociación con la realización de ejercicio moderado (factor pronóstico), o si, por el contrario, ambas variables son independientes. Para resolver esta cuestión, aplicaremos la prueba χ 2 de Pearson. 19 Observados Para el cálculo del estadístico de contraste es necesario calcular las frecuencias esperadas (aquéllas que debieran haberse observado bajo la hipótesis nula). Se calculan mediante el producto de los marginales dividido por la frecuencia total. Valores esperados a = m1 x n1 / T = 45 b = m2 x n1 / T = 30 c = m1 x n2 / T = 15 d = m2 x n2 / T = 10 Esperados A continuación se calcula el estadístico de contraste χ2 χ2 = = (Observado-Esperado)2 30)2/30+……..=5,56 / Esperado (50-45)2 /45+(25- La distribución de probabilidad de este estadístico es una χ 2, regida por un parámetro, grados de libertad, que es igual al número de filas menos 1, por el número de columnas menos 1, de la tabla. En este caso su valor es (2-1) x (2-1)= 1. Para =0.05 el valor de χ 2 con un grado de libertad es 3.84. Como el valor obtenido en el estudio es 5.56 podemos concluir que hay asociación entre el ejercicio y la supervivencia. Obviamente esta asociación no es necesariamente causal. El procedimiento es semejante para las tablas filas x columnas, teniendo en cuenta que si en el caso de tablas 2x2 los grados de libertad es 1, para una tabla filas x columnas, los grados de libertad se calculan con (filas-1) x (columnas-1). 20 Corrección de Yates Yates propuso en 1945 una corrección conservadora para aquellos casos de tablas 2x2 en los que N es pequeña, en concreto menor de 200. Consiste en restar 0.5 a la diferencia entre los valores observados y esperados, en el cálculo del estadístico de contraste. χ 2 Yates= ( | Observado-Esperado | -0.5)2 / Esperado b. Dos muestras apareadas Test de McNemar Se debe emplear cuando los dos grupos que comparamos no son independientes. La muestra consiste en n parejas de observaciones, cada pareja compuesta por observaciones de dos poblaciones (por ejemplo, dos observaciones en el mismo sujeto antes y después de un tratamiento; observaciones en un caso y un control emparejados). La unidad de análisis es la pareja y no cada individuo. Se realiza con el siguiente estadístico (1) que sigue una distribución χ 2 con un grado de libertad y que puede aplicarse si el número de parejas discordantes es mayor de 20. c. Pruebas no paramétricas de dos muestras Test exacto de Fisher Se emplea cuando ningún valor esperado de la tabla 2x2 sea menor de 5. El test exacto de Fisher se basa en la probabilidad exacta de observar los valores de las 4 celdas de la tabla bajo la hipótesis nula de no asociación entre las dos variables, y asumiendo que los marginales son fijos. Partiendo de esta tabla 2X2 21 La probabilidad de observar exactamente los valores a, b, c y d si no existe asociación entre las variables y si los marginales están fijos es de: Pr(a,b,c,d) = (a+b)! (c+d)! (a+c)! (b+d)! / a! b! c! d! n! Para calcular el valor p bilateral, se suman las probabilidades de la tabla observada, así como de todas las tablas más extremas de la observada, y el valor se multiplica por 2. INTERVALOS DE CONFIANZA En la estimación por intervalo, el estimador puntual se completa con un intervalo de valores del parámetro poblacional que serían compatibles con los resultados de la muestra. Los intervalos de confianza llevan asociados una probabilidad que indica la cobertura del parámetro poblacional. En la práctica, se utilizan casi exclusivamente intervalos de confianza al 95%. La estimación puntual de un parámetro representa la estimación más probable de ese parámetro con la información disponible, sin embargo los estimadores puntuales no indican la incertidumbre de nuestra investigación. En la teoría de las muestras, el intervalo de confianza es el espacio comprendido dentro de los límites formados por el parámetro de la muestra más/menos el error correspondiente dentro del que se debe encontrar el parámetro del universo, con el grado de probabilidad señalado por el nivel de confianza con el que se trabaje. La amplitud de un intervalo depende del error estándar de la media y del grado de confianza que de forma arbitraria hayamos elegido. Cuanto más cercano esté un punto al medio del IC, más probable es que represente a la población. Si se amplía un IC del 95 al 99%, la exactitud también aumenta porque aumentan las probabilidades de incluir un parámetro de la población verdadero. Sin embargo, cuando el IC se mantiene constante y aumenta el tamaño de la muestra, disminuye el EEM y se estrecha el IC, lo que a su vez incrementa la precisión. Interpretación del error estándar y de los límites de confianza El error estándar (EE) de un porcentaje indica la precisión del estimador del porcentaje poblacional. Su principal utilidad es el cálculo de los intervalos de confianza para un porcentaje o una media que intentan darnos una idea de cuál es el verdadero valor del porcentaje o media en toda la población de futuros pacientes. Límites de confianza para la diferencia de proporciones Los límites de confianza al 95 % para la diferencia de dos proporciones puede estimarse mediante: 22 Límites de confianza para la diferencia de medias Los límites de confianza al 95 % para la diferencia de dos medias puede estimarse mediante: ACERCA DEL TAMAÑO MUESTRAL Y OTROS ASPECTOS DE INTERÉS Tamaño de la muestra Sea cuál sea el tipo de estudio que vamos a usar, debemos enfrentarnos al problema del tamaño de la muestra. Este aspecto es una de las razones más frecuentes por las que se consulta a un estadístico. Tanto los investigadores como los responsables de evaluar los estudios deben ser conscientes de las implicaciones estadísticas y éticas que tiene la elección del tamaño de la muestra. Un estudio con una muestra demasiado grande pone en riesgo pacientes de forma innecesaria e incrementa los costes. Pero un estudio con una muestra demasiado pequeña es también no ético, por ser inútil científicamente e incapaz de detectar diferencias importantes. El tamaño de la muestra permite al investigador asumir si se debe esperar una distribución normal. Cuando las muestras son pequeñas (menores de 30), en general, no se puede asumir una distribución normal. Cuando las muestras son menores de 200, el investigador debería explorar si la distribución es normal. 23 En general, 30 sujetos en cada grupo dan confianza sobre la normalidad de la curva. Pero si los resultados son negativos con menos de 30 sujetos, habría que poner en duda la generalización de los resultados. En general se dice que se deben incluir 15 sujetos por cada variable estudiada. El número aumenta si se comparan subgrupos. En encuestas, se considera que se necesita al menos un 50% de respuestas para obtener resultados (sea cual sea el tamaño de la muestra). Las muestras deben ser mayores, cuanta mayor variabilidad haya (y la variabilidad se mide con la desviación estándar) Cuando la muestra es pequeña, hay que tener mucho cuidado, ya que el error tipo II puede ser la explicación de resultados negativos. Aproximación estadística a la incertidumbre P e IC nos facilitan en general resultados consistentes. Si el efecto es estadísticamente significativo, el IC del 95% no incluirá el valor de “no diferencia” y viceversa. Cuanto más grande es una muestra, menor es la incertidumbre y menor el efecto observado que pueda ser significativo (es decir, que incluso pequeñas diferencias sin significación clínica, podrían alcanzar significación estadística. 24 La amplitud del IC se ve afectada por la muestra, el tamaño y la desviación estándar. Cuanto mayor es la muestra, más estrecho es el IC Estadísticos más comunes: Su uso e interpretación MUESTREO Casi siempre basamos las conclusiones y decisiones de los estudios de investigación en función de lo que haya sucedido previamente en un grupo o muestra de individuos, más que en la experiencia de toda la población. En muchos estudios, los pacientes se reclutan a medida que acuden a consultas. En otras ocasiones, esta selección se lleva a cabo mediante técnicas específicas de muestreo. Los estudios transversales requieren, casi invariablemente, su utilización para conocer la prevalencia de un fenómeno en la población. 25 Ventajas del muestreo La principal razón es el ahorro de tiempo y dinero. Es una cuestión de eficiencia. Por ello, al considerar aspectos relacionados con los participantes en el estudio, es necesario calcular el tamaño muestral mínimo para concentrar los esfuerzos en obtener una muestra que refleje fielmente a la población de estudio. Validez del estudio. La medición de las variables será más exacta pues se dedicarán más esfuerzos a asegurar su calidad si se efectúa en un número reducido de individuos. Además, es también un problema de cantidad de información pues al tener más recursos, éstos se invierten en medir variables pronósticas que pudieran influir en los resultados (control de posibles factores de confusión). Muestreo Probabilístico Se define como el proceso en el que todos los individuos tienen una probabilidad conocida de ser elegidos distinta de cero. Utiliza siempre alguna forma de selección aleatoria. Es un tipo de muestreo muy utilizado porque con él la muestra será más representativa de la población de estudio al elegir al azar las unidades de muestreo evitando la parcialidad, consciente o inconsciente, del investigador. Cuando se elige una muestra ésta no es más que una de las infinitas muestras que se pueden obtener de una población. La aplicación de técnicas de muestreo probabilístico permiten la aplicación de técnicas estadísticas capaces de cuantificar el error aleatorio (error debido al muestreo). La unidad de muestreo es el elemento sobre el cual se aplicará la técnica de selección, puede ser distinta de la unidad de análisis. La fracción de muestreo es el cociente entre el tamaño de la muestra deseado y el total de la población candidata (n/N). Tipos de muestreo probabilístico: 1. Muestreo aleatorio simple (MAS): En este tipo de muestreo, cada unidad de muestreo tiene la misma probabilidad de ser elegida. El primer paso es preparar un listado de las unidades de muestreo, numerándolas, por ejemplo, secuencialmente. Este proceso puede ser fácil y rápido si la población de referencia se encuentra en una base de datos informatizada y muy laborioso si se realiza manualmente y la población es grande. Luego, se calcula el tamaño muestral necesario y se eligen las unidades con una tabla de números aleatorios o mediante un programa estadístico. 26 El MAS tiene la ventaja de ser sencillo y de permitir un cálculo rápido de medias y varianzas. Sin embargo, requiere el conocimiento previo de la lista completa de todas las unidades de muestreo. 2. Muestreo sistemático (MS): Este procedimiento se basa en alguna regla sistemática simple para elegir uno de cada n individuos. Es un método más cómodo y práctico que el MAS y los resultados son los mismos. Primero, se calcula la constante de muestreo (k) dividiendo el total de la población entre el tamaño de la muestra (N/n). La primera unidad se extrae al azar entre los k primeros individuos y se le suma a la primera unidad la constante sucesivamente hasta completar el tamaño de la muestra. Tampoco es necesario tener a mano la lista completa de toda la población (también el listado puede construirse a medida que el estudio avanza siempre y cuando las unidades sigan un orden establecido, por ejemplo, los pacientes que acuden a una consulta). Además, cuando la población de referencia está ordenada siguiendo una tendencia conocida (por ejemplo, de mayor a menor o de más joven a más viejo) el MS asegura una cobertura de unidades de todos los tipos. La desventaja más importante aparece cuando la constante de muestreo que se aplica está relacionada con el fenómeno que se quiere estudiar. En este caso, se pueden hallar estimaciones muy distorsionadas de los parámetros poblacionales. 3. Muestreo estratificado (ME): Se caracteriza porque la población se divide en uno o más estratos, es decir, subgrupos de población que comparten alguna característica y son mutuamente excluyentes. Luego, se escoge una muestra al azar en cada estrato, manteniendo la proporción observada en la población de referencia. Este tipo de muestreo intenta evitar muestras sesgadas al conseguir la igualdad en la distribución con que una o varias variables se encuentran en la población o en la muestra. Su correcta aplicación requiere que se conozca la distribución de las variables empleadas para la estratificación en la población y que la variabilidad dentro de los estratos sea lo más pequeña posible y entre los estratos lo más grande posible. Es preciso que los estratos se delimiten en función de las variables que puedan distorsionar los resultados. Así, se obtendrán subgrupos de la población muy homogéneos respecto a la posible variable de confusión y muy heterogéneos entre sí. Además, se controlará el posible efecto de estas variables en el resultado. Si el interés principal es conocer si existen diferencias entre los estratos, la aplicación del muestreo proporcional puede significar que en un estrato exista un número muy pequeño de individuos que dificulte o invalide las comparaciones. Una solución es aplicar diferentes fracciones de muestreo en cada uno de los estratos. Hay que tener en cuenta las distintas fracciones si se quieren estimar las medias y varianzas de toda la muestra, lo que añade cierta dificultad al análisis. 27 Si se tiene intención de realizar un análisis sólo de los subgrupos por separado, no es necesario tener en cuenta las diferentes fracciones de muestreo porque cada estrato puede considerarse como una población diferente. En general, con el ME se obtienen estimaciones más precisas de los parámetros poblacionales que con el MAS pues la varianza total se basa en la de cada uno de los estratos, y éstos, al ser más homogéneos que la población total, tienen menor variabilidad. El ME reduce la variación debida al muestreo. Esta reducción depende de las diferencias entre estratos. Cuanto mayor sea esta diferencia, y cuanto menor sea la variabilidad dentro de un estrato, mayor será la reducción de la varianza. 4. Muestreo en etapas múltiples: Consiste en seleccionar unidades de muestreo de una población (unidades primarias), procediéndose a obtener, en una segunda etapa, una muestra de cada una de las unidades primarias (unidades secundarias). Se puede usar el número de etapas que sea necesario y, en cada una de ellas, un método distinto de muestreo (simple, estratificado, sistemático). Cuando en el estudio se incluyen todas las unidades secundarias se denomina muestreo por conglomerados (elegir a todos los alumnos de las aulas que se escojan). La unidad de muestreo primaria es la más grande y comprende un mayor número de elementos y se desciende en las sucesivas etapas hasta llegar a la unidad básica o elemento de la población (ej: si queremos saber la prevalencia de caries en la población escolar, se podrán seleccionar escuelas como unidades primarias y los alumnos como unidades secundarias). El muestreo en etapas múltiples se utiliza cuando la población es muy grande y dispersa. Su principal desventaja es que si las unidades primarias contienen personas similares con relación al fenómeno de interés, es difícil estimar la precisión con que pueden calcularse los parámetros poblacionales. En este tipo de muestreo, la variabilidad es mayor que en el MAS o que en el ME y su cálculo es complejo. Una solución parcial es extraer una muestra de mayor tamaño y considerarla como aleatoria simple, procurando que las unidades de muestreo sean lo más pequeñas posible. El muestreo en etapas múltiples es útil cuando la población se encuentra agrupada y el coste que supone estudiar cada uno de estos grupos es grande y cuando no existe un listado de toda la población de referencia. Muestreo no Probabilístico En este tipo de muestreo, las unidades se escogen utilizando métodos en los que no interviene el azar. Se desconoce la probabilidad que posee cada unidad de ser incluida en la muestra. 28 Tipos de muestreo no probabilístico: 1. Muestreo consecutivo: Consiste en seleccionar a los pacientes que cumplen los criterios de selección especificados en el protocolo del estudio a medida que acuden a consulta durante un periodo de tiempo determinado. Es la técnica más utilizada en los ensayos clínicos, especialmente, cuando la enfermedad es aguda. 2. Inclusión de voluntarios: Es preferible rechazar su colaboración ya que los motivos que llevan a una persona a prestarse a un estudio sin haber sido seleccionada suelen estar relacionados con otras características que afecten a la representatividad de la muestra. 3. Muestreo por cuotas: Es cuando la composición general de la población de referencia en términos de características tales como la edad, el sexo o el nivel de educación, se decide o se conoce de antemano. Seguidamente, se determina el número de personas requeridas (o cuotas) para los varones o mujeres según diferentes edades y niveles de instrucción, siendo el único requerimiento el conseguir el número de personas adecuado para llenar cada una de las mismas. La desventaja de este método es que no todos los elementos tienen la misma probabilidad de ser incluidos en el estudio, por lo que es posible que la muestra difiera de la población de referencia. Por tanto, siempre que se pueda, se aplicará una técnica de muestreo probabilística. Si no es posible, y si se emplea un muestreo consecutivo, se han de concentrar todos los esfuerzos en conseguir que las personas seleccionadas cumplan estrictamente los criterios de inclusión en el estudio con el fin de evitar una muestra sesgada. CORRELACIÓN LINEAL Trata de comprobar si dos variables cuantitativas (x e y) están relacionadas y facilitar la intensidad de esa relación. a. Covarianza Es la media aritmética de los productos de las desviaciones de la variable x con respecto a su media aritmética por las desviaciones de la variable y con respecto a su media aritmética. b. Coeficiente de correlación lineal de Pearson Se obtiene dividiendo la covarianza por las desviaciones típicas de cada variable. Su signo está determinado por el signo de la covarianza. Sus valores van de 1 a –1. Si es cero, no existe relación lineal, aunque puede haberla de otro tipo. Sólo es aplicable para la relación lineal entre variables. No tiene unidades. 29 No es una medida de tipo cuantitativo sino ordinal (un coeficiente de 0,6 no indica que la relación entre las variables sea el doble de intensa que si fuera 0,3 sino simplemente que es mayor). c. Coeficiente de correlación muestral Cuando se estudian en todos los individuos de una población dos variables independientes entre sí que siguen una distribución normal, el coeficiente de correlación poblacional es cero. d. Coeficiente de correlación de Spearman Se utiliza cuando se quiere valorar la dependencia de dos variables medidas en escala ordinal o que, aunque sean cuantitativas, no siguen una distribución normal. Se basa en la correlación de rangos. Se miden dos variables a una serie de sujetos y se les asignan números de orden para cada uno de los valores de cada una de las variables: - Si existe relación directa entre estas dos variables, un rango alto en una variable irá acompañado de un valor de orden alto en la otra: así, cada pareja de valores tendrá el mismo rango aproximadamente para cada variable. - Si existe una relación inversa, lo que ocurrirá es que un rango alto en una variable irá acompañado de un valor de orden bajo en la otra y, por tanto, los rangos serán totalmente opuestos. Para el cálculo se procede a asignar a cada valor de cada variable el número de orden que le corresponde de menor a mayor. Se halla la diferencia d para cada individuo entre los rangos asignados a cada variable y se eleva al cuadrado. El coeficiente calculado es una estimación del coeficiente poblacional. Si toma un valor distinto de cero, se debe averiguar si procede de una población con un coeficiente distinto de cero o si ha sido el azar el que ha hecho aparecer este valor. Para muestras inferiores a 30 sujetos existen tablas que permiten comprobar si el valor r hallado es mayor que el que ofrece la tabla (si es así, se puede decir que las variables están relacionadas. Para muestras superiores a 30 sujetos, se aplica el mismo estadístico que el usado para el coeficiente de correlación de Pearson. 30 Prueba de independencia entre dos variables cuantitativas basada en el coeficiente de correlación REGRESIÓN LINEAL La regresión lineal es la explicación de la relación existente entre dos variables (x e y) por una función y= f(x). Donde x es la variable independiente e y la variable dependiente. La regresión lineal simple intenta ajustar una recta a la relación entre dos variables. La función de una recta es y= a + bx donde “b” es la pendiente de la recta o coeficiente de regresión y “a” es el término independiente o altura en el origen. Por cada valor de x se obtiene un valor de y. 31 Estimación puntual de los parámetros de una recta Dado que en muy pocas ocasiones se estudia a la población, lo que se hace es obtener una muestra y estimar los valores de “b” y “a” y buscar la recta que mejor se ajuste a los valores observados. El método que se utiliza es el de mínimos cuadrados, método que se basa en considerar como la mejor adaptación la de una recta tal que sea mínima la suma de los cuadrados de las diferencias entre los valores observados y los ajustados o calculados, correspondientes a los distintos valores de la recta para los mismos valores de la variable explicativa. Las suposiciones en las que se fundamenta el análisis de la regresión son: Los valores de la variable x son escogidos por el investigador. Cada valor de x delimita una subpoblación de individuos con distintos valores de y que deben seguir una distribución normal. Las varianzas de y en cada subpoblación son iguales. Todas las medias de y en cada subpoblación están sobre una línea recta: linealidad. Los valores de y son estadísticamente independientes. Coeficiente de determinación El coeficiente de determinación R 2 da la bondad de ajuste decidido para representar la relación entre las variables estudiadas. Se define como el cociente entre la parte explicada de la variación de la variable “y” y el total de variación. En la regresión lineal, el coeficiente de determinación coincide con el cuadrado del coeficiente de correlación de Pearson. Características Sus características son las siguientes: Es siempre positivo. Sus valores se sitúan entre 0 y 1. Viene expresado por unidades abstractas lo que permite comparaciones con otros coeficientes de determinación. Si su valor es 1, la relación entre las dos variables es perfecta e indica que la varianza de los valores de “y” es totalmente explicada por la regresión. Si su valor es 0, significa que la función ajustada no explica en absoluto la relación entre las dos variables estudiadas. La línea ajustada es una recta paralela al eje x que pasa por y. Estimación por intervalo de los parámetros de la recta Para estudiar la relación existente entre dos variables x e y se ha tomado al azar una muestra de tamaño n y se ha calculado la recta de regresión que no es más que una estimación puntual de la verdadera recta que liga todos los valores de x e y. Es necesario calcular el intervalo de confianza para cada uno de los parámetros de la recta de regresión. 32 Estimación de parámetros del modelo de regresión y pruebas de significación