Introducción al Bootstrap y sus aplicaciones Las computadoras modernas han hecho posible ciertas formas de manipulación y análisis de datos antes inconcebibles. La visualización dinámica de datos, la simulación y los métodos de remuestreo son algunos ejemplos de enfoques que, apoyados en las capacidades de los ordenadores modernos, han enriquecido el trabajo de exploración y análisis estadístico de datos. La relación entre ordenadores y análisis de datos es patente para el caso de las llamadas técnicas de remuestreo de datos (‘data resampling’), entre las que encontramos el Jacknife, los test de aleatorización y permutación, la validación cruzada y el bootstrap. El bootstrap permite resolver problemas relacionados con Valorar el sesgo y el error muestral de un estadístico calculado a partir de una muestra. Establecer un intervalo de confianza para un parámetro estimado. Realizar una prueba de hipótesis respecto a uno o mas parámetros poblacionales. Este enfoque puede resultar de interés para los investigadores, no solo porque es menos restrictivo que el enfoque estadístico clásico, sino también porque es más general en su formulación y más simple de comprender en lo referente al procedimiento básico que subyace al método. Consideraciones generales sobre la inferencia estadística clásica Un objetivo común en la investigación es realizar inferencias probabilistas respecto a algún aspecto de interés de la población objeto de estudio. La estadística inferencial se ha ocupado de este problema estudiando cómo a partir de la información limitada que facilita un estimador , obtenido en una muestra aleatoria, podemos hacer afirmaciones, de tipo probabilístico, respecto al parámetro desconocido, . Una de las preocupaciones del analista será la exactitud (accuracy) con la que las estimaciones captan al parámetro. La determinación de la exactitud de las estimaciones descansa sobre el cálculo del error típico del estadístico (desviación típica de su distribución muestral). Esta forma de trabajo ha demostrado ser una excelente estrategia cuando las asunciones impuestas son adecuadas al tipo de datos que se generan en la disciplina en la que se va a emplear el modelo estadístico. Sin embargo, cuando los supuestos en que estos métodos se basan no concuerdan con los datos los resultados obtenidos con ellos son, lógicamente, menos de fiar. Muchas veces se justifican la persistencia en la utilización de la distribución normal en las ventajas computacionales que proporcionaba antes de la irrupción de los ordenadores. Por otro lado, aun cuando las asunciones distribucionales sean admisibles la obtención del error típico, en contra de lo que podría parecer, no es posible para todos los estimadores. Introducción Conceptual al Bootstrap Frente al enfoque tradicional han sido desarrollados, o más bien puestos de actualidad, una serie de métodos basados en cálculos intensivos por medio de ordenadores destinados a obtener medidas de la precisión de las estimaciones (errores típicos, sesgo, intervalos confidenciales). El bootstrap introducido por Efron en 1979, se diferencia del enfoque tradicional paramétrico en que emplea un gran número de cálculos repetitivos para estimar la forma de la distribución muestral del estadístico, en lugar de fuertes asunciones distribucionales y fórmulas analíticas. Esto permite al investigador hacer inferencias en casos donde tales soluciones analíticas son inviables, y donde tales asunciones son insostenibles. El bootstrap no es, por tanto, un estadístico per se. Más bien, es una aproximación al uso de la estadística para hacer inferencias sobre los parámetros poblacionales. El bootstrapping descansa en la analogía entre la muestra y la población de la cual la muestra es extraída. La idea central es que muchas veces puede ser mejor extraer conclusiones sobre las características de la población estrictamente a partir de la muestra que se maneja, que haciendo asunciones quizás poco realistas sobre la población. El bootstrapping implica remuestreo (resampling) de los datos obtenidos en una muestra, con reemplazamiento, muchas muchas veces para generar una estimación empírica de la distribución muestral completa de un estadístico. El bootstrap puede considerarse como un tipo especial de simulación denominada simulación basada en los datos. INFERENCIA ESTADISTICA MEDIANTE BOOTSTRAP Las técnicas de simulación agrupadas bajo el nombre genérico de bootstrap se ocupan de los mismos asuntos que la estadística paramétrica pero bajo otro enfoque. Las ideas básicas de la estadística no han cambiado lo que ha cambiado es su implementación. La irrupción de los ordenadores ha aportado rapidez y flexibilidad en la aplicación de ciertas ideas hasta ahora aparcadas, permitiendo analizar aspectos no abordables con facilidad analíticamente. La idea básica del bootstrap es tratar la muestra como si fuera la población, y aplicar el muestreo Monte Carlo para generar una estimación empírica de la distribución muestral del estadístico. La verdadera estimación Monte Carlo requiere un conocimiento total de la población, pero por supuesto este no esta generalmente disponible en la investigación aplicada. Típicamente, tenemos sólo una muestra extraída de esa población, debido a lo cual es por lo que necesitamos, antes de nada, inferir θ a partir de θ^. El algoritmo bootstrap En el bootstrapping, tratamos la muestra como si fuera la población y realizamos un procedimiento del estilo Monte Carlo sobre la muestra. Esto se hace extrayendo un gran número de "remuestras" de tamaño n de la muestra original aleatoriamente y con reposición. Más formalmente, los pasos básicos en la estimación bootstrap son: 1) Construir una distribución de probabilidad empírica, F^(x) a partir de la muestra asignando una probabilidad de 1/n a cada punto, x1, x2, ..., xn. Esta es la función de distribución empírica (FDE) de x, la cual es el estimador no-paramétrico de máxima verosimilitud de la función de distribución de la población, F(X). 2) A partir de la FDE, F^(x), se extrae una muestra aleatoria simple de tamaño n con reposición. Esta es una "remuestra", x*b. 3) Se calcula el estadístico de interés, θ^, a partir de esa remuestra, dando θ^*b. 4) Se repiten los pasos 2 y 3 B veces, donde B es un número grande. La magnitud de B en la práctica depende de las pruebas que se van a aplicar a los datos. En general, B debería ser de entre 50 a 200 para estimar el error típico de θ^, y al menos de 1000 para estimar intervalos de confianza alrededor de θ^. 5) Construir una distribución de probabilidad a partir de los B θ^*b asignando una probabilidad de 1/B a cada punto, θ^*1, θ^*2, ..., θ^*B. Esta distribución es la estimación bootstrap de la distribución muestral de θ^, F^*(θ^*) . Esta distribución puede usarse para hacer inferencias sobre θ. La afirmación fundamental del bootstrapping es que una distribución de frecuencias relativas de esos θ^* calculada a partir de las remuestras es una estimación de la distribución muestral de θ^. El estimador bootstrap del parámetro θ se define como: En algunas ocasiones se tiene algún conocimiento más que el estrictamente aportado por la muestra, por ejemplo se conoce la función de distribución de la variable objeto de estudio pero se desconocen los parámetros, que deben ser estimados. En estos casos se estimarían los parámetros a partir de la muestra y el remuestreo se realizaría a partir de la función teórica conocida, con los parámetros estimados, en lugar de a partir de la FDE construida a partir de la muestra. En este caso hablamos de Bootstrap Paramétrico. ESTIMACION BOOTSTRAP DEL ERROR TIPICO El bootstrap y otras técnicas de remuestreo surgieron como métodos basados en cálculos intensivos mediante ordenador que permiten ofrecer medidas de la precisión de los estimadores estadísticos. Uno de esos indicadores de precisión en las estimaciones es el Error Típico del estimador. Para algunos casos como el de la media aritmética existen fórmulas sencillas que nos permiten estimar el valor del error típico. Pero no siempre es este el caso, como ocurre con la mediana o con las medias recortadas, por citar dos estadísticos relativamente simples. La estimación bootstrap del error típico es posible para todos los estimadores y no requiere cálculos teóricos. El algoritmo bootstrap trabaja extrayendo muchas muestras bootstrap independientes, calculando en cada una de ellas el correspondiente estadístico, y estimando el error típico de θ^ mediante la desviación típica de las replicaciones. En cuanto al número de replicaciones necesarias para efectuar la estimación del error típico suelen considerarse suficientes 100 remuestras, variando el número indicado por los diferentes autores entre 50 y 200. INTERVALOS CONFIDENCIALES Otra forma de acercarse al problema de la precisión de las estimaciones es a través de la construcción de intervalos de confianza. En el contexto paramétrico clásico un intervalo confidencial tiene la siguiente estructura general P( θ^± Error Máximo) = 1 -α , donde 1 - α es el Nivel de confianza y Error Máximo = valor absoluto de la Función de Distribución correspondiente al percentil α /2 · Se Una vez más, como se desprende de la expresión anterior, es necesario conocer la distribución muestral del estadístico, tanto en lo que se refiere a su forma como a su error típico. Desde el enfoque del bootstrapping se han propuesto varios métodos de construcción de intervalos confidenciales alternativos al enfoque clásico. Por ejemplo hay varios métodos como: de aproximación normal, percentil, percentil corregido, percentil corregido y acelerado, percentil t, etc. Respecto al número de remuestras necesario para llevar a cabo la construcción de intervalos confidenciales por este método (y en general por los métodos bootstrap) se fija entre 1000 y 2000, para intentar garantizar una mejor estimación de las colas de la distribución. Bootstrap y la enseñanza de la estadística Por otro lado, el procedimiento bootstrap resulta relativamente simple de comprender, aspecto que se ha señalado como otra ventaja importante de las técnicas de remuestreo, especialmente en el ámbito de la docencia. Hay muchos autores, cuales han planteado que este enfoque puede resultar beneficioso en el contexto de la enseñanza, ya que los estudiantes parecerían comprender mejor ciertos conceptos si se utiliza esta perspectiva en lugar del método clásico. Esto se explicaría porque la descripción de los métodos no requiere fundamentos ni expresiones matemáticos que pueden resultar complejos o abstractos para muchos estudiantes, simplemente se necesita poder simular un proceso de remuestreo de datos, lo que en la actualidad puede hacerse fácilmente mediante un software apropiado. En síntesis, podemos decir que el remuestreo proporciona una analogía más concreta de los conceptos estadísticos y favorece un aprendizaje más activo, ya que los estudiantes pueden controlar y experimentar por ellos mismos los resultados de la simulación. Por último, el bootstrap no es exigente en cuanto al cumplimiento de supuestos teóricos para su aplicación y es, en este sentido, menos restrictivo que las técnicas convencionales. Se ha señalado que la validez del bootstrap se basa en un único supuesto o principio que subyacente al procedimiento en sí mismo. El **método bootstrap** aunque ya usado anteriormente, fue descrito de forma sistemática por Efron en 1979. El nombre alude al cordón de los zapatos, recordando la imagen de alguien intentando salir del barro tirando del cordón de sus propios zapatos, y consiste, si tenemos una muestra de tamaño N, en generar un gran número de muestras de tamaño N efectuando un **muestreo con reemplazamiento** de esos valores. Puesto que el enfoque se apoya en la capacidad de la muestra para reflejar o representar los aspectos relevantes de la población de la cual fue extraída, la calidad de la muestra resulta crucial, sea porque no ha sido extraída por medio de un procedimiento que asegure cierta representatividad o sea porque su tamaño es demasiado pequeño. En estas situaciones, puede ser dudoso que la información ofrecida por la muestra permita estimar las propiedades desconocidas de la población. No obstante, estas limitaciones son igualmente aplicables a las técnicas clásicas, ya que también se basan en la idea de selección aleatoria y dependen en su eficiencia del tamaño de la muestra. Así, se ha afirmado que los métodos bootstrap permitirían ‘extraer lo máximo a partir de la poca información disponible’. Algunas barreras y limitaciones en el uso del bootstrap Las razones en favor del bootstrap hacen suponer que se trataría de un enfoque potencialmente útil para el análisis de datos, así como para la enseñanza de la estadística en el área. Sin embargo, esta metodología no ha sido incorporada en toda su extensión al repertorio de herramientas que se aplican en las investigaciónes. Una razón de este hecho sería el escaso conocimiento que los investigadores tienen de las técnicas de remuestreo, puesto que a pesar de su relativa simplicidad, no se incluyen como contenido en la formación de grado o posgrado. Otra barrera añadida pareciera ser que las técnicas bootstrap no estén incorporadas de forma accesible a los programas estadísticos más populares, como SPSS pero esta incluido en programas mas especializadas como Resampling Stats, Stata, Statistica y SimStat, etc. Por otro lado, algunos autores manifiestan que además de los factores mencionados, existiría una dosis de ‘conservadurismo metodológico’ por el cual los investigadores preferirían los métodos clásicos, aún incluso existiendo evidencia en favor de la superioridad de las nuevas técnicas. COMENTARIOS FINALES El método bootstrap no pretende ser un sustituto de las técnicas estadísticas tradicionales, de la misma manera que las pruebas no paramétricas clásicas no pretenden ser sustitutas universales de las pruebas paramétricas. Este nuevo tipo de técnicas están pensadas para situaciones en donde las pruebas inferenciales al uso no tienen cabida, pues cuando las condiciones de aplicación de estas son las correctas su funcionamiento supera al de las posibles alternativas. "La presunción del bootstrap es que la distribución muestral del estadístico que se está estudiando y la distribución muestral encontrada mediante este proceso iterativo son, para una amplia gama de estadísticos, esencialmente idénticas" Aun admitiendo este principio es conocido que una muestra, incluso cuando se emplean técnicas adecuadas de muestreo, puede presentar ciertas peculiaridades debido a las fluctuaciones muestrales. Si extraemos múltiples muestras de una población esas peculiaridades se anulan (como ocurre en la simulación Monte Carlo), pero en el bootstrap al remuestrear constantemente a partir de la misma muestra original corremos el riesgo de perpetuar esas peculiaridades y que la distribución muestral construida esté distorsionada. Como conclusión, el bootstrap es una técnica de remuestreo que puede resultar de gran interés, tanto por sus capacidades como enfoque de análisis de datos como por su potencial en el ámbito de la enseñanza. Como herramienta de análisis estadístico, proporciona un enfoque general que permite afrontar problemas diversos, sin la necesidad de asumir supuestos teóricos que pueden resultar poco realistas, como supuestos relativos a la distribución de los datos. En su lugar, el bootstrap usa la información de la muestra para estimar, mediante remuestreo de los propios datos, propiedades de los estimadores estadísticos y así poder realizar tareas tales como crear un IC o realizar un test de hipótesis. Obviamente, la validez del enfoque depende fundamentalmente de la calidad o capacidad de la muestra para contener o representar apropiadamente las características de la población. Por su sencillez y generalidad, el enfoque también resulta atractivo para ser implementado en la docencia. Este método parece más fácil de comprender que las técnicas de inferencia clásica, ya que en lugar de explicaciones o formulaciones matemáticas que pueden resultar abstractas para los estudiantes se utiliza una metodología basada principalmente en realizar experiencias. En lo fundamental, podemos decir que este enfoque solo requiere que el estudiante sea capaz de comprender y aplicar nociones básicas de estadística descriptiva, tales como distribuciones de frecuencias, histogramas, varianzas y percentiles. Métodos bootstrap avanzados Aclaramos que esta introducción no ha contemplado algunos temas importantes que deberían ser profundizados por los interesados. Por ejemplo, existen formas alternativas de obtener IC que pueden ser más eficientes en ciertos casos (como el método BCa). Por otro lado, también debemos mencionar que cuando se trata de estructuras de datos más complejas, como medidas correlacionadas o datos basados en muestras estratificadas, puede ser necesario adaptar el procedimiento bootstrap básico, ya que el muestreo con reposición debe realizarse respetando otras exigencias de la información y del problema que se está analizando. Un ejemplo de este tipo, es el bootstrap de bloques móviles, más apropiado cuando se trabaja con datos o modelos de series temporales. Además, también existen algunas formas de modificación del esquema de muestreo destinadas a mejorar la eficiencia del método es sus aspectos computacionales, bootstrap equilibrado o ‘balanced bootstrap’ que fuerza a que cada observación sea seleccionada un determinado número de veces en todo el proceso bootstrap. Todas estas cuestiones pueden revisarse y profundizarse consultando el manual de Efron y Tibshirani (1993). Referencias Davison, A.C., y Hinkley, D.V. (1999). Bootstrap Methods and their Applications. Cambridge, Inglaterra: Cambridge University Press. Efron, B. (1979). Bootstrap methods: Another look at the jackknife. The Annals of Statistics, 7, 1‐26. Efron, B., y Tibshirani, R. (1993) An Introduction to the Bootstrap. Chapman and Hall, New York, London. Simon, J. (1997) Resampling: The New Statistics. Arlington, VA: Resampling Stats, Inc. Disponible: www.resample.com Simon, J. L., y Bruce, P. (1991) Resampling: A Tool for Everyday Statistical Work, Chance, 4, 22–32. Tierney, L. (1990). Lisp Stat An Object Oriented Environment for Statistical Computing and Dynamic Graphics. NY: John Wiley & Sons. Wood, M. (2005) The Role of Simulation Approaches in Statistics. Journal of Statistics Education, 13, 3. Disponible: www.amstat.org/publications/jse/v13n3/wood.html Yu, Ch. H. (2003). Resampling methods: Concepts, Applications, and Justification. Practical Assessment, Research & Evaluation, [Online] 8 (19). Disponible: http://PAREonline.net/getvn.asp?v=8&n=19