(#35). DENSIDAD DE CULTIVOS Y RIESGO DE CÁNCER INFANTIL Este estudio es interesante porque analiza la asociación entre la densidad de cultivo y varios cánceres infantiles (leucemias y tumores del sistema nervioso central y periférico) con sólo datos geográficos, es decir, en base a la cercanía de población no urbana (municipios menores de 300000 habitantes) con las zonas de cultivo agrícola de maíz, trigo, avena, remolacha azucarera o guisantes. Los autores analizan datos de más de 1.6 millones de niños en siete estados del medio-oeste de Estados Unidos, y encuentran algunas asociaciones significativas entre la incidencia de cáncer infantil y la producción de guisantes, avena y remolacha azucarera. Por tanto, y aunque varios de los demás análisis son no significativos, estos resultados podrían indicar una asociación directa entre el uso de pesticidas para la agricultura y el cáncer infantil. No obstante, al ser un estudio ecológico (no mira los datos a nivel individual), hay muchos factores de confusión que no se han tenido en cuenta (todos los factores de riesgo individuales, como el tabaco, la polución, la radiación, etc.). No obstante, el gran tamaño de muestra empleado es un punto a favor, ya que incrementa la potencia estadística de encontrar el efecto, y permite también que no haya sesgo referido a la información proveniente de cuestionaros sobre exposición a factores de riesgo. En cualquier caso, este estudio no pretende ser concluyente, sino un primer paso para seguir generando hipótesis y seguir investigando acerca de los riesgos de vivir en zonas rurales con alta densidad de cultivos. Booth, B. J., Ward, M. H., Turyk, M. E. & Stayner, L. T. (2015). Agricultural crop density and risk of childhood cancer in the midwestern United States: an ecologic study. Environmental Health, 14: 82, e007034. doi:1 0.1186/s12940-015-0070-33 Indicadores de calidad de la revista* JCR Impact Factor (2014): 3.37 SJR Impact Factor (2014): 1.28 * Es simplemente un indicador aproximado para valorar la calidad de la publicación (#34). POLUCIÓN DEL AIRE DEBIDA AL TRÁFICO Y RECIÉN NACIDOS Diversos estudios han mostrado la relación que existe entre la exposición a la polución ambiental y varios resultados no deseables en el embarazo, como los niños prematuros (por debajo de la semana 37) o el bajo peso al nacer (por debajo del percentil 10). Los niños que nacen en esas condiciones tienen más probabilidad de desarrollar problemas de salud en la infancia y a lo largo de su vida. Los autores estudian a 100190 mujeres de Estocolmo, registrando la exposición a óxidos de nitrógeno y otras variables de flujo de tráfico en la ciudad. Esos datos se cruzaron con la localización de la vivienda, y se emplearon como covariables en un modelo mixto logístico para explicar resultados problemáticos al nacer. Los resultados indican que hay una asociación entre la exposición a la polución del tráfico y desórdenes hipertensivos. Un incremento de 10 microgramos/m3 en la exposición a óxidos de nitrógeno en casa produce una OR de 1.17 (95% CI 1.10 , 1.26). También los cuartiles 2, 3 y 4 de exposición a óxidos de nitrógeno están asociados a un mayor riesgo de bajo peso al nacer. Como sucede en muchas áreas de la epidemiología donde se encuentran efectos pero no se sabe con exactitud los mecanismos de acción de esas causas, aquí también los autores nombran varias líneas explicativas sobre el proceso por el cual la polución causa esos problemas en el embarazo, como que afecte a la función de la placenta (transportar oxígeno y nutrientes), o por producir estrés oxidativo. Parece, además, que el primer trimestre de embarazo es especialmente importante a este respecto. En conclusión, un nuevo estudio que apoya la tesis de que la exposición al tráfico es perjudicial para la salud, en este caso para una población especialmente sensible como los futuros neonatos. Olsson, D., Mogren, I., Eneroth, K. & Forsberg, B. (2015). Traffic pollution at the home address and pregnancy outcomes in Stockholm, Sweden. BMJ Open, 5, e007034. doi:10.1136/bmjopen-2014-007034 Indicadores de calidad de la revista* JCR Impact Factor (2014): 2.27 SJR Impact Factor (2014): 1.13 * Es simplemente un indicador aproximado para valorar la calidad de la publicación (#33). CLUSTERS PEDIÁTRICO DE CÁNCER Los clusters no son más que grupos de individuos que son homogéneos en una o más características, y heterogéneos a los demás grupos o individuos, es decir, comparten algo común. El cáncer infantil es un cáncer con poca incidencia y con causas multifactoriales que incluyen la genética y el entorno. Conseguir identificar clusters es muy complejo por esa falta de potencia estadística, pero las técnicas de análisis de clusters a través del estadístico Scan son prometedoras. Los autores encuentran un caso en la frontera de la significación estadística (p<0.06) y otro significativo (p<0.04), este último se refiere a tres niños detectados con linfoma entre 2011 y 2013. Esos niños viven muy cerca unos de otros (2 en edificios contiguos y otro a 200 metros) y comparten zona de juegos y centros de salud. Esto permite establecer comparativas ante hipótesis de contaminación. Por ejemplo, el linforma de Hodgkin se ha asociado a los trabajadores de la industria de la madera, pero en este caso ninguno de los 3 niños enfermos tiene relación familiar con ese tipo de trabajos. La contaminación con algunos virus, como el de Epstein-Barr (VEB) y el herpesvirus es otra hipótesis de trabajo. Por el momento no hay explicación satisfactoria a las causas de este cluster, pero aún así, este artículo es interesante porque nos da otra herramienta para detectar agrupamientos espacio-temporales de casos de cáncer pediátrico que sería complicado obtener con otras técnicas de análisis de conglomerados convencionales. Una vez identificado el cluster se abren las puertas para nuevas hipótesis sobre contaminación, como la radiación electromagnética, la contaminación alimenticia a través de partículas radiactivas, etc. Estas últimas consideraciones son una mera opinión personal, meras elucubraciones, pero que podrían tener cabida como posibles hipótesis de trabajo. Ortega-García, J. A., López-Hernández, F. A., Cárceles-Álvarez, A, Santiago-Rodríguez, E. J., Sánchez, A. C., Bermúdez-Cortés, M. & Fuster-Soler, J. L. (2015). Analysis of small areas of pediatric cancer in the municipality of Murcia (Spain). Anales de Pediatría, doi: 10.1016/j.anpedi.2015.04.021 Indicadores de calidad de la revista* JCR Impact Factor (2014): 0.72 SJR Impact Factor (2014): 0.21 * Es simplemente un indicador aproximado para valorar la calidad de la publicación (#32). TRÁFICO BIOMARCADORES Y Los autores realizan un diseño muy interesante donde hacen que 23 personas adultas y sin problemas de salud recorran durante 2 horas 3 lugares diferentes de una ciudad, dos de ellos expuestos a tráfico y, por lo tanto, a múltiples fuentes de polución (aunque uno de ellos menos expuesto porque sólo circulaban automóviles), y un lugar ajardinado con niveles más bajos de contaminación por circulación de coches. Se les midieron varios biomarcadores, como segregación de cortisol, presión arterial, frecuencia cardiaca, etc., antes, justo después y 24 horas después de su exposición. Los resultados no son demasiado claros. El bajo tamaño muestral dificulta encontrar significación estadística, por lo que es una gran limitación de este estudio. Cabría esperar cambios significativos en función de cada una de las 3 localizaciones, pero no ocurre así con todos los indicadores. Es cierto que hay un efecto significativo en algunos de ellos, como la presión arterial, pero paradójicamente es más baja a medida que hay más polución (lo que desde el punto de vista de salud cardiovascular sería deseable). En mi opinión este estudio no arroja demasiada luz sobre los efectos a corto plazo de la exposición a la polución en las ciudades. Mirowsky, J. E., Peltier, R. E., Lippmann, M., Thruston, G., Chen, L. C., Neas, L., Díaz-Sánchez, D., Laumbach, R., Carter, J. D. & Gordon, T. (2015). Repeated measures of inflammation, blood pressure, and heart rate variability associated with traffic exposures in healthy adults. Environmental Health, 14, 66. doi: 10.1186/s12940-015-0049-0 Indicadores de calidad de la revista* JCR Impact Factor (2014): 3.37 SJR Impact Factor (2014): 1.28 * Es simplemente un indicador aproximado para valorar la calidad de la publicación (#31). TRÁFICO Y CÁNCER DE PULMÓN Las emisiones de los vehículos suponen entre un 25 y un 40% de la polución del aire. Al mismo tiempo el cáncer de pulmón es responsable de 1.59 millones de muertes. Los compuestos provenientes de la combustión de la gasolina y diesel proveniente de esos vehículos, como el monóxido de carbono, el ozono, el benceno, los hidrocarburos policíclicos aromáticos, dióxido de nitrógeno y otros son admitidos como cancerígenos por la IARC, en el Grupo 1, además. Existen multitud de estudios que tratan de ligar el cáncer de pulmón a la exposición a la polución del tráfico, y lo que hacen los autores es realizar un metanálisis con 36 de ellos, publicados entre 1988 y 2013 (22 de esos estudios se refieren exclusivamente a conductores profesionales). Aunque aproximadamente la mitad de esos estudios revisados no reportaron una asociación significativa, su agregación en el metanálisis sí que arroja unos resultados globales significativos. Los autores dan más importancia (lo hacen ponderando por la inversa de la varianza) a aquellos estudios donde la estimación es más fiables (intervalos de confianza más pequeños). Esto hace que no todos los estudios pesen igual a la hora de hacer un resumen de los resultados. Este estudio aporta suficiente evidencia para hacernos ver que la polución producida por los vehículos debe ser una preocupación fundamental para la salud pública, y que hay que trabajar por reducir esas emisiones. Del mismo modo, nos debe hacer reflexionar sobre el riesgo inherente de algunas profesiones, como las de conductores de autobús, camión, etc., y si se están tomando medidas para informar a los conductores de ese riesgo y, sobre todo, para tratar de hacer algo por reducirlo. Chen, G., Wan, X., Yang, G. & Zou, X. (2015). Traffic-related air pollution and lung cancer: A meta-analysis.Thoracic Cancer, 6, 307-318. doi: 10.1111/1759-7714.12185 Indicadores de calidad de la revista* JCR Impact Factor (2014): 0.898 SJR Impact Factor (2014): 0.210 * Es simplemente un indicador aproximado para valorar la calidad de la publicación (#30). ENTRENAMIENTO DE ALTA INTENSIDAD (HIT) Y SALUD PÚBLICA Los dos autores realizan un debate sobre la eficacia del entrenamiento de alta intensidad (HIT) como estrategia de salud pública. El HIT es un sistema de entrenamiento de alta intensidad, que tiene diferentes variantes, pero que básicamente se refiere a hacer esfuerzos cortos de manera intensa (casi al máximo de nuestra capacidad), con intervalos de descanso cortos entre series de ejercicios. El HIT, por tanto, es opuesto al típico ejercicio moderado de baja intensidad realizado de manera continua, como andar, el jogging, etc. Pese a que los beneficios del HIT para la salud son bien conocidos, algunos autores defienden que no es una buena opción para implementarla de manera “global”, ya que requiere de alto esfuerzo por parte de sus practicantes e implicación. Obviamente, es mucho menos agradable que correr 30 minutos a ritmo pausado, y por eso algunos defienden que las tasas de adherencia serían bajas. Además, existe un peligro de lesión para personas poco preparadas. En mi opinión, y más allá de que pueda implementarse con un programa global de salud pública, el HIT es una opción muy interesante para conseguir “resultados” en personas que hacen deporte habitualmente a baja intensidad y no consiguen los objetivos esperados. Biddle, S. J. H. & Batterham, A. M. (2015). High-intensity interval exercise training for public health: a big HIT or shall we HIT it on the head?. International Journal of Behavioral Nutrition and Physical Activity 12, 95. doi: 10.1186/s12966-015-0254-9 Indicadores de calidad de la revista* JCR Impact Factor (2014): 4.11 SJR Impact Factor (2014): 2.03 * Es simplemente un indicador aproximado para valorar la calidad de la publicación (#29). SCREENING DE CÁNCER Y TROMBOEMBULISMO VENOSO El tromboembolismo venoso es una enfermedad que comprende la trombosis venosa profunda y la embolia pulmonar. Es la tercera enfermedad cardiovascular y se divide en: (1) provocada (cuando hay algún elemento que la provoca como traumatismos, cirugía o inmovilidad prolongada); y (2) no provocada, que es cuando no se identifican esos factores de riesgo anteriores. La investigación muestra que hasta un 10% de las no provocadas son el “preludio” de un diagnóstico posterior de cáncer (a los 12 meses). Lo que plantea el artículo es el estudio la eficacia de dos procedimientos diferentes de screening en pacientes con tromboembolismo no provocado: (1) procedimientos básicos como análisis de sangre, examen físico y radiografía de pecho y screening de mama, útero y próstata (2) esos procedimientos añadiendo también tomografía computerizada de pelvis y abdomen. Un total de 431 personas en el primer grupo y de 423 en el segundo participaron. Los resultados indicaron que el diagnóstico de cáncer en ese seguimiento de un año fue de 14 en el primer grupo y de 19 en el segundo, pero esa diferencia fue estadísticamente no significativa (p=0.28).De esos 14, 4 fueron detectados después del screening. Para el segundo grupo, de los 19, 5 fueron detectados también posteriormente. Los resultados son, por tanto, no significativos, como también lo fueron en cuanto al tiempo posterior al screening. De este modo, este artículo nos dice que no hay beneficios adicionales por hacer pruebas más complejas y que conllevan posibles efectos secundarios (los de la radiación) para este tipo de casos. Recordemos que la tomografía computerizada de abdomen y pelvis expone a la persona a una dosis de radiación de unos 31 milisieverts (10 veces más que a lo que naturalmente estamos expuestos en un año), lo que equivale a unas 442 radiografías de pecho. Carrier et al. (2015). Screening for Occult Cancer in Unprovoked Venous Thromboembolism. The New England Journal of Medicine, 373, 697-704. doi: 10.1056/NEJMoa1506623 Indicadores de calidad de la revista* JCR Impact Factor (2014): 55.87 SJR Impact Factor (2014): 12.16 * Es simplemente un indicador aproximado para valorar la calidad de la publicación (#28). SCREENING DE CÁNCER Y NIVEL DE INGRESOS Los programas de detección precoz de diferentes tipos de cáncer son comunes en muchos países. Los autores nos hablan de la situación de Corea del Sur, donde desde 1990 hay varios programas implementados a nivel nacional, que cubren prácticamente a toda la población de riesgo. En este país hay programas de screening de cancer de colon, hígado, estómago, mama y útero, con diferentes niveles de adhesión. Destaca el escaso ratio de aceptación de estos programas, donde sólo el de mama supera el 50% (51.4%). Los coreanos tienen que dedicar una parte de sus ingresos a pagar su sistema nacional de salud y, además, deben efectuar un copago del 10% de las pruebas de screening (excepto para los individuos con bajos niveles de ingresos donde es gratuito). Esto contrasta, por ejemplo, con la situación en España. Tras analizar todos los casos de cáncer detectados en 2010, los autores concluyen que para algunos tipos de cáncer en los que hay mayor detección de tumores en su estado inicial en personas con nivel de ingresos altos con respecto a bajos, la participación en el programa iguala de alguna forma ese ratio, como el caso del cáncer de colon en hombres y el de estómago en mujeres. Pero una de las curiosidades de este estudio es que para algunos tipos de cáncer no existe una diferencia clara entre las detecciones en estados iniciales en función de si se participa en el programa de cribado o no. Así, el cáncer de mama, aunque el patrón de tendencia muestra un incremento de detecciones, los intervalos de confianza están al borde del solapamiento para los 3 niveles de ingresos (alto, medio y bajo). Esto quiere decir que, de entre todos los programas de cribado en Corea, éste es posiblemente el menos eficiente, lo que añadiría un punto más de discusión a la situación actual de cuestionamiento por la que pasa el programa de cribado de cáncer de mama. Jung, H. M., Lee, J. S., Lairson, D. R. & Kim, Y. (2015). The Effect of National Cancer Screening on Disparity Reduction in Cancer Stage at Diagnosis by Income Level. PLoS ONE 10 (8), e0136036. doi:10.1371/journal.pone.0136036 Indicadores de calidad de la revista* JCR Impact Factor (2014): 3.234 SJR Impact Factor (2014): 1.300 * Es simplemente un indicador aproximado para valorar la calidad de la publicación (#27). EFICACIA DE MENOS DE 3 DOSIS DE LA VACUNA DEL HPV La vacuna contra el virus del papiloma humano es una de las grandes innovaciones en el ámbito de las vacunas en la última década (no sin controversia, por cierto). Las niñas a partir de 11 años son alentadas para vacunarse, lo que normalmente se hace en 3 dosis, espaciadas temporalmente. Los autores muestran en su estudio que jóvenes entre 15 y 25 años vacunadas con 1 dosis o con sólo 2 dosis tenían índices similares de eficacia (protección frente a virus) que aquellas que tomaban las 3 dosis. Si esas dos dosis se espaciaban, además, 6 meses (en lugar de un mes), la eficacia era mayor. Es importante recalcar que el periodo de evaluación de la eficacia son sólo 4 años. Recordemos que el virus del papiloma humano del tipo 16 (HPV-16) causa un 50% de los cánceres cervicales, mientras que el HPV-18 lo hace en un 20%. Por tanto, la vacuna protege contra un 70% de los cánceres cervicales. Cervarix y Gardasil son las marcas comerciales de las vacunas que representan a potentes laboratorios farmacéuticos, como GlaxoSmithKline, al que, por cierto, están vinculados algunos de los autores de este estudio (lo declaran en el mismo artículo). El estudio se refiere al desarrollo de infecciones. Esas infecciones no tienen porqué degenerar en un futuro cáncer, aunque sí que es cierto que existe la posibilidad de que sí lo hagan. Del mismo modo hay que señalar que, en este estudio, la vacuna no inmuniza totalmente frente al virus, ya que se contabilizan incidentes que duran menos de un mes, que perduran 6 meses, o incluso un año. Esos “incidentes” son infecciones, que, dependiendo del tipo de dosificación utilizada pueden ser de aproximadamente 1 caso entre 100 entre las más leves (1 mes) y de 1 entre 1000 entre las más graves (si tomamos ese concepto de gravedad como persistencia en el tiempo, al menos 1 año). Este artículo no habla en ningún momento sobre los efectos secundarios asociados a esta vacuna, y que es fuente de polémica en diferentes ámbitos mediáticos, sociales (y también en algunos círculos sanitarios). Desde este punto de vista, si en lugar de 3 dosis sólo se pusiera una, quizá se produciría un avance en seguridad. Kreimer, A. R., Struyf, F., Del Rosario-Raymundo, M. R., Hildesheim, A., Skinner, S. R., Wacholder, S., Garland, S. Z., Herrero, R., David, M. P. & Wheeler, C. M. (2015). Efficacy of fewer than three doses of an HPV-16/18 AS04-adjuvanted vaccine: combined analysis of data from the Costa Rica Vaccine and PATRICIA trials. Lancet Oncology, 16, 775-786. doi: 10.1016/S1470-2045(15)00047-9 Indicadores de calidad de la revista* JCR Impact Factor (2014): 24.728 SJR Impact Factor (2014): 11.22 * Es simplemente un indicador aproximado para valorar la calidad de la publicación (#26). FOTOVOLTAICAS HIPERGEOMÉTRICAS Hace escasos días, el pasado 22 de enero, aparecía esta noticia sobre la decisión del Tribunal Supremo de no indemnizar a los propietarios de las plantas solares afectados por los recortes del sector en 2010. Al margen de lo justa o no que nos pueda parecer esa decisión (a mí particularmente me irrita), lo que más me llamó la atención de la noticia fuera que el tribunal decidiera estudiar sólo 5 casos de las más de 150 empresas que tenían planteados recursos. Así, según reza el artículo, el tribunal escogió 5 casos al azar, como muestra para extrapolar sus conclusiones al resto de la población. Los informes de esos 5 casos fueron positivos, es decir, esas plantas solares son rentables, cifrando esa rentabilidad en un 8% anual. Por tanto, en los 5 casos estudiados no se encontró ninguna planta que no fuera rentable, pese a las pérdidas que los propietarios argumentan tras los recortes en las primas a las fotovoltaicas y otros “sablazos” del Gobierno, y donde éstos aseguran que un 66% de las plantas han sido re financiadas por los bancos. Las preguntas que surgen ante esta forma de proceder del tribunal son muy jugosas: ¿Es correcto escoger una muestra tan pequeña para sacar conclusiones con un mínimo de precisión? ¿Dados esos resultados, se puede decir que realmente la mayor parte de la población de foltovoltaicas es rentable y, de este modo, la sentencia podría considerarse “justa”? ¿Y que hay cierto en la afirmación del alto tribunal sobre que “ninguna de las instalaciones tiene un descenso apreciable de su rentabilidad”? En este post vamos a tratar de responder a esas cuestiones de una forma sencilla, empleando la estadística como compañera de viaje. Lo vamos a hacer sin profundizar demasiado, sólo con un esbozo que nos puede dar una visión mucho más adecuada, científicamente hablando, de este delicado tema. El marco estadístico Podemos enmarcar este problema a través de la caracterización de un experimento realizado por el tribunal. Supongamos que existen 150 recursos presentados por empresas damnificadas (el artículo no dice el número exacto sino que son “más de 150”), y que, dado que son demasiados casos para analizar uno a uno, escoge una muestra testigo de únicamente 5 casos. Como la muestra es sin reemplazamiento y proveniente de una población finita y pequeña, Krishnamoorthy (2006) nos indica que debemos acercarnos al mundo de la distribución hipergeométrica para tratar de calcular probabilidades. Y eso es lo que vamos a hacer. La distribución hipergeométrica Tenemos N empresas de las cuales M tienen pérdidas (no son rentables), y el resto N-M son rentables. Tenemos, además, una muestra de n empresas escogida de manera aleatoria y sin reemplazamiento. Finalmente, denotamos con X el número de empresas con pérdidas que se observa en la muestra, siendo k precisamente ese valor observado para cada muestra particular. La variable aleatoria X es considerada una variable aleatoria hipergeométrica con parámetros N y M. De este modo, la probabilidad de observar k empresas con pérdidas en una nuestra de tamaño n es la siguiente: A partir de aquí, podemos empezar ya a realizar cálculos. Para ello vamos a ir planteando preguntas y las vamos a contestar con la ayuda de StatCalc. 1. ¿Cuál es la probabilidad de que no haya ninguna empresa con pérdidas? Como los 5 informes realizados por los peritos indican que esas 5 plantas son rentables, no hay en la muestra ninguna empresa no rentable. La probabilidad de que no haya ninguna empresa no rentable en la muestra depende del tamaño de la población, el número de empresas con pérdidas en la población, el tamaño de la muestra y el valor observado k en la muestra. Esos es lo que nos dice la fórmula de la función de probabilidad hipergeométrica. Sabemos que N=150, es decir, el tamaño de la población. Sabemos que k=0, porque no se ha encontrado ninguna empresa con pérdidas, y que la muestra n=5, que son los 5 casos testigo. Si suponemos que un 66% de las empresas tienen muchos problemas económicos (no son rentables porque han sido refinanciadas), es decir, unas 100 empresas, podemos decir que la probabilidad de que X=0: P(X=0)=0.0036. Esto es muy interesante, porque indica que si lo que dicen los demandantes es verdad, la probabilidad de que se observe ese resultado en la muestra es extremadamente pequeña. Es decir, probablemente o mienten los propietarios o los informes periciales. Fijaos que si, en lugar de haber un 66% de empresas no rentables, hubiera sólo, por ejemplo, un 10%, es decir, 15 de las 150, entonces: P(X=0)=0.59. Por tanto, los resultados de los informes periciales (de no ser erróneos) son mucho más consistentes con la situación de que hubiera muy pocas empresas con pérdidas, es decir, que la mayoría fueran rentables. Evidentemente, a medida que bajamos el valor de M, es decir, el de número de empresas no rentables en la población, el valor de P(X=0) aumenta. 2. ¿Cuál es la precisión de la estimación? Aquí ya se empieza a complicar el asunto. El valor de probabilidad es un valor de estimación puntual. Pero esas estimaciones están sujetas a error, porque estamos empleando muestras en lugar de toda la población. Por tanto, para hacernos una mejor idea de lo “buenos” que son nuestros cálculos debemos dar alguna medida de precisión. La precisión es un concepto fácil de entender si pensamos en que el tribunal supremo ha escogido 5 casos al azar, pero si hubiera realizado ese proceso muchas veces, esos 5 casos serían diferentes unos de otros, por lo que habría una muestra diferente para cada experimento. Esa variabilidad muestral significa que tenemos una distribución de estimaciones puntuales, por lo que habrá una media y una varianza. Es por eso que X es una variable aleatoria cuyos momentos se pueden calcular. Existen varios métodos para computar los intervalos de confianza, algo en lo que no vamos a entrar aquí. Aplicando el procedimiento indicado en Krishnamoorthy (2006), el valor del intervalo de confianza de dos colas al 95% es de (0 ; 0.43). La interpretación de este cálculo es muy interesante, porque nos está diciendo que la precisión de la estimación es muy baja, ya que cubre desde 0 a 0.43, es decir, casi la mitad del rango posible de valores de probabilidad. Si multiplicamos los valores del intervalo por el valor de la población N, nos da un intervalo de confianza para M, es decir, para el número de empresas no rentables, que sería: (0 ; 64.5). Dicho de otro modo, con los resultados que el Tribunal Supremo obtiene del peritaje la precisión está en un rango entre 0 y aproximadamente 65 empresas con pérdidas. Esto no quiere decir que ese intervalo contenga siempre el parámetro a estimar, eso es una falacia en la interpretación de los intervalos de confianza, sino que simplemente, 95 de cada 100 veces que repitamos el experimento el valor poblacional estará contenido en el intervalo que salga (que será diferente cada vez). Como esto resultará quizá un poco engorroso de entender para algunos lectores, simplemente la conclusión que sacamos es que con una muestra de 5 casos la amplitud del intervalo de confianza es tan grande que la estimación se vuelve muy imprecisa. 3. ¿Ninguna de las fotovoltaicas es no rentable? Esa afirmación que el artículo atribuye al Tribunal Supremo no tiene ningún tipo de base estadística. Con los datos de la estimación no se puede decir que en la población no haya ninguna empresa no rentable. En la muestra sí, claro, pero no en la población. Podemos computar el caso hipotético en el que el Tribunal podría haber llegado a esa conclusión. Para ello, y admitiendo un nivel de confianza del 95%, y con un error máximo admisible de 0.05 unidades, lo que sería un 5% en la escala de probabilidad [0,1], habría que haber muestreado aproximadamente 38 casos, y que de esos 38 casos todos hubieran sido rentables, es decir, que de 38 casos testigo, no hubiera ningún informe pericial indicando problemas de rentabilidad. Es entonces en estas circunstancias cuando se podría afirmar que existen evidencias estadísticas de que ninguna de las 150 empresas afectadas tiene problemas de rentabilidad. 4. ¿Qué se puede decir con los datos que tenemos? Llegados a este punto hay que ser prudentes con las conclusiones estadísticas. Con sólo una muestra de 5 casos, sobre una población de 150, y no habiendo ningún informe que indique que las empresas no son rentables, lo que quizá podríamos decir es esto: 1. El tamaño de la muestra es muy pequeño para obtener una estimación precisa, lo que indica que hay una evidencia similar de que no existe ninguna empresa con pérdidas y de que existen varias decenas de ellas que sí que las tienen. Eso es decir muy poco, la verdad. 2. Sí que podemos concluir que menos de un 66% de empresas no tienen problemas de rentabilidad, es decir, hay evidencias suficientes para sostener que no hay 100 empresas (de las 150) con problemas de rentabilidad ya que el intervalo de confianza de M=(0 ; 65), es decir, no incluye el 100, por lo que con los datos en la mano no se confirma la hipótesis de que hay al menos un 66% de empresas con problemas. Son menos empresas, según los datos. 3. No se puede decir en ningún caso que no existan empresas con problemas de rentabilidad en la población. Es más, con la precisión tan baja de la estimación lo más probable es que haya varias decenas de ellas. Para decir eso, habrían sido necesarias 38 empresas estudiadas con 38 informes positivos, es decir, todas rentables…pero en n=38, no en n=5. 4. Se podría calcular el tamaño de muestra necesario para haber obtenido estimaciones mucho más precisas. Con un margen de error de 0.05 unidades y al 95% de confianza, y si el Tribunal Supremo hubiera partido de la hipótesis de que un 66% son no rentables, entonces lo adecuado hubiera sido escoger una muestra de ¡104 empresas! Como eso sería prácticamente imposible, quizá el Tribunal debería de haber partido de una hipótesis más conservadora, por ejemplo que sólo el 10% no eran rentables. Aún así, el tamaño mínimo de muestra para una estimación precisa tendría que haber sido de ¡72 casos! Conclusión ¿Se puede tomar una decisión judicial de ese calibre con datos tan poco precisos? Pues que cada uno valore la respuesta en base a lo que acabo de escribir en el post. Desde luego que si alguno de nosotros (investigadores universitarios) enviamos un estudio a una revista científica con este tipo de estimaciones imprecisas, el editor nos rechazaría el artículo al instante, es más, quizá se sintiera insultado ante tal “despropósito”. Desconozco si judicialmente este tipo de evidencias estadísticas se toma de otra manera. Al fin y al cabo las conclusiones derivadas de esa muestra tan pequeña no son del todo inútiles. Al menos se puede decir que el número de empresas no rentables es menor que las 100 que dicen que han sido refinanciadas. Pero poco más. En todos nuestros cálculos hemos supuesto que los informes periciales son correctos, algo de lo que desconfían los afectados. Y es lógico que lo hagan, porque si realmente hay tantas empresas con problemas de rentabilidad como dicen, el que en 5 casos hayan salido todos rentables, la probabilidad de que eso ocurra sería extremadamente baja, del orden de 0.0036; es decir, de cada 1000 veces que se repitiera el juicio, saldría menos de 4 veces ese resultado. Sería posible, pero muy poco probable. Este problema se podría analizar con otro enfoque, a través de estadística bayesiana. Pero con la estadística frecuentista parece evidente pensar que hay demasiada imprecisión para tomar una decisión tan importante solamente por criterios estadísticos. Quizá no haya sido así, y el Tribunal Supremo haya tenido esta evidencia estadística como un factor más para la toma de decisiones. En cualquier caso, es comprensible que los afectados estén muy enfadados por el tratamiento “estadístico” realizado, dicho todo esto con el máximo de los respetos a la Justicia, claro está. Nota final: Todo este post se ha basado en el artículo referenciado al comienzo. Si esa información de partida es inexacta los resultados de mis cálculos obviamente variarán.