(#19). por favor, tócame

Anuncio
(#35). DENSIDAD DE CULTIVOS Y
RIESGO DE CÁNCER INFANTIL
Este estudio es interesante porque analiza la asociación entre la
densidad de cultivo y varios cánceres infantiles (leucemias y tumores
del sistema nervioso central y periférico) con sólo datos geográficos,
es decir, en base a la cercanía de población no urbana (municipios
menores de 300000 habitantes) con las zonas de cultivo agrícola de
maíz, trigo, avena, remolacha azucarera o guisantes.
Los autores analizan datos de más de 1.6 millones de niños en siete
estados del medio-oeste de Estados Unidos, y encuentran algunas
asociaciones significativas entre la incidencia de cáncer infantil y
la producción de guisantes, avena y remolacha azucarera.
Por
tanto,
y
aunque
varios
de
los
demás
análisis
son
no
significativos, estos resultados podrían indicar una asociación
directa entre el uso de pesticidas para la agricultura y el cáncer
infantil. No obstante, al ser un estudio ecológico (no mira los datos
a nivel individual), hay muchos factores de confusión que no se han
tenido en cuenta (todos los factores de riesgo individuales, como el
tabaco, la polución, la radiación, etc.). No obstante, el gran tamaño
de muestra empleado es un punto a favor, ya que incrementa la potencia
estadística de encontrar el efecto, y permite también que no haya
sesgo referido a la información proveniente de cuestionaros sobre
exposición a factores de riesgo.
En cualquier caso, este estudio no pretende ser concluyente, sino un
primer paso para seguir generando hipótesis y seguir investigando
acerca de los riesgos de vivir en zonas rurales con alta densidad de
cultivos.
Booth, B. J., Ward, M. H., Turyk, M. E. & Stayner, L. T. (2015).
Agricultural crop density and risk of childhood cancer in the
midwestern United States: an ecologic study. Environmental Health, 14:
82, e007034. doi:1 0.1186/s12940-015-0070-33
Indicadores de calidad de la revista*
JCR Impact Factor (2014): 3.37
SJR Impact Factor (2014): 1.28
* Es simplemente un indicador aproximado para valorar la calidad de la
publicación
(#34). POLUCIÓN DEL AIRE
DEBIDA AL TRÁFICO Y RECIÉN
NACIDOS
Diversos estudios han mostrado la relación que existe entre la
exposición a la polución ambiental y varios resultados no deseables en
el embarazo, como los niños prematuros (por debajo de la semana 37) o
el bajo peso al nacer (por debajo del percentil 10). Los niños que
nacen en esas condiciones tienen más probabilidad de desarrollar
problemas de salud en la infancia y a lo largo de su vida.
Los autores estudian a 100190 mujeres de Estocolmo, registrando la
exposición a óxidos de nitrógeno y otras variables de flujo de tráfico
en la ciudad. Esos datos se cruzaron con la localización de la
vivienda, y se emplearon como covariables en un modelo mixto logístico
para explicar resultados problemáticos al nacer.
Los resultados indican que hay una asociación entre la exposición a la
polución del tráfico y desórdenes hipertensivos. Un incremento de 10
microgramos/m3 en la exposición a óxidos de nitrógeno en casa produce
una OR de 1.17 (95% CI 1.10 , 1.26).
También los cuartiles 2, 3 y 4
de exposición a óxidos de nitrógeno están asociados a un mayor riesgo
de bajo peso al nacer.
Como sucede en muchas áreas de la epidemiología donde se encuentran
efectos pero no se sabe con exactitud los mecanismos de acción de esas
causas, aquí también los autores nombran varias líneas explicativas
sobre el proceso por el cual la polución causa esos problemas en el
embarazo, como que afecte a la función de la placenta (transportar
oxígeno y nutrientes), o por producir estrés oxidativo. Parece,
además, que el primer trimestre de embarazo es especialmente
importante a este respecto.
En conclusión, un nuevo estudio que apoya la tesis de que la
exposición al tráfico es perjudicial para la salud, en este caso para
una población especialmente sensible como los futuros neonatos.
Olsson, D., Mogren, I., Eneroth, K. & Forsberg, B. (2015). Traffic
pollution at the home address and pregnancy outcomes in Stockholm,
Sweden. BMJ Open, 5, e007034. doi:10.1136/bmjopen-2014-007034
Indicadores de calidad de la revista*
JCR Impact Factor (2014): 2.27
SJR Impact Factor (2014): 1.13
* Es simplemente un indicador aproximado para valorar la calidad de la
publicación
(#33). CLUSTERS
PEDIÁTRICO
DE
CÁNCER
Los clusters no son más que grupos de individuos que son
homogéneos en una o más características, y heterogéneos a los
demás grupos o individuos, es decir, comparten algo común. El
cáncer infantil es un cáncer con poca incidencia y con causas
multifactoriales que incluyen la genética y el entorno. Conseguir
identificar clusters es muy complejo por esa falta de potencia
estadística, pero las técnicas de análisis de clusters a través del
estadístico Scan son prometedoras.
Los autores encuentran un caso en la frontera de la significación
estadística (p<0.06) y otro significativo (p<0.04), este último se
refiere a tres niños detectados con linfoma entre 2011 y 2013. Esos
niños viven muy cerca unos de otros (2 en edificios contiguos y otro a
200 metros) y comparten zona de juegos y centros de salud. Esto
permite establecer comparativas ante hipótesis de contaminación. Por
ejemplo, el linforma de Hodgkin se ha asociado a los trabajadores de
la industria de la madera, pero en este caso ninguno de los 3 niños
enfermos tiene relación familiar con ese tipo de trabajos. La
contaminación con algunos virus, como el de Epstein-Barr (VEB) y el
herpesvirus es otra hipótesis de trabajo.
Por el momento no hay explicación satisfactoria a las causas de este
cluster, pero aún así, este artículo es interesante porque nos da otra
herramienta para detectar agrupamientos espacio-temporales de casos de
cáncer pediátrico que sería complicado obtener con otras técnicas de
análisis de conglomerados convencionales.
Una vez identificado el cluster se abren las puertas para nuevas
hipótesis sobre contaminación, como la radiación electromagnética, la
contaminación alimenticia a través de partículas radiactivas, etc.
Estas últimas consideraciones son una mera opinión personal, meras
elucubraciones, pero que podrían tener cabida como posibles hipótesis
de trabajo.
Ortega-García, J. A., López-Hernández, F. A., Cárceles-Álvarez, A,
Santiago-Rodríguez, E. J., Sánchez, A. C., Bermúdez-Cortés, M. &
Fuster-Soler, J. L. (2015). Analysis of small areas of pediatric
cancer in the municipality of Murcia (Spain). Anales de Pediatría,
doi: 10.1016/j.anpedi.2015.04.021
Indicadores de calidad de la revista*
JCR Impact Factor (2014): 0.72
SJR Impact Factor (2014): 0.21
* Es simplemente un indicador aproximado para valorar la calidad de la
publicación
(#32).
TRÁFICO
BIOMARCADORES
Y
Los autores realizan un diseño muy interesante donde hacen que
23 personas adultas y sin problemas de salud recorran durante
2 horas 3 lugares diferentes de una ciudad, dos de ellos
expuestos a tráfico y, por lo tanto, a múltiples fuentes de
polución (aunque uno de ellos menos expuesto porque sólo
circulaban automóviles), y un lugar ajardinado con niveles más
bajos de contaminación por circulación de coches. Se les
midieron varios biomarcadores, como segregación de cortisol,
presión arterial, frecuencia cardiaca, etc., antes, justo
después y 24 horas después de su exposición.
Los resultados no son demasiado claros. El bajo tamaño
muestral dificulta encontrar significación estadística, por lo
que es una gran limitación de este estudio. Cabría esperar
cambios significativos en función de cada una de las 3
localizaciones, pero no ocurre así con todos los indicadores.
Es cierto que hay un efecto significativo en algunos de ellos,
como la presión arterial, pero paradójicamente es más baja a
medida que hay más polución (lo que desde el punto de vista de
salud cardiovascular sería deseable).
En mi opinión este estudio no arroja demasiada luz sobre los
efectos a corto plazo de la exposición a la polución en las
ciudades.
Mirowsky, J. E., Peltier, R. E., Lippmann, M., Thruston, G.,
Chen, L. C., Neas, L., Díaz-Sánchez, D., Laumbach, R., Carter,
J. D. & Gordon, T. (2015). Repeated measures of inflammation,
blood pressure, and heart rate variability associated with
traffic exposures in healthy adults. Environmental Health, 14,
66. doi: 10.1186/s12940-015-0049-0
Indicadores de calidad de la revista*
JCR Impact Factor (2014): 3.37
SJR Impact Factor (2014): 1.28
* Es simplemente un indicador aproximado para valorar la
calidad de la publicación
(#31). TRÁFICO Y CÁNCER DE
PULMÓN
Las emisiones de los vehículos suponen entre un 25 y un 40% de la
polución del aire. Al mismo tiempo el cáncer de pulmón es responsable
de 1.59 millones de muertes. Los compuestos provenientes de la
combustión de la gasolina y diesel proveniente de esos vehículos, como
el monóxido de carbono, el ozono, el benceno, los hidrocarburos
policíclicos aromáticos, dióxido de nitrógeno y otros son admitidos
como cancerígenos por la IARC, en el Grupo 1, además.
Existen multitud de estudios que tratan de ligar el cáncer de pulmón a
la exposición a la polución del tráfico, y lo que hacen los autores es
realizar un metanálisis con 36 de ellos, publicados entre 1988 y 2013
(22 de esos estudios se refieren exclusivamente a conductores
profesionales). Aunque aproximadamente la mitad de esos estudios
revisados no reportaron una asociación significativa, su agregación en
el metanálisis sí que arroja unos resultados globales significativos.
Los autores dan más importancia (lo hacen ponderando por la inversa de
la varianza) a aquellos estudios donde la estimación es más fiables
(intervalos de confianza más pequeños). Esto hace que no todos los
estudios pesen igual a la hora de hacer un resumen de los resultados.
Este estudio aporta suficiente evidencia para hacernos ver que la
polución producida por los vehículos debe ser una preocupación
fundamental para la salud pública, y que hay que trabajar por reducir
esas emisiones. Del mismo modo, nos debe hacer reflexionar sobre el
riesgo inherente de algunas profesiones, como las de conductores de
autobús, camión, etc., y si se están tomando medidas para informar a
los conductores de ese riesgo y, sobre todo, para tratar de hacer algo
por reducirlo.
Chen, G., Wan, X., Yang, G. & Zou, X. (2015). Traffic-related air
pollution and lung cancer: A meta-analysis.Thoracic Cancer, 6,
307-318.
doi: 10.1111/1759-7714.12185
Indicadores de calidad de la revista*
JCR Impact Factor (2014): 0.898
SJR Impact Factor (2014): 0.210
* Es simplemente un indicador aproximado para valorar la calidad de la
publicación
(#30). ENTRENAMIENTO DE ALTA
INTENSIDAD (HIT) Y SALUD
PÚBLICA
Los dos autores realizan un debate sobre la eficacia del entrenamiento
de alta intensidad (HIT) como estrategia de salud pública. El HIT es
un sistema de entrenamiento de alta intensidad, que tiene diferentes
variantes, pero que básicamente se refiere a hacer esfuerzos cortos de
manera intensa (casi al máximo de nuestra capacidad), con intervalos
de descanso cortos entre series de ejercicios. El HIT, por tanto, es
opuesto al típico ejercicio moderado de baja intensidad realizado de
manera continua, como andar, el jogging, etc.
Pese a que los beneficios del HIT para la salud son bien conocidos,
algunos
autores
defienden
que
no
es
una
buena
opción
para
implementarla de manera “global”, ya que requiere de alto esfuerzo por
parte de sus practicantes e implicación. Obviamente, es mucho menos
agradable que correr 30 minutos a ritmo pausado, y por eso algunos
defienden que las tasas de adherencia serían bajas. Además, existe un
peligro de lesión para personas poco preparadas.
En mi opinión, y más allá de que pueda implementarse con un programa
global de salud pública, el HIT es una opción
muy interesante para
conseguir “resultados” en personas que hacen deporte habitualmente a
baja intensidad y no consiguen los objetivos esperados.
Biddle, S. J. H. & Batterham, A. M. (2015). High-intensity interval
exercise training for public health: a big HIT or shall we HIT it on
the head?. International Journal of Behavioral Nutrition and Physical
Activity 12, 95. doi: 10.1186/s12966-015-0254-9
Indicadores de calidad de la revista*
JCR Impact Factor (2014): 4.11
SJR
Impact Factor (2014): 2.03
* Es simplemente un indicador aproximado para valorar la calidad de la
publicación
(#29). SCREENING DE CÁNCER Y
TROMBOEMBULISMO VENOSO
El tromboembolismo venoso es una enfermedad que comprende la trombosis
venosa profunda y la embolia pulmonar. Es la tercera enfermedad
cardiovascular y se divide en: (1) provocada (cuando hay algún
elemento que la provoca como traumatismos, cirugía o inmovilidad
prolongada); y (2) no provocada, que es cuando no se identifican esos
factores de riesgo anteriores. La investigación muestra que hasta un
10% de las no provocadas son el “preludio” de un diagnóstico posterior
de cáncer (a los 12 meses). Lo que plantea el artículo es el estudio
la eficacia de dos procedimientos diferentes de screening en pacientes
con tromboembolismo no provocado: (1) procedimientos básicos como
análisis de sangre,
examen físico y radiografía de pecho
y screening
de mama, útero y próstata (2) esos procedimientos añadiendo también
tomografía computerizada de pelvis y abdomen. Un total de 431 personas
en el primer grupo y de 423 en el segundo participaron.
Los resultados indicaron que el diagnóstico de cáncer en ese
seguimiento de un año fue de 14 en el primer grupo y de 19 en el
segundo, pero esa diferencia fue estadísticamente no significativa
(p=0.28).De esos 14, 4 fueron detectados después del screening. Para
el
segundo
grupo,
de
los
19,
5
fueron
detectados
también
posteriormente. Los resultados son, por tanto, no significativos, como
también lo fueron en cuanto al tiempo posterior al screening.
De este modo, este artículo nos dice que no hay beneficios adicionales
por hacer pruebas más complejas y que conllevan posibles efectos
secundarios (los de la radiación) para este tipo de casos. Recordemos
que la tomografía computerizada de abdomen y pelvis expone a la
persona a una dosis de radiación de unos 31 milisieverts (10 veces más
que a lo que naturalmente estamos expuestos en un año), lo que
equivale a unas 442 radiografías de pecho.
Carrier et al. (2015). Screening for Occult Cancer in Unprovoked
Venous Thromboembolism. The New England Journal of Medicine, 373,
697-704. doi: 10.1056/NEJMoa1506623
Indicadores de calidad de la revista*
JCR Impact Factor (2014): 55.87
SJR Impact Factor (2014): 12.16
* Es simplemente un indicador aproximado para valorar la calidad de la
publicación
(#28). SCREENING DE CÁNCER Y
NIVEL DE INGRESOS
Los programas de detección precoz de diferentes tipos de cáncer son
comunes en muchos países. Los autores nos hablan de la situación de
Corea del Sur, donde desde 1990 hay varios programas implementados a
nivel nacional, que cubren prácticamente a toda la población de
riesgo. En este país hay programas de screening de cancer de colon,
hígado, estómago, mama y útero, con diferentes niveles de adhesión.
Destaca el escaso ratio de aceptación de estos programas, donde sólo
el de mama supera el 50% (51.4%).
Los coreanos tienen que dedicar una parte de sus ingresos a pagar su
sistema nacional de salud y, además, deben efectuar un copago del 10%
de las pruebas de screening (excepto para los individuos con bajos
niveles de ingresos donde es gratuito). Esto contrasta, por ejemplo,
con la situación en España.
Tras analizar todos los casos de cáncer detectados en 2010, los
autores concluyen que para algunos tipos de cáncer en los que hay
mayor detección de tumores en su estado inicial en personas con nivel
de ingresos altos con respecto a bajos, la participación en el
programa iguala de alguna forma ese ratio, como el caso del cáncer de
colon en hombres y el de estómago en mujeres.
Pero una de las curiosidades de este estudio es que para algunos tipos
de cáncer no existe una diferencia clara entre las detecciones en
estados iniciales en función de si se participa en el programa de
cribado o no. Así, el cáncer de mama, aunque el patrón de tendencia
muestra un incremento de detecciones, los intervalos de confianza
están al borde del solapamiento para los 3 niveles de ingresos (alto,
medio y bajo). Esto quiere decir que, de entre todos los programas de
cribado en Corea, éste es posiblemente el menos eficiente, lo que
añadiría un punto más de discusión a la situación actual de
cuestionamiento por la que pasa el programa de cribado de cáncer de
mama.
Jung, H. M., Lee, J. S., Lairson, D. R. & Kim, Y. (2015). The Effect
of National Cancer Screening on Disparity Reduction in Cancer Stage at
Diagnosis
by
Income
Level.
PLoS
ONE
10
(8),
e0136036.
doi:10.1371/journal.pone.0136036
Indicadores de calidad de la revista*
JCR Impact Factor (2014): 3.234
SJR Impact Factor (2014): 1.300
* Es simplemente un indicador aproximado para valorar la calidad de la
publicación
(#27). EFICACIA DE MENOS DE 3
DOSIS DE LA VACUNA DEL HPV
La vacuna contra el virus del papiloma humano es una de las grandes
innovaciones en el ámbito de las vacunas en la última década (no sin
controversia, por cierto). Las niñas a partir de 11 años son alentadas
para vacunarse, lo que normalmente se hace en 3
dosis, espaciadas
temporalmente.
Los autores muestran en su estudio que jóvenes entre 15 y 25 años
vacunadas con 1 dosis o con sólo 2 dosis tenían índices similares de
eficacia (protección frente a virus) que aquellas que tomaban las 3
dosis. Si esas dos dosis se espaciaban, además, 6 meses (en lugar de
un mes), la eficacia era mayor. Es importante recalcar que el periodo
de evaluación de la eficacia son sólo 4 años.
Recordemos que el virus del papiloma humano del tipo 16 (HPV-16) causa
un 50% de los cánceres cervicales, mientras que el HPV-18
lo hace en
un 20%. Por tanto, la vacuna protege contra un 70% de los cánceres
cervicales. Cervarix y Gardasil son las marcas comerciales de las
vacunas que representan a potentes laboratorios farmacéuticos, como
GlaxoSmithKline, al que, por cierto, están vinculados algunos de los
autores de este estudio (lo declaran en el mismo artículo).
El estudio se refiere al desarrollo de infecciones. Esas infecciones
no tienen porqué degenerar en un futuro cáncer, aunque sí que es
cierto que existe la posibilidad de que sí lo hagan. Del mismo modo
hay que señalar que, en este estudio, la vacuna no inmuniza totalmente
frente al virus, ya que se contabilizan incidentes que duran menos de
un mes, que perduran 6 meses, o incluso un año. Esos “incidentes” son
infecciones, que, dependiendo del tipo de dosificación utilizada
pueden ser de aproximadamente 1 caso entre 100 entre las más leves (1
mes) y de 1 entre 1000 entre las más graves (si tomamos ese concepto
de gravedad como persistencia en el tiempo, al menos 1 año).
Este artículo no habla en ningún momento sobre los efectos secundarios
asociados a esta vacuna, y que es fuente de polémica en diferentes
ámbitos
mediáticos,
sociales
(y
también
en
algunos
círculos
sanitarios). Desde este punto de vista, si en lugar de 3 dosis sólo se
pusiera una, quizá se produciría un avance en seguridad.
Kreimer, A. R., Struyf, F., Del Rosario-Raymundo, M. R.,
Hildesheim, A., Skinner, S. R., Wacholder, S., Garland, S. Z.,
Herrero, R., David, M. P. & Wheeler, C. M. (2015). Efficacy
of fewer than three doses of an HPV-16/18 AS04-adjuvanted
vaccine: combined analysis of data from the Costa Rica Vaccine
and PATRICIA trials. Lancet Oncology, 16, 775-786. doi:
10.1016/S1470-2045(15)00047-9
Indicadores de calidad de la revista*
JCR Impact Factor (2014): 24.728
SJR Impact Factor (2014): 11.22
* Es simplemente un indicador aproximado para valorar la calidad de la
publicación
(#26).
FOTOVOLTAICAS
HIPERGEOMÉTRICAS
Hace escasos días, el pasado 22 de enero, aparecía esta
noticia sobre la decisión del Tribunal Supremo de no
indemnizar a los propietarios de las plantas solares afectados
por los recortes del sector en 2010. Al margen de lo justa o
no que nos pueda parecer esa decisión (a mí particularmente me
irrita), lo que más me llamó la atención de la noticia fuera
que el tribunal decidiera estudiar sólo 5 casos de las más de
150 empresas que tenían planteados recursos. Así, según reza
el artículo, el tribunal escogió 5 casos al azar, como muestra
para extrapolar sus conclusiones al resto de la población. Los
informes de esos 5 casos fueron positivos, es decir, esas
plantas solares son rentables, cifrando esa rentabilidad en un
8% anual. Por tanto, en los 5 casos estudiados no se encontró
ninguna planta que no fuera rentable, pese a las pérdidas que
los propietarios argumentan tras los recortes en las primas a
las fotovoltaicas y otros “sablazos” del Gobierno, y donde
éstos aseguran que un 66% de las plantas han sido re
financiadas por los bancos.
Las preguntas que surgen ante esta forma de proceder del
tribunal son muy jugosas: ¿Es correcto escoger una muestra tan
pequeña para sacar conclusiones con un mínimo de precisión?
¿Dados esos resultados, se puede decir que realmente la mayor
parte de la población de foltovoltaicas es rentable y, de este
modo, la sentencia podría considerarse “justa”? ¿Y que hay
cierto en la afirmación del alto tribunal sobre que “ninguna
de las instalaciones tiene un descenso apreciable de su
rentabilidad”?
En este post vamos a tratar de responder a esas cuestiones de
una forma sencilla, empleando la estadística como compañera de
viaje. Lo vamos a hacer sin profundizar demasiado, sólo con un
esbozo que nos puede dar una visión mucho más adecuada,
científicamente hablando, de este delicado tema.
El marco estadístico
Podemos enmarcar este problema a través de la caracterización
de un experimento realizado por el tribunal. Supongamos que
existen 150 recursos presentados por empresas damnificadas (el
artículo no dice el número exacto sino que son “más de 150”),
y que, dado que son demasiados casos para analizar uno a uno,
escoge una muestra testigo de únicamente 5 casos. Como la
muestra es sin reemplazamiento y proveniente de una población
finita y pequeña, Krishnamoorthy (2006) nos indica que debemos
acercarnos al mundo de la distribución hipergeométrica para
tratar de calcular probabilidades. Y eso es lo que vamos a
hacer.
La distribución hipergeométrica
Tenemos N empresas de las cuales M tienen pérdidas (no son
rentables), y el resto N-M son rentables. Tenemos, además, una
muestra de n empresas escogida de manera aleatoria y sin
reemplazamiento. Finalmente, denotamos con X el número de
empresas con pérdidas que se observa en la muestra, siendo k
precisamente ese valor observado para cada muestra particular.
La variable aleatoria X es considerada una variable aleatoria
hipergeométrica con parámetros N y M. De este modo, la
probabilidad de observar k empresas con pérdidas en una
nuestra de tamaño n es la siguiente:
A partir de aquí, podemos empezar ya a realizar cálculos. Para
ello vamos a ir planteando preguntas y las vamos a contestar
con la ayuda de StatCalc.
1. ¿Cuál es la probabilidad de que no haya ninguna empresa con
pérdidas?
Como los 5 informes realizados por los peritos indican que
esas 5 plantas son rentables, no hay en la muestra ninguna
empresa no rentable. La probabilidad de que no haya ninguna
empresa no rentable en la muestra depende del tamaño de la
población, el número de empresas con pérdidas en la población,
el tamaño de la muestra y el valor observado k en la muestra.
Esos es lo que nos dice la fórmula de la función de
probabilidad hipergeométrica. Sabemos que N=150, es decir, el
tamaño de la población. Sabemos que k=0, porque no se ha
encontrado ninguna empresa con pérdidas, y que la muestra n=5,
que son los 5 casos testigo. Si suponemos que un 66% de las
empresas tienen muchos problemas económicos (no son rentables
porque han sido refinanciadas), es decir, unas 100 empresas,
podemos decir que la probabilidad de que X=0: P(X=0)=0.0036.
Esto es muy interesante, porque indica que si lo que dicen los
demandantes es verdad, la probabilidad de que se observe ese
resultado en la muestra es extremadamente pequeña. Es decir,
probablemente o mienten los propietarios o los informes
periciales. Fijaos que si, en lugar de haber un 66% de
empresas no rentables, hubiera sólo, por ejemplo, un 10%, es
decir, 15 de las 150, entonces: P(X=0)=0.59. Por tanto, los
resultados de los informes periciales (de no ser erróneos) son
mucho más consistentes con la situación de que hubiera muy
pocas empresas con pérdidas, es decir, que la mayoría fueran
rentables. Evidentemente, a medida que bajamos el valor de M,
es decir, el de número de empresas no rentables en la
población, el valor de P(X=0) aumenta.
2. ¿Cuál es la precisión de la estimación?
Aquí ya se empieza a complicar el asunto. El valor de
probabilidad es un valor de estimación puntual. Pero esas
estimaciones están sujetas a error, porque estamos empleando
muestras en lugar de toda la población. Por tanto, para
hacernos una mejor idea de lo “buenos” que son nuestros
cálculos debemos dar alguna medida de precisión. La precisión
es un concepto fácil de entender si pensamos en que el
tribunal supremo ha escogido 5 casos al azar, pero si hubiera
realizado ese proceso muchas veces, esos 5 casos serían
diferentes unos de otros, por lo que habría una muestra
diferente para cada experimento. Esa variabilidad muestral
significa que tenemos una distribución de estimaciones
puntuales, por lo que habrá una media y una varianza. Es por
eso que X es una variable aleatoria cuyos momentos se pueden
calcular. Existen varios métodos para computar los intervalos
de confianza, algo en lo que no vamos a entrar aquí. Aplicando
el procedimiento indicado en Krishnamoorthy (2006), el valor
del intervalo de confianza de dos colas al 95% es de (0 ;
0.43).
La interpretación de este cálculo es muy interesante, porque
nos está diciendo que la precisión de la estimación es muy
baja, ya que cubre desde 0 a 0.43, es decir, casi la mitad
del rango posible de valores de probabilidad. Si multiplicamos
los valores del intervalo por el valor de la población N, nos
da un intervalo de confianza para M, es decir, para el número
de empresas no rentables, que sería: (0 ; 64.5). Dicho de otro
modo, con los resultados que el Tribunal Supremo obtiene del
peritaje la precisión está en un rango entre 0 y
aproximadamente 65 empresas con pérdidas. Esto no quiere decir
que ese intervalo contenga siempre el parámetro a estimar, eso
es una falacia en la interpretación de los intervalos de
confianza, sino que simplemente, 95 de cada 100 veces que
repitamos el experimento el valor poblacional estará contenido
en el intervalo que salga (que será diferente cada vez). Como
esto resultará quizá un poco engorroso de entender para
algunos lectores, simplemente la conclusión que sacamos es que
con una muestra de 5 casos la amplitud del intervalo de
confianza es tan grande que la estimación se vuelve muy
imprecisa.
3. ¿Ninguna de las fotovoltaicas es no rentable?
Esa afirmación que el artículo atribuye al Tribunal Supremo no
tiene ningún tipo de base estadística. Con los datos de la
estimación no se puede decir que en la población no haya
ninguna empresa no rentable. En la muestra sí, claro, pero no
en la población. Podemos computar el caso hipotético en el que
el Tribunal podría haber llegado a esa conclusión. Para ello,
y admitiendo un nivel de confianza del 95%, y con un error
máximo admisible de 0.05 unidades, lo que sería un 5% en la
escala de probabilidad [0,1], habría que haber muestreado
aproximadamente 38 casos, y que de esos 38 casos todos
hubieran sido rentables, es decir, que de 38 casos testigo, no
hubiera ningún informe pericial indicando problemas de
rentabilidad. Es entonces en estas circunstancias cuando se
podría afirmar que existen evidencias estadísticas de que
ninguna de las 150 empresas afectadas tiene problemas de
rentabilidad.
4. ¿Qué se puede decir con los datos que tenemos?
Llegados a este punto hay que ser prudentes con las
conclusiones estadísticas. Con sólo una muestra de 5 casos,
sobre una población de 150, y no habiendo ningún informe que
indique que las empresas no son rentables, lo que quizá
podríamos decir es esto:
1. El tamaño de la muestra es muy pequeño para obtener una
estimación precisa, lo que indica que hay una evidencia
similar de que no existe ninguna empresa con pérdidas y de que
existen varias decenas de ellas que sí que las tienen. Eso es
decir muy poco, la verdad.
2. Sí que podemos concluir que menos de un 66% de empresas no
tienen problemas de rentabilidad, es decir, hay evidencias
suficientes para sostener que no hay 100 empresas (de las 150)
con problemas de rentabilidad ya que el intervalo de confianza
de M=(0 ; 65), es decir, no incluye el 100, por lo que con los
datos en la mano no se confirma la hipótesis de que hay al
menos un 66% de empresas con problemas. Son menos empresas,
según los datos.
3. No se puede decir en ningún caso que no existan empresas
con problemas de rentabilidad en la población. Es más, con la
precisión tan baja de la estimación lo más probable es que
haya varias decenas de ellas. Para decir eso, habrían sido
necesarias 38 empresas estudiadas con 38 informes positivos,
es decir, todas rentables…pero en n=38, no en n=5.
4. Se podría calcular el tamaño de muestra necesario para
haber obtenido estimaciones mucho más precisas. Con un margen
de error de 0.05 unidades y al 95% de confianza, y si el
Tribunal Supremo hubiera partido de la hipótesis de que un 66%
son no rentables, entonces lo adecuado hubiera sido escoger
una muestra de ¡104 empresas! Como eso sería prácticamente
imposible, quizá el Tribunal debería de haber partido de una
hipótesis más conservadora, por ejemplo que sólo el 10% no
eran rentables. Aún así, el tamaño mínimo de muestra para una
estimación precisa tendría que haber sido de ¡72 casos!
Conclusión
¿Se puede tomar una decisión judicial de ese calibre con datos
tan poco precisos? Pues que cada uno valore la respuesta en
base a lo que acabo de escribir en el post. Desde luego que si
alguno de nosotros (investigadores universitarios) enviamos
un estudio a una revista científica con este tipo de
estimaciones imprecisas, el editor nos rechazaría el artículo
al instante, es más, quizá se sintiera insultado ante tal
“despropósito”.
Desconozco si judicialmente este tipo de evidencias
estadísticas se toma de otra manera. Al fin y al cabo las
conclusiones derivadas de esa muestra tan pequeña no son del
todo inútiles. Al menos se puede decir que el número de
empresas no rentables es menor que las 100 que dicen que han
sido refinanciadas. Pero poco más. En todos nuestros cálculos
hemos supuesto que los informes periciales son correctos, algo
de lo que desconfían los afectados. Y es lógico que lo hagan,
porque si realmente hay tantas empresas con problemas de
rentabilidad como dicen, el que en 5 casos hayan salido todos
rentables, la probabilidad de que eso ocurra sería
extremadamente baja, del orden de 0.0036; es decir, de cada
1000 veces que se repitiera el juicio, saldría menos de 4
veces ese resultado.
Sería posible, pero muy poco probable. Este problema se podría
analizar con otro enfoque, a través de estadística bayesiana.
Pero con la estadística frecuentista parece evidente pensar
que hay demasiada imprecisión para tomar una decisión tan
importante solamente por criterios estadísticos. Quizá no haya
sido así, y el Tribunal Supremo haya tenido esta evidencia
estadística como un factor más para la toma de decisiones. En
cualquier caso, es comprensible que los afectados estén muy
enfadados por el tratamiento “estadístico” realizado, dicho
todo esto con el máximo de los respetos a la Justicia, claro
está. ​
Nota final: Todo este post se ha basado en el artículo
referenciado al comienzo. Si esa información de partida es
inexacta los resultados de mis cálculos obviamente variarán.
Descargar