La trampa de la ratio - Ciencia sin seso…locura doble

Anuncio
La trampa de la ratio
El mundo de la ciencia está lleno de trampas. Las hay por cualquier
parte. No se libran ni tan siquiera las grandes revistas médicas ni los
autores más prestigiosos. Muchos de ellos tienden a aprovecharse de nuestra
ignorancia utilizando los indicadores de medida que más interesan para
mostrar los resultados que se buscan. Por este motivo, tenemos que estar
muy alerta siempre y fijarnos en los datos de los estudios para llegar a
nuestra propia interpretación.
Desgraciadamente, no podemos evitar que se manipulen los resultados o la
forma de presentarlos, pero sí que podemos pelear contra nuestra ignorancia
y hacer siempre lectura crítica de los trabajos científicos.
Un ejemplo de lo que estoy hablando es la elección entre riesgos
relativos y odds ratios.
Ya sabéis la diferencia entre riesgo y odds. El riesgo es una proporción
entre los sujetos que presentan un evento y el total de sujetos
susceptibles. Así, podemos calcular el riesgo de sufrir un infarto entre
los que fuman (fumadores infartados dividido por el total de fumadores de
la muestra) y entre los que no fuman (lo mismo, pero con no fumadores). Si
vamos un paso más allá, podemos calcular la razón de los dos riesgos,
llamada riesgo relativo (RR) o razón de riesgos, que nos indica cuánto más
probable es que se produzca un evento en un grupo respecto al otro.
Por su parte, el concepto de odds es un poco diferente. La odds nos
indica cuánto más probable es que se produzca un suceso frente a que no se
produzca (p/(1-p)). Por ejemplo, la odds de sufrir un infarto en fumadores
se calcularía dividiendo la probabilidad de infarto en fumadores (fumadores
infartados dividido por el total de fumadores de la muestra, exactamente
igual que el riesgo) por la probabilidad de no sufrir infarto (fumadores no
infartados dividido por el total de fumadores de la muestra o, lo que es
igual, uno menos la odds de padecerlo). Al igual que hacíamos con los
riesgos, podemos calcular la razón de las odds de los dos grupos y obtener
la odds ratio (OR), que nos da una idea de cuánto más probable es que se
produzca el evento es un grupo que en el otro.
Como veis, son conceptos parecidos, pero diferentes. En ambos casos el
valor nulo es uno. Un valor mayor que uno indica que los sujetos del
numerador tienen más riesgo y un valor menor que uno, que tienen menos
riesgo. Así, un RR de 2,5 querría decir que el grupo del numerador tiene
una probabilidad un 150% mayor de presentar el evento que estemos midiendo.
Una OR de 2,5 quiere decir que es una vez y media más probable que ocurra a
que no ocurra el suceso en el grupo del numerador.
Por otra parte, un RR de 0,4 indica una reducción de la probabilidad de
ocurrir del 60% en el grupo del numerador. La OR de 0,4 es más compleja de
interpretar, pero viene a decir más o menos lo mismo.
¿Cuál de las dos debemos utilizar?. Depende del tipo de estudio. Para
poder calcular el RR tenemos que calcular previamente los riesgos en los
dos grupos, y para eso tenemos que conocer la prevalencia o la incidencia
acumulada de la enfermedad, por lo que esta medida suele utilizarse en los
estudios de cohortes y en los ensayos clínicos.
En los estudios en los que no se conoce la prevalencia de la enfermedad,
como es el caso de los estudios de casos y controles, no hay más remedio
que usar OR. Pero el uso de OR no se limita a este tipo de estudio. Podemos
usarla cuando queramos, en lugar de los RR. Además, un caso particular es
cuando se recurre a modelos de regresión logística para ajustar por los
diferentes factores de confusión detectados, que proporcionan OR ajustadas.
En cualquier caso, el valor del RR y
de la OR es similar cuando la
prevalencia del efecto es baja, por
debajo de un 10%, aunque la OR siempre
es un poco más baja que el RR para
valores menores de uno y un poco más
alta para valores mayores. ¿Un poco?.
Bueno, a veces no tan poco. En la figura
tenéis representada, aproximadamente, la
relación entre OR y RR. Veis que, a
medida que la frecuencia del evento
aumenta, la OR crece mucho más rápido que el RR. Y aquí es donde viene la
trampa, ya que para un mismo riesgo, el impacto puede parecer mucho mayor
si usamos una OR que si usamos un RR. La OR puede ser engañosa cuando el
evento es frecuente. Veámoslo con un ejemplo.
Imaginemos que estoy muy preocupado con la obesidad entre los asistentes
a una sala de cine y quiero evitar que entren a ver la película con un
tanque enorme de una bebida azucarada cuya marca no voy a mencionar. Así
que mido cuántos espectadores compran la bebida y veo que son el 95%.
Entonces, otro día diferente, coloco un cartel en el bar advirtiendo de lo
malo para la salud que es tomar bebidas azucaradas en grandes cantidades y
veo con agrado que el porcentaje de los que la compran baja a un 85%.
En este caso, la medida absoluta de efecto sería la diferencia de
riesgos, que es solo de un 10%. Algo es algo, pero no parece demasiado,
solo consigo concienciar a uno de cada 10. Veamos qué pasa con las medidas
de asociación.
El RR se calcularía como el cociente 95/85 = 1,17. Esto indica que si no
colocamos el cartel, el riesgo de comprar la bebida es un 17% mayor que si
lo ponemos. No parece demasiado, ¿verdad?.
La odds de comprar sería de 95/(1-95) sin cartel y de 85/(1-85) con
cartel, luego la OR sería igual a (95/5)/(85/15) = 3,35. Quiere decir que
es tres veces más probable comprar sin cartel que con cartel.
Parece claro que el RR da una idea que se corresponde mejor con la
medida absoluta (la diferencia de riesgos), pero ahora os pregunto: si mi
cuñado tiene una fábrica de carteles, ¿qué medida creéis que emplearía?.
Sin duda, os presentaría la OR.
Por este motivo, siempre debemos mirar los resultados para ver si
podemos calcular alguna medida absoluta a partir de los datos del estudio.
En ocasiones esto no es tan fácil como en nuestro ejemplo, como ocurre
cuando nos presentan las OR que salen del modelo de regresión. En estos
casos, si conocemos la prevalencia del efecto o enfermedad en estudio,
siempre podemos calcular el RR equivalente con la siguiente fórmula:
Y aquí dejamos las trampas por hoy. Veis como se puede
manipular la forma de expresar los resultados para decir lo que uno quiere
sin llegar a mentir. Hay más ejemplos de mal uso de medidas de asociación
relativas en lugar de absolutas, como el de utilizar la diferencia relativa
del riesgo en lugar de la diferencia absoluta. Pero esa es otra historia…
Descargar