INFORME CIENTÍFICO Cómo realizar comparaciones

Anuncio
VALUE IN HEALTH 14(2011)4 29–437
Disponible en www.sciencedirect.com
Página web de la publicación: www.elsevier.com/locate/jval
_____________________________________________
INFORME CIENTÍFICO
Cómo realizar comparaciones indirectas de tratamientos y meta-análisis en red: Informe del Grupo de
Trabajo de ISPOR sobre Buenas Prácticas para la Comparación Indirecta de Tratamientos: Parte 2
David C. Hoaglin, PhD1,*, Neil Hawkins, PhD2, Jeroen P. Jansen, PhD3, David A. Scott, MA2, Robbin Itzler, PhD4, Joseph C. Cappelleri, PhD, MPH5,
Cornelis Boersma, PhD, MSc6, David Thompson, PhD7, Kay M. Larholt, ScD8, Mireya Diaz, PhD9, Annabel Barrett10
1Independent
consultant, Sudbury, MA, USA; 2Oxford Outcomes Ltd., Oxford, UK; 3Mapi Values, Boston, MA, USA; 4Merck Research Laboratories, North Wales, PA, USA; 5Pfizer Inc., New London, CT, USA;
of Groningen/HECTA, Groningen, The Netherlands; 7i3 Innovus, Medford, MA, USA; 8HealthCore, Inc., Andover,MA, USA; 9Henry Ford Health System, Detroit, MI, USA; 10Eli Lilly and Company Ltd.,
Windlesham, Surrey, UK
6University
Traducción validada por: Javier Eslava-Scmalbach, PhD, MD, MSc, Director, Instituto de Investigaciones Clínicas, Profesor Titular, Departamento de Cirugía, Facultad de Medicina, Universidad Nacional de
Colombia y Editor, Revista Colombiana de Anestesiología, Bogotá, Colombia
Joaquin F. Mould, PhD, Economía de la Salud Mundial y Investigación de Resultados, Jefe de Proyecto – Atención Especializada, Eequipo de Acceso de Mercado Global, Bayer Healthcare, Berlin, Alemania
Herman Soto Molina, Experto en Farmacoeconomía, HS estudios farmacoeconomicos S A de CV, Mexico D.F., Mexico
La citación para este reporte es: Hoaglin DC, Hawkins N, Jansen JP,. et al. Conducting Indirect-Treatment-Comparison and Network-Meta-Analysis Studies: Report of the ISPOR Task Force on Indirect
Treatment Comparisons Good Research Practices—Part 2. Value Health 2011;14:429-37
RESUMEN
La toma de decisiones para el cuidado de la salud basada en la
evidencia requiere de la comparación de las intervenciones
competitivas relevantes.
En la ausencia de estudios clínicos
aleatorizados y controlados que impliquen una comparación directa
de todos los tratamientos de interés, las comparaciones indirectas y
los meta-análisis en red brindan evidencia útil para seleccionar con
criterio la o las mejores opciones de tratamiento. Las comparaciones
mixtas de tratamientos, un caso especial de meta-análisis en red,
combinan la evidencia directa e indirecta para la realización de
comparaciones por pares, sintetizando así una mayor parte de la
evidencia disponible que un meta-análisis tradicional. Este informe
realizado por el Grupo de Trabajo de Buenas Prácticas para la
Comparación Indirecta de Tratamientos de ISPOR brinda orientación
sobre los aspectos técnicos para la realización de meta-análisis en
línea (nuestro uso de este término incluye la mayoría de los métodos
que implican un meta-análisis en red en el contexto de una red de
evidencias). Comenzaremos con un debate de las estrategias para
desarrollar redes de evidencia. Luego, revisaremos brevemente los
Antecedentes del grupo de trabajo
La Junta Directiva de International Society of Phramarcoeconomy
and Outcomes Research (ISPOR) aprobó la formación de un Grupo
de Trabajo sobre Buenas Prácticas en Comparación Indirecta de
Tratamientos para desarrollar documento(s) de buenas prácticas
para las comparaciones indirectas de tratamientos en enero de
2009. Se invitó a los investigadores con experiencia en revisiones
sistemáticas, meta-análisis en red, síntesis de evidencia y métodos
estadísticos relacionados, quienes trabajaban en entornos
académicos, organizaciones de investigación, la industria
farmacéutica o en los gobiernos de Estados Unidos, Canadá y
Europa, a participar en el Liderazgo del Grupo de Trabajo.
.También se invitó a diversos encargados de la toma de decisiones
que utilizan la comparación directa/indirecta como evidencia para
evaluar los tratamientos en el cuidado de la salud. El grupo de
trabajo se reunió, en primer lugar por teleconferencia, con una
comunicación continua por correo electrónico, y personalmente
en abril de 2010 para desarrollar los temas a tratar, acordar una
planificación y definir la estructura de un informe. El grupo de
liderazgo determinó que, para tratar correctamente las buenas
prácticas de investigación para las comparaciones indirectas de
tratamientos y el uso de estas comparaciones en la toma de
decisiones para el cuidado de la salud, el Grupo de Trabajo debía
tener al menos dos informes:
supuestos del meta-análisis en red. Posteriormente, hablaremos sobre
el análisis estadístico de datos: objetivos, modelos (de efectos fijos y
de efectos aleatorios), enfoques frecuentistas versus Bayesianos, y
validación de los modelos. Una lista de verificación destaca los
componentes principales de un meta-análisis en red y los ejemplos
ilustran las comparaciones indirectas de tratamientos (bajo los
enfoques frecuentistas y Bayesianos) y el meta-análisis en red. Una
sección posterior debate sobre ocho áreas clave para la investigación
a futuro.
Palabras clave: meta-análisis Bayesiano, comparación directa de
tratamientos, red de evidencias, meta-análisis frecuentista,
heterogeneidad,
inconsistencia,
comparación
indirecta
de
tratamientos, comparación mixta de tratamientos.
Copyright © 2011, International Society for Pharmacoeconomics and
Outcomes Research (ISPOR). Publicado por Elsevier Inc.
Uno sobre “Cómo interpretar comparaciones indirectas de
tratamientos y de meta-análisis en red en la toma de decisiones para
el cuidado de la salud: informe del Grupo de Trabajo de ISPOR sobre
Buenas Prácticas en la Comparación Indirecta de Tratamientos:
Parte 1” y otro sobre “Cómo realizar comparaciones indirectas de
tratamientos y estudios de meta-análisis en red: Informe del grupo
de trabajo de ISPOR sobre buenas prácticas para la comparación
indirecta de tratamientos: Parte 2". Los resúmenes de los informes
fueron presentados para recibir comentarios en la 15° Reunión
Internacional Anual del ISPOR llevada a cabo en Atlanta, Georgia,
EE.UU, en mayo de 2010. Los borradores de los dos informes fueron
enviados para recibir comentarios al Grupo Revisor de Trabajo de
ISPOR (103 personas invitadas y auto-seleccionadas que mostraron
interés en este tema) en julio de 2010. Los autores de los informes
consideraron los comentarios del Grupo Revisor de Trabajo del
ISPOR, y los borradores revisados de los dos informes fueron
enviados para recibir comentarios adicionales a los miembros de
ISPOR (5550 miembros) en septiembre de 2010. En total, la Parte 1
recibió 23 comentarios y la Parte 2 recibió 13 comentarios. Todos los
comentarios escritos fueron publicados en el portal web de ISPOR.
Los autores de cada informe evaluaron todos los comentarios
(muchos de los cuales fueron relevantes y constructivos), por lo que
se reescribieron los informes una vez más para ser enviados a la
revista Value in Health de forma posterior.
VALUE IN HEALTH 14(2011)4 29–437
Introducción
El Grupo de Trabajo de ISPOR sobre Buenas Prácticas para la
Comparación Indirecta de Tratamientos publico este documento en
dos informes. El presente informe se apoya en el reporte publicadoen la Parte 1 [1] para la motivación, conceptos y una variedad de
definiciones (ej.: comparación indirecta de tratamientos [ITC],
comparación mixta de tratamientos, meta-análisis en red,
heterogeneidad, similaridad y consistencia).
La terminología para las comparaciones indirectas de tratamientos,
comparaciones mixtas y meta-análisis en red varían dentro de la
bibliografía. En la práctica, todos estos métodos implican metaanálisis en red dentro del contexto de una red de evidencia. Por lo
tanto, es benéfico usar un único término para todos, excepto para los
análisis más simples: “meta-análisis en red” el cual se aplica cuando
la red de evidencia implica más de dos estudios clínicos aleatorizados
controlados (RCT por sus siglas en ingles) e incluye más de dos
intervenciones.
La Parte 1 del informe destaca los aspectos del meta-análisis en red
que son de mayor importancia para los encargados de la toma de
decisiones y de quienes deben interpretar y aplicar los resultados de
dichos estudios. Recomendamos a los lectores estudiarlo antes de leer
este artículo, el cual aborda los aspectos más técnicos de cómo
realizar un meta-análisis en red. Las secciones que están a
continuación discuten las estrategias para analizar la red de evidencia,
los supuestos y los métodos estadísticos (objetivos, modelos, enfoque
frecuentista versus Bayesiano, y validación de modelos). Luego,
presentamos una lista de verificación de buenas prácticas de
investigación, discutimos ejemplos ilustrativos y concluimos
mencionando ocho áreas de investigación actual y necesaria.
Identificando la red de evidencia
Un meta-análisis en red comienza con la red de evidencia: los
tratamientos relevantes y los ensayos clínicos en donde se han
comparado dichos tratamientos directamente. Su estructura con
frecuencia se asemeja con un diagrama en el cual cada nodo
representa un tratamiento (o tal vez una misma clase de tratamientos)
y cada vinculo o arista conecta los tratamientos que han sido
comparados directamente en uno o más ECAC. La estructura del
conjunto de estudios puede tener implicancias para la interpretación
de la evidencia [2]. La Parte 1 del informe contiene diagramas de
distintos tipos de redes de evidencia.
La búsqueda bibliográfica para un meta-análisis en red crea la red de
evidencia, aplicando los mismos estándares básicos que el metaanálisis que lleva a una comparación directa [3– 6]. Si se trata de
comparar dos tratamientos, como por ejemplo B y C, la búsqueda
apunta a ubicar todos los estudios que han incluido a B y a otro
comparador, todos los estudios que han incluido a C y a otro
comparador y todos los estudios que han comparado a B y C
directamente.
Si no hay estudios que hayan comparado B y C pero cada uno ha sido
comparado con un comparador común, como por ejemplo A,
entonces tal vez sea adecuado basar una comparación indirecta entre
B y C empleando la comparación directa de B y A y la comparación
directa de C y A. Más allá de esta situación simple, B y C pueden
tener otros comparadores comunes, o ninguno.
En ausencia de un comparador común para B y C, el tratamiento con
el cual ellos han sido comparados puede tener un comparador común,
o o la conexión con un comparador común puede necesitar de
vínculos adicionales. Si hay más de algunos pocos vínculos que
separan a B y C, una comparación indirecta puede ser poco confiable,
porque cada vínculo adicional tiende a aumentar el error estándar de
la comparación indirecta [7]. La contribución de un vínculo adicional
depende de varios factores, incluyendo la cantidad de estudios
subyacentes a esa comparación directa, los tamaños de las muestras
en dichos estudios y la homogeneidad de las estimaciones específicas
de cada estudio. Por lo tanto, la decisión de proceder con una
comparación indirecta debe considerar un número mayor de
información que la cantidad de vínculos.
Tal vez sea difícil identificar todos los comparadores relevantes para
los tratamientos de interés, y cualquier búsqueda implicara costos y
concesiones. Puede ser eficiente proceder en etapas, usando una de
las estrategias desarrolladas por Hawkins et al. [7]. Ellos refieren a
los tratamientos que uno desea comparar como comparadores
primarios.
Tabla 1 – Las primeras cinco formas de búsquedas (Estrategia de
Amplitud). Cada búsqueda usa un conjunto de posibilidades
booleana para combinar comparadores
Búsqueda
Comparadores
1
Todos los comparadores principales excepto uno
2
Todos los comparadores principales
3
Todos los comparadores secundarios excepto uno
4
Todos los comparadores secundarios
5
Todos los comparadores terciarios excepto uno
Adaptado de la Tabla 1 de Hawkins et al. [7]
Los tratamientos que han sido comparados directamente con un
comparador primario se constituyen el comparadores secundarios, y
los tratamientos que han sido comparados directamente con un
comparador secundario, se constituyen en comparadores terciarios, y
así sucesivamente. El orden de una comparación se determina por la
cantidad de comparadores intermedios. Por lo tanto, las
comparaciones de primer orden son comparaciones directas, las
comparaciones de segundo orden son comparaciones indirectas
basadas en estudios clínicos que comparten un comparador
intermedio único, las comparaciones indirectas de tercer orden
implican dos comparadores intermedios, y así sucesivamente.
La Tabla 1 indica las primeras cinco búsquedas siguiendo la
estrategia de amplitud. En las búsquedas que excluyen un
comparador, uno puede minimizar la carga de la búsqueda
excluyendo el comparador que tiene probabilidades de producir la
mayor cantidad de resultados (ej.: placebo). Cada búsqueda en la
secuencia ubicará, en la(s) base(s) de datos elegida(s) (ej.:
MEDLINE, EMBASE), todos los estudios clínicos que contribuyen a
una comparación indirecta del orden correspondiente: Búsqueda 1,
todas las comparaciones de primer orden (directas); Búsqueda 2,
todas las comparaciones indirectas de segundo orden, y así
sucesivamente. A través de estas búsquedas aquellos tratamientos
adicionales que pueden no haberse visto como comparadores o dentro
del alcance de la valoración (como tratamientos sin licencia en
algunas instancias) pueden contribuir a toda la red de evidencia.
La estrategia de profundidad comienza con la misma búsqueda que la
estrategia de amplitud pero no incluye el comparador omitido en
alguna búsqueda subsiguiente. La Búsqueda 2 apunta a todos los
comparadores secundarios identificados en la Búsqueda 1, la
Búsqueda 3 apunta a todos los comparadores terciarios identificados
en la Búsqueda 2, y así sucesivamente. Hawkins et al. [7,8] sostienen
un debate detallado sobre las búsquedas y los comparadores
resultantes para dos tratamientos de segunda línea para el cáncer
pulmonar avanzado/metastásico de células no pequeñas.
La revisión bibliográfica también debe buscar todos los meta-análisis
que ya hayan producido comparaciones directas (o incluso indirectas)
de tratamientos potencialmente relevantes, para brindar una
validación empírica al análisis.
Supuestos
Tal como se trató en la Parte 1 [1], el meta-análisis en red depende de
la aleatorización en los RCT que compararon tratamientos
directamente. También implica el supuesto de similaridad: “Sólo se
deben combinar estudios si son similares desde el punto de vista
clínico y metodológico” [9].
No obstante, “ningún estándar comúnmente aceptado [define] qué
estudios son suficientemente similares” [9]. Para los meta-análisis en
red, las covariables que actúan como modificadores de efectos
relativos del tratamiento deben ser similares entre los tratamientos (o
deben ajustarse para usar la meta-regresión). Y, cuando combinan
evidencia indirecta con evidencia directa, el meta-análisis en red
agrega el supuesto de consistencia: la evidencia indirecta debe ser
consistente con la evidencia directa.
Un meta-análisis basado en comparaciones directas generalmente
necesita que los estudios individuales estimen un efecto común de los
tratamientos o los efectos específicos del tratamiento de estudio
distibuidos alrededor de un valor típico [10]. La elección entre un
VALUE IN HEALTH 14(2011)4 29–437
efecto común y una distribución de efectos da alcance a los enfoques
de efectos fijos y efectos aleatorios, respectivamente. La
heterogeneidad entre los estudios dentro de una comparación directa
es aceptable, siempre y cuando los efectos del tratamiento compartan
un valor típico común, e incluso pueden aumentar la capacidad de
generalización. Por otro lado, la heterogeneidad entre conjuntos de
estudios que agrega comparaciones directas a la comparación
indirecta o meta-análisis en red indican una falta de similaridad.
El debate acerca de los modelos que sigue a continuación utiliza los
supuestos de homogeneidad, similaridad y consistencia, según sea
necesario. En la práctica, es necesario verificar estos supuestos, hasta
el máximo grado posible. “Los investigadores deberían basar sus
decisiones acerca de la combinación de estudios en investigaciones
exhaustivas de diversidad clínica y metodológica, así como también
según la variación del tamaño de los efectos” [9]. El acuerdo casi
nunca es perfecto y se necesitará tener criterio estadístico y clínico
(ej.: re-examinar la información de los reportes en algunos estudios
clínicos, calcular las estimaciones directas e indirectas por separado
antes de proceder con un meta-análisis en red). Puede ser posible
ajustarse a las diferencias en las características al nivel del estudio (a
través de la meta-regresión), pero es muy poco probable que dichos
ajustes superen las disparidades sustantivas entre los estudios
clínicos. Las interpretaciones de los resultados deberían reconocer
esta limitación.
Métodos estadísticos
Objetivos
Los objetivos de un meta-análisis en red pueden incluir considerar
toda la evidencia relevante, respondiendo a las preguntas de
investigación en ausencia de evidencia directa, mejorando la
precisión de las estimaciones combinando la evidencia directa con la
indirecta, ranqueando los tratamientos y evaluando el impacto de
ciertos componentes de la red de evidencia.
La elección de la medición del efecto debería determinarse por la
pregunta clínica y la naturaleza de los datos. Las mediciones
comunes de efectos relativos incluyen razón de momios (odds ratio:
OR), razón de riesgos (o riesgo relativo), diferencia de medias y
hazard ratio. Los modelos que se describen abajo se aplican a
cualquier medición de efectos relativos, siempre y cuando se definan
correctamente las cantidades necesarias (ej: función de verosimilitud
y enlace).
Modelos
Presentamos una secuencia de modelos, comenzando con el metaanálisis común a través de efectos fijos y efectos aleatorios, para
mostrar la progresión natural hacia los modelos de efectos fijos y
efectos aleatorios para redes para luego hablar de los modelos de
meta-regresión que permiten las interacciones de tratamiento por
covariables [11, 12]. Algunos modelos para redes son susceptibles de
adaptarse a los datos provenientes de estudios clínicos con múltiples
grupos, sin embargo, la presencia de dichos estudios agrega
complejidad al análisis.
Los modelos que se mencionan abajo relacionan el resultado
subyacente con los efectos de los tratamientos y covariables dentro
de una escala que es adecuada para el análisis particular (ej.: log de
un odds, cambio respecto del punto de referencia inicial (baseline) o
el log de un hazard rate). La distribución de probabilidad para los
resultados observados (ej.: binomial, normal) se especificaría por
separado. El análisis que se basa en estos modelos podría utilizar
métodos frecuentistas o Bayesianos, los cuales serán descritos
brevemente más adelante.
Meta-análisis de efectos fijos y de efectos aleatorios para estudios
clínicos con tratamientos AB. La ecuación 1 muestra el modelo de
efectos fijos para meta-análisis comparando el tratamiento B con el
tratamiento A.
njk refleja el resultado subyacente para el tratamiento k en el estudio j,
j representa este resultado para el tratamiento A en el estudio j, y d
es el efecto del tratamiento B con relación al tratamiento A. En un
análisis de efectos fijos, d es igual en cada estudio. En el modelo de
efectos aleatorios, la ecuación 2, δj reemplaza ad , donde δj es el
efecto específico del estudio clínico del tratamiento B con relación al
tratamiento A, y d se convierte en la media de la distribución
(generalmente normal) de efectos aleatorios, que tiene una varianza
de σ2.
Meta-análisis en red de efectos fijos. Cuando la red de evidencia
está compuesta por comparaciones de parejas multiples (es decir,
estudios AB, estudios AC, estudios BC y así sucesivamente), el
conjunto de comparadores generalmente varía entre estudios,
complicando la notación. Un enfoque etiqueta a los tratamientos A,
B, C, etc. y utiliza a A como el tratamiento comparador principal de
referencia dentro del análisis. En cada estudio se designa un
tratamiento b, como el tratamiento base (comparador). Las etiquetas
luego pueden asignarse a distintos tratamientos en la red de tal
manera que los tratamientos base sigan a A (y a B, C y así
sucesivamente) y los tratamientos “no base” sigan a todos los
tratamientos base en el alfabeto. En los diversos modelos, “luego” se
hace referencia a este orden alfabético. El modelo general de efectos
fijos dentro de un meta-análisis en red puede especificarse de la
siguiente manera:
Si k = b
Si k está ‘luego” de b
Donde jb es el resultado del tratamiento b en el estudio j, y dbk es el
efecto fijo del tratamiento k en relación con el tratamiento b. dbk está
identificado expresándolo en términos de efectos relativos al
tratamiento A (comparador): dbk = dAk – dAB con dAA = 0 (el orden de
los subíndices en dbk es convencional, pero contraintuitivo). Para los
efectos subyacentes, esta relación es una declaración de consistencia:
el efecto “directo” dbk y el efecto indirecto dAk – dAB son iguales.
En la comparación indirecta de tratamientos, A es el tratamiento
comparador principal de referencia y también el tratamiento base
para los ensayos AB y AC. El término “comparación indirecta
ajustada” ha sido aplicado a dichos análisis, pero es un término
inadecuado, debido a que la comparación no implica ningún ajuste en
ninguno de los sentidos usuales. Preferimos “comparación indirecta
anclada”; la comparación indirecta de B y C está anclada en A.
Meta-análisis en red de efectos aleatorios. Tal como se indica arriba,
el modelo de efectos aleatorios reemplaza a dbk con δjbk , el efecto
específico del ensayo del tratamiento k en relación con el tratamiento
b. Estos efectos específicos del ensayos se extraen a partir de una
distribución de efectos aleatorios: δjbk ~ N (dbk, σ2). Nuevamente, dbk
se identifica expresándolo en términos del tratamiento principal de
referencia, A. Este modelo supone la misma varianza de efectos
aleatorios σ2 para todas las comparaciones entre los tratamientos,
pero la restricción puede atenuarse. (Un modelo de efectos fijos
resulta si σ2 = 0.)
Si k = b
Si k está ‘luego” de b
Modelos de meta-regresión con interacciones de tratamiento por
covariable. Los modelos de meta-regresión incluyen covariables
dentro del estudio y brindan una manera de evaluar el punto hasta el
cual las covariables son responsables de la heterogeneidad de los
efectos mismos de los tratamientos. También pueden reducir el sesgo
y la inconsistencia entre comparaciones de diversos tratamientos
VALUE IN HEALTH 14(2011)4 29–437
cuando las covariables son distribuidas de manera desigual [13, 14].
Las covariables ingresan al modelo a través de la media de la
distribución de efectos aleatorios. El modelo que está debajo utiliza
valores dentro del estudio de una misma covariable, Xj, y permite que
su coeficiente, βbk, varíe entre las comparaciones [12]. Es una buena
idea promediar una covariable (ej.: en su promedio general), para que
los resultados sean más fáciles de interpretar.
Si k = b
Si k está ‘luego” de b
valores del parámetro son igualmente probables por lo que se
minimiza la influencia de la distribución previa sobre los resultados
posteriores. No obstante, cuando hay información disponible sobre el
parámetro (ej.: a partir de estudios observacionales o de un análisis
clínico previo), la distribución previa brinda una forma natural para
su incorporación.
Para un modelo de red de efectos aleatorios en el que la medición del
resultado es un logaritmo de oportunidades (log de odds), el análisis
Bayesiano tiene los siguientes componentes:
Verosimilitud:
Otros modelos pueden usar valores de la covariable para la
combinación de los estudios y los tratamientos. Una simplificación
del modelo que está arriba utiliza el mismo coeficiente para todas las
comparaciones:
Si k = b
Si k está ‘luego” de b
Si un modelo con una constante β es satisfactorio, las comparaciones
entre tratamientos (ajustados para la contribución de la covariable)
son directos, porque dAk – dAb se aplica a cualquier valor de la
covariable (dentro de un estudio o al nivel de cada estudio por
tratamiento). En el modelo con βbk, el ajuste para la covariable puede
mejorar la validez interna, pero el analista debe escoger un valor de X
en el cual se puedan realizar comparaciones entre distintos
tratamientos. La meta-regresión también tiene la desventaja de que la
relación entre el resultado y la covariable en los datos al nivel del
paciente pueden diferir, e incluso tener una dirección opuesta, de la
relación correspondiente dentro de los resultados obtenidos en cada
estudio.
Si la red incluye correctamente un ensayo de brazos múltiples,
omitirlos del análisis podría introducir sesgo. Entonces, el análisis
deberá tomar en cuenta la correlación entre las estimaciones de efecto
para los pares de grupos; algunos métodos pueden hacer esto más
fácilmente que otros. Es incorrecto analizar los efectos por pares en
un estudio clínico con múltiples grupos como si vinieran de estudios
separados. Este error es común; un ejemplo de lo anterior se muestra
en un informe de la Agencia Canadiense de Fármacos y Tecnologías
Sanitarias donde los datos ingresados para las tres comparaciones
directas dentro de un mismo estudio clínico con tres grupos
diferentes se analizan como tres estudios separados [15]. Salanti et al.
[16] ilustran el análisis que incorpora la correlación entre diversos
grupos.
Marco Conceptual del análisis: enfoque frecuentista versus
Bayesiano
Enfoque frecuentista. La etiqueta “frecuentista” se da a la mayoría
de los métodos estadísticos aplicados en la realización de
comparaciones, incluyendo las medias ponderadas con intervalos de
confianza (basados en una supuesta distribución normal) en metaanálisis de efectos fijos y de efectos aleatorios, y la estimación de
Mantel-Haenszel (ej: para una razón de probabilidades) (un
procedimiento de efectos fijos). En modelos tales como un metaanálisis en red y la meta-regresión, la estimación y la inferencia se
basan en alguna forma de máxima verosimilitud.
Enfoque Bayesiano. Los métodos Bayesianos combinan la
verosimilitud (aproximadamente, la probabilidad de los efectos como
una función de los parámetros) con una distribución previa de
probabilidad (que refleja la creencia previa de los valores posibles de
esos parámetros) con el propósito de obtener una distribución de
probabilidad posterior de los parámetros [17]. Las probabilidades
posteriores brindan una manera directa de hacer predicciones y la
distribución previa puede incorporar varias fuentes de incertidumbre.
Para los parámetros tales como los efectos del tratamiento, las
distribuciones previas que se utilizan generalmente no son solo
informativas. En el supuesto de que, antes de ver los datos, todos los
Modelo:
Si k = b
Si k está ‘luego” de b
A priori:
En la verosimilitud, el número observado de eventos para el
tratamiento k en el estudio j, rjk, tiene una distribución binomial
(independiente de otros tratamientos en el estudio j y de otros
estudios) cuya probabilidad de eventos es pjk, la cual se encuentra
descrita por el modelo. Los parámetros dentro de las distribuciones
de efectos aleatorios tienen distribuciones previas vagas: N (0,106)
para dAk (independientemente) y Uniforme (0, 2) para σ. Estos
distribuciones previas son opciones comunes dentro de dichos
modelos.
Diferencias. Dentro de la mayoría de los modelos, un análisis puede
seguir ya sea un enfoque frecuentista o un enfoque Bayesiano. En la
práctica actual, la mayoría de los meta-análisis para las
comparaciones directas utilizan métodos frecuentistas. Para los
modelos más complicados, particularmente los meta-análisis en red
que implican comparaciones mixtas de tratamientos, los métodos
Bayesianos han sido sometidos a un desarrollo mucho mayor,
facilitado por los avances en informática que apoyan su intensidad en
este ámbito y la necesidad de monitorear la convergencia por medio
de la distribución posterior. . Lumley [18] describió un enfoque de
máxima verosimilitud utilizando modelos lineales mixtos; sin
embargo, su método ha sido aplicado en relativamente pocos
artículos [19-21].
En resumen, un análisis frecuentista genera estimaciones puntuales e
intervalos de confianza. El típico análisis Bayesiano produce una
versión empírica de la distribución posterior conjunta de los
parámetros, desde el cual uno puede derivar medidas descriptivas
para los parámetros individuales, tal como la media posterior y un
“intervalo de confianza” (IC) (ej.: los criterios de 95% IC son los
percentiles 2.5 y 97.5 de la distribución posterior), como así también
distribuciones posteriores para las funciones de los parámetros (ej.:
las estimaciones de la probabilidad de que cada tratamiento sea el
mejor). Los ICs Bayesianos reflejan la incertidumbre en la
estimación de la heterogeneidad, mientras que los modelos
frecuentistas de efectos aleatorios no propagan tal incertidumbre.
Las elecciones de las distribuciones a priori son, hasta un cierto
punto, arbitrarias, por lo cual a menudo están sujetas a un análisis de
sensibilidad para explorar el efecto del uso de distribuciones a priori
inciertas. Por otro lado, algunos métodos frecuentistas implican
aproximaciones y supuestos que no se enuncian explícitamente ni se
verifican cuando se aplican los métodos. Por lo tanto, es sumamente
importante realizar un análisis de sensibilidad de los resultados de un
análisis Bayesiano sobre los supuestos previos y un informe
transparente de los supuestos que subyacen dentro de un análisis
frecuentista.
Validación de modelos
Evaluación de supuestos. Tal como se mencionó anteriormente, los
supuestos requieren de verificación. Al evaluar la verosimilitud, los
VALUE IN HEALTH 14(2011)4 29–437
investigadores pueden utilizar información estadística, pero deben
confiar principalmente en el criterio clínico acerca de si las
diferencias entre estudios pueden afectar a las comparaciones entre
tratamientos o pueden hacer que las comparaciones sean inadecuadas.
La evaluación de la homogeneidad y la consistencia (si la red es
compatible con comparaciones directas e indirectas) debe
especificarse como componente del análisis y debe reflejar los
riesgos y beneficios de combinar datos para la pregunta de
investigación seleccionada.
El debate que sigue a continuación revisa el estado actual de algunos
enfoques para examinar la homogeneidad y la consistencia.
Los meta-análisis comunes (especialmente realizados a través de
métodos frecuentistas) por lo general evalúan la heterogeneidad de
los efectos, como una base para elegir entre un procedimiento de
efectos fijos u otro de efectos aleatorios. Borenstein et al. [23]
recomiendan no considerar un modelo de efectos fijos como una
opción hipotética; explican que los modelos de efectos fijos y los
modelos de efectos aleatorios reflejan fundamentalmente distintos
supuestos sobre la distribución de las variables. Por lo tanto, la
elección debería reflejar si los estudios empleados comparten un
efecto común con los objetivos del análisis o no. Estos temas son
muy importantes en un meta-análisis en red. Cuando la información
acerca de la heterogeneidad dentro de las comparaciones directas está
disponible, la consideración de la misma puede formar un paso
preliminar en un meta-análisis en red, pero primero se deben
examinar los potenciales modificantes de los efectos, porque las
disparidades entre los estudios clínicos pueden excluir el análisis de
la red. Las medidas comunes de heterogeneidad en una comparación
directa utilizan las estimaciones de los estudios, yi (i = 1, …, k) sobre
el efecto y sus varianzas estimadas, si2, para formar la media
ponderada, yw = ( Σwiyiϓ (Σwi) donde wi = 1 / si2 (yw es la estimación
del efecto fijo sobre el efecto común). Luego, se calcula el
estadístico Q.
general. Lu y Ades [13] se concentraron en la estructura de las redes
y ampliaron un modelo Bayesiano jerárquico agregando un
parámetro para cada relación independiente de consistencia. Al
comparar los modelos con y sin dichos parámetros, se puede evaluar
la inconsistencia general, y las distribuciones posteriores de los
parámetros agregados los cuales muestran el grado de inconsistencia
de las diversas conexiones. Una evaluación gráfica puede utilizar el
diagrama de efecto de Lam y Owen [29] para examinar e identificar
la consistencia entre las estimaciones directas e indirectas. En el
campo Bayesiano jerárquico, Dias et al. [30] ampliaron el enfoque de
Bucher et al. [28] a las redes generales (pero sin usar evidencia
indirecta de ensayos con grupos múltiples), a través de la estimación
de una diferencia ponderada entre lo estimado dentro de la red y la
estimación directa. Al graficar las densidades posteriores de las
estimaciones directas, indirectas y en red, muestran cómo la
evidencia directa y la evidencia indirecta se combinan en la
estimación en red. Asimismo, para cada efecto que tiene evidencia
directa, Dias et al. [30] también dividieron la información en
información directa e indirecta y examinan la distribución a posteriori
de la diferencia entre las estimaciones directas e indirectas
resultantes. Los autores mencionados debaten cómo manipular los
estudios clínicos de grupos múltiples en este análisis.
Y, o bien se hace referencia a esto como la distribución de ji al
cuadrado con k - 1 grados de libertad o se cuantifica la
heterogeneidad en términos de la medición I2 = [Q – (k – 1) /Q [24].
I2
(generalmente expresado como un porcentaje) estima la
proporción de la variación total entre distintas estimaciones de
efectos a causa de la heterogeneidad: I2 < 30% se considera una
heterogeneidad leve, y I2 > 50%, heterogeneidad considerable. Deeks
et al. [25] debaten estrategias para solucionar el tema de la
heterogeneidad. Es importante examinar los efectos gráficamente
para identificar la presencia de grupos y valores atípicos; estas
mediciones numéricas o pruebas sólo deberían tener un rol
secundario [9, 26]. Durante mucho tiempo se ha conocido que la
aproximación por medio de muestras grandes para la distribución de
Q es imprecisa para estimar muestras de tamaños moderados. Por
ende, el uso de Q para evaluar la homogeneidad debe abandonarse
para emplear pruebas más precisas [27].
Se genera una desviación en la consistencia cuando las estimaciones
directas e indirectas de un efecto varían (ej.: la estimación directa de
dBC no equivale a la estimación indirecta obtenida de dAC - dAB). Los
tratamientos involucrados (y sus comparadores) deben pertenecer a
un bucle dentro la red de evidencia. Por ende, la consistencia es una
propiedad de dicho bucle más que de las comparaciones individuales
que se realicen. Los investigadores deben evaluar las desviaciones de
la consistencia y determinar de qué manera las mismas deben ser
interpretadas. Salanti et al. [16] brindan una orientación mucho más
valiosa. La mayoría de las agencias a las cuales podrían enviarse los
resultados de un meta-análisis en red actualmente exigen que las
estimaciones directas y las estimaciones indirectas se calculen por
separado y que sean consistentes antes de combinar la evidencia
directa con la evidencia indirecta.
Los métodos para evaluar la consistencia han estado sometidos a una
investigación constante. En una red que contiene un solo bucle (y
ningún estudio clínico con grupos múltiples) Bucher et al. [28]
compararon la estimación indirecta del efecto de un tratamiento con
la correspondiente estimación directa (la prueba resultante de
consistencia, no obstante, tiene fallas que la vuelven poco confiable).
Para las redes de estudios de dos grupos que contienen bucles,
Lumley [18] introdujo un modelo frecuentista que utiliza un
parámetro de varianza para resumir la inconsistencia en la red en
Análisis de sensibilidad. Los análisis de sensibilidad deberían
concentrarse en las áreas de mayor incertidumbre. Los modificadores
potenciales de los efectos pueden explorarse estratificando las
variaciones en el diseño o la población del estudio. Las
comparaciones entre los análisis de efectos fijos y los análisis de
efectos aleatorios pueden ser adecuados de implementar. Dentro de
los análisis Bayesianos también se debe explorar la influencia de
elegir distintas distribuciones previas.
Evaluación del ajuste del modelo. En los análisis frecuentistas, las
mediciones de ajuste del modelo son similares a los de la evidencia
directa y depende de la estimación del resultado en particular. Los
análisis Bayesianos generalmente usan la– desviación (una medición
basada en la verosimilitud); cuanto menor sea el valor de la
desviación residual, mejor será el ajuste. Para comparar modelos, el
criterio de desviación de la información (DIC por su sigla en inglés)
se agrega un término de penalización, igual al número efectivo de
parámetros en el modelo [31]. Si un modelo se ajusta
incorrectamente, las técnicas gráficas pueden ayudar a realizar un
análisis más apropiado.
Lista de verificación sobre buenas prácticas de
investigación
Las prácticas de realización e informe de revisiones sistemáticas y
meta-análisis han sido tema de debate desde mediados de 1980 y han
estado sujetas a guías y recomendaciones, más recientemente, la
declaración PRISMA [6]. Como los estudios de meta-análisis en red
tienen muchas características en común con las revisiones
sistemáticas y los meta-análisis, recomendamos que se respeten todas
las secciones correspondientes dentro de la lista de verificación
PRISMA. Además, la Tabla 2 complementa la lista de verificación
mostrada en la Parte 1 [1] destacando los componentes clave de los
estudios de meta-análisis en red, las áreas en las cuales tienen
requisitos diferentes (a menudo adicionales) y los desarrollos
recientes. La intención de esta lista es utilizarla a la luz de la
investigación continua y dinámica sobre los meta-análisis en red. Los
métodos mejorados y su aplicación generarán cambios en la lista de
verificación en el futuro.
Ejemplos ilustrativos
Los análisis separados de una parte de los datos de dos meta-análisis
extensos ilustran las comparaciones indirectas en red (tanto en los
enfoques frecuentistas como Bayesianos) y de meta-análisis en red.
Esta sección también habla acerca de los softwares disponibles.
Stettler et al. [32] informaron sobre un meta-análisis en red
colaborativo de resultados asociados con dos stents liberadores de
medicamentos (el stent que libera paclitaxel [PES] y el stent que
libera sirolimus [SES]) y los stents de metal sin recubrir (BMS). La
VALUE IN HEALTH 14(2011)4 29–437
Tabla 2 – Lista de verificación de buenas prácticas de investigación para realizar e informar estudios de meta-análisis en red
Ítem de la lista de verificación
Estrategias de búsqueda
Recomendación(es)



Recolección de datos



Plan de análisis estadístico


Análisis de datos



Informes




Siga las guías convencionales sobre revisiones sistemáticas de la literatura, sea explícito sobre los términos de búsqueda,
la bibliografía y los períodos de tiempo para evitar el uso de datos ad hoc
Considere métodos iterativos de búsqueda para identificar comparaciones indirectas de mayor orden que no aparezcan en
la búsqueda inicial que apunta a las comparaciones indirectas de orden inferior
Establezca una conjunto de evidencias que demuestre vínculos directos e indirectos entre tratamientos, en base a los
informes de estudios identificados
Siga las guías convencionales para la recolección de datos; utilice un protocolo pre-especificado y un formulario de
extracción de datos
Incluya suficiente detalles del estudio en la extracción de datos para permitir la evaluación de comparabilidad y
homogeneidad (ej.: características del estudio y de los pacientes, comparadores y medidas de los resultados)
Prepare un plan de análisis estadístico antes del análisis de los datos, pero permita modificaciones y adaptaciones durante
el análisis de datos, si es necesario
Brinde descripciones paso a paso de todos los análisis, incluyendo declaraciones explícitas de todos los supuestos y
procedimientos para ser verificados de forma posterior
Describa las características analíticas específicas del meta-análisis en red, incluyendo comparabilidad y homogeneidad,
síntesis, análisis de sensibilidad, análisis de sub-grupos y meta-regresión, y resultados especiales
Siga las guías convencionales para el diagnóstico de modelos estadísticos
Evalúe las desviaciones a los supuestos de similaridad y consistencia en la red de evidencia
Si la homogeneidad o la consistencia son un problema, considere usar modelos de meta-regresión con interacciones de
tratamiento por covariable para reducir el sesgo
Siga la guía PRISMA para informar el meta-análisis
Indique explícitamente las preguntas de investigación del estudio (ej.: en la sección Introducción o en la sección
Objetivos del informe)
Suministre un gráfico de la red de evidencia
Indique el paquete de software utilizando en el análisis y suministre el código (al menos en un apéndice en línea)
búsqueda bibliográfica arrojó 7 ECAC que comparaban a PES con
BMS, 15 ECAC que comparaban a SES con BMS, 14 ECAC que
comparaban a SES con PES y 1 ECAC que comparaba a los tres.
Sus análisis acerca de la mortalidad general y otros aspectos de
seguridad es un ejemplo que instruye acerca de los modelos de
efectos aleatorios Bayesianos para los méta análisis en red que
implican varias etapas de seguimiento [33]. Este ejemplo se enfoca
en la tasa, a 1 año, de revascularización de lesiones objetivo (TRL),
un criterio de efectividad secundario que implica una posterior
intervención percutánea.
El Apéndice de este artículo (que se encuentra en
doi.10.1016/j.jval.2011.01.011) da los detalles del análisis Bayesiano
de la revascularización de lesiones objetivo en la escala del logaritmo
de la razón de momios: los meta-análisis directos de PES versus
BMS, SES versus BMS y PES versus SES; las comparaciones
indirectas por separado; las comparaciones del meta-análisis en red;
y el código de WinBUGS y los parámetros analizados.
El - forest plot en la Figura 1 muestra los datos de los estudios que
compararon a PES con SES, los OR específicos del estudio para PES
versus SES (del análisis Bayesiano, y cinco estimaciones del OR
general: tradicional de efectos fijos por pares (utilizando el método
Mantel-Haenszel), tradicional de efectos aleatorios por pares (usando
el método DerSimonian-Laird), Bayesiano directo, Bayesiano
indirecto y Bayesiano en red (Fig. 3 del Apéndice, que se encuentra
en doi:101016/j.jval.2011.01.011, muestra OR para SES versus PES).
Para facilitar las comparaciones, la Tabla 3 presenta las estimaciones.
Las estimaciones tradicionales de efectos fijos y de efectos aleatorios
y sus intervalos de confianza del 95% difieren muy poco: 1.39 (1.17
a 1.66) y 1.38 (1.16 a 1.65). El intervalo hallado por el método de
efectos aleatorios no es más ancho, porque la heterogeneidad
estimada es pequeña (I2 = 0.74%).
Para realizar una estimación indirecta anclada del OR para PES
versus SES, utilizando las estimaciones directas de PES versus BMS
y SES versus BMS, es necesario excluir el estudio de tres grupos (o
realizar un cálculo más complicado que reconozca las contribuciones
de dicho estudio a ambas estimaciones directas). La columna de la
derecha de la Tabla 2 indica las estimaciones sin el estudio de tres
grupos. Las estimaciones indirectas de efectos fijos y de efectos
aleatorios son similares, 1.74 (1.28 a 2.36) y 1.70 (1.09 a 2.65) y son
considerablemente más altas que sus contrapartes directas. El
intervalo de confianza para la estimación indirecta de efectos
aleatorios es considerablemente más ancho que el de la estimación de
efectos fijos, y ambos son considerablemente más anchos que los de
las estimaciones directas. Todos los intervalos de confianza son lo
suficientemente amplios de modo que se requiere de un análisis
posterior para evaluar la consistencia entre las estimaciones indirectas
y las estimaciones directas.
Las tres estimaciones Bayesianas, 1.55 (1.17 a 2.05), 1.60 (0.98 a
2.47) y 1.55 (1.22 a 1.96) son similares y algo más altas que las
estimaciones tradicionales de efectos fijos y de efectos aleatorios. La
estimación indirecta tiene el intervalo de confianza más ancho. Lo
más importante es que, la estimación del meta-análisis de Bayesiano
en red tiene un intervalo de confianza un poco más pequeño que la
estimación directa Bayesiana, como consecuencia de tomar en cuenta
toda la evidencia de la red. Concluiríamos con dicha estimación en,
1.55 (1.22 a 1.96) como la razón de momios de PES versus SES.
Para encontrar información más detallada de algunos aspectos del
meta-análisis en red (ej.: la correlación entre estimaciones y la
probabilidad de que un tratamiento sea el mejor), revisar dentro del
Apéndice (que se encuentra en doi: 10.1016/j.jval.2011.01.011)
donde también se analizan los resultados de una red de 112 ECAC
que compararon (de manera general) la eficacia de 12 antidepresivos
de nueva generación para el tratamiento de fase aguda de la depresión
mayor unipolar [34].
Software
Para el ejemplo mencionado arriba se utilizó WinBUGS para los
distintos análisis Bayesianos [35]. Otro software de utilidad para el
análisis Bayesiano incluye OpenBUGS [36]. La versión 9.2 de SAS
[37] incluye un procedimiento para la generar cadenas de Markov y
Monte Carlo, pero los ejemplos en la documentación aparentemente
no incluyen actualmente aplicaciones sobre meta-análisis. Los
enfoques frecuentistas han sido desarrollados por Lumley [18] en R
usando modelos lineales mixtos y también los mismos son viables en
SAS utilizando PROC NLMIXED [38].
Áreas de investigación a futuro
La investigación ha producido un cuerpo considerable de métodos
para el meta-análisis en red, pero ciertos temas se beneficiarían si se
les investigara aún más. En esta sección tratamos a ocho de ellos,
consistentemente, en orden de prioridad.
Ajustes para mejorar la homogeneidad de estudios y la evaluación
empírica de su beneficio
Los pacientes estudiados en los diversos estudios pueden no ser
comparables. Si estas diferencias entre ensayos son modificantes de
los efectos de un tratamiento, una comparación indirecta se
encontraría sesgada [39]. Además, en un meta-análisis en red, los
distintos tipos de comparaciones pueden ser inconsistentes [12].
VALUE IN HEALTH 14(2011)4 29–437
Como la cantidad de estudios a menudo es limitada, el ajuste
realizado a través de la incorporación de covariables mediante los
enfoques "convencionales” de meta-regresión pueden ser no
suficientes [38-40]. Además, los informes limitados o inconsistentes
de las covariables del estudio (o los efectos para los niveles de un
posible modificador de efecto) complican el análisis. Los estudios
futuros deberían examinar el valor de los métodos existentes para
mejorar la comparabilidad de los estudios, como así también el nivel
de consistencia en el informe de las covariables al nivel del estudio.
Estructura y propiedades de las redes
Para explorar la geometría de las redes de tratamiento para cuatro o
más intervenciones, Salanti et al. [2] utilizaron dos mediciones de la
literatura ecológica, diversidad y co-ocurrencia. La diversidad
caracteriza al número de intervenciones y, para un conjunto de redes
con la misma cantidad de intervenciones, la distribución de la
frecuencia de intervenciones. La co- ocurrencia mide la aparición de
combinaciones específicas por pares para las intervenciones. Estas
específicas. No obstante, no se sabe si éstas son las mejores
mediciones para caracterizar redes de evidencia, o cómo se
correlacionan con las estimaciones de efecto, heterogeneidad,
similaridad o consistencia.
Métodos para verificar el supuesto de consistencia
Tal como se mencionó anteriormente, se han desarrollado diversos
enfoques, incluyendo a las representaciones gráficas, para evaluar la
consistencia de los meta-análisis en red. Salanti et al. [16] y Dias et
al. [30] han debatido acerca de las debilidades y fortalezas de estos
enfoques. Se necesita de más investigación para mejorar la
comprensión de estos métodos y motivar su uso. Como destacan
Salanti et al. [16], una medición de inconsistencia análoga a I 2 sería
algo muy interesante de incorporar.
Resultados múltiples
Los meta-análisis que consideran resultados múltiples generalmente
lo hacen en análisis separados. No obstante, intuitivamente, como
Fig. 1 – Diagrama de efectos para la comparación de PES versus SES, mostrando los datos de los estudios individuales, y para la
medida: razón de momios (OR), las estimaciones por pares de efectos fijos (Mantel-Haenszel) y por pares de efectos aleatorios
(DerSimonian-Laird) y los resultados del meta-análisis Bayesiano en red de evidencia directa, indirecta y combinada.
medidas permiten 1) comparar redes de distintos tamaños dentro de
una forma particular de cada red, y 2) señalizar la presencia de sesgos
potenciales en la evaluación o informar sobre comparaciones
generalmente los “criterios múltiples" están correlacionados, un
análisis simultáneo que tome en cuenta su correlación debería agregar
eficiencia y precisión” [41]. Si bien este enfoque ha recibido una
VALUE IN HEALTH 14(2011)4 29–437
atención considerable en los últimos años [42, 44], aún no se ha
extendido al meta-análisis en red para los estudios que han analizado
criterios múltiples [45].
Lu et al. [33] ilustraron cómo combinar resultados obtenidos en
distintos puntos de tiempo; estos métodos se pueden extender para
estimar los efectos del tratamiento en múltiples momentos utilizando
la red para cada periodo y la correlación entre observaciones. Esto
sería beneficioso para los modelos de costo-efectividad donde las
probabilidades de transición varían con el correr del tiempo.
Históricamente, los encargados de realizar meta-análisis han
combinado estudios utilizando una medición descriptiva común (ej.:
cambio de la media respecto del valor inicial de referencia) y han
excluido estudios que presentaban la misma medición de una manera
ligeramente diferente (ej.: diferencia entre las medias).
Recientemente se han propuesto métodos para combinar mediciones
descriptivas alternativas, con el objetivo de minimizar el sesgo
potencial en la selección o informe: Welton et al. [46] presentaron
distintos métodos para combinar el cambio de la media respecto del
valor inicial y los datos de la diferencia de la media de distintos
Tabla 3 – Estimaciones (con un intervalo de confianza o intervalo creíble
del 95%) de la razón de posibilidades para PES versus SES en la
revascularización de lesiones diana a 1 y, usando datos que incluyen y
excluyen el ensayo de tres grupos (BASKET).
Enfoque
Todos los ensayos
Omitiendo el ensayo de
tres grupos
Efectos fijos en pares
1.39 (1.17 a 1.66)
1.45 (1.21 a 1.74)
(Mantel-Haenszel)
Efectos aleatorios en
1.38 (1.16 a 1.65)
1.43 (1.19 a 1.73)
pares (DerSimonianLaird)
Bayesiano directo
1.55 (1.17 a 2.05)
1.51 (1.16 a 1.97)
Bayesiano indirecto
1.60 (0.98 a 2.47)
1.80 (1.14 a 2.73)
Meta-análisis Bayesiano
1.55 (1.22 a 1.96)
1.57 (1.26 a 1.96)
en red
Efectos fijos anclado
1.74 (1.28 a 1.96)
indirecto
PES versus BMS
0.40 (0.32 a 0.49)
SES versus BMS
0.23 (0.18 a 0.28)
Efectos aleatorios anclado
1.70 (1.09 a 2.65)
indirecto
PES versus BMS
0.39 (0.28 a 0.54)
SES versus BMS
0.23 (0.17 a 0.31)
BMS, stent de metal sin recubrir; PES, stent liberador de paclitaxel; SES, stent
liberador de sirolimus
estudios, y Woods et al. [47] presentaron métodos para combinar los
datos binarios de la mortalidad con los datos de la razón de riesgos
provenientes de distintos estudios en un mismo análisis.
Dichos enfoques reciben más estudios que los análisis separados para
cada medición descriptiva y también maximizan la conectividad de la
red. Los organismos de evaluación de tecnologías sanitarias, como el
Instituto Nacional de Salud y Excelencia Clínica (NICE), pueden
considerar el uso de una única medición descriptiva (y, por lo tanto,
la exclusión de ciertos estudios) como un sesgo potencial de la
selección, e insistir en incluir varias mediciones descriptivas del
mismo criterio dentro de un único análisis, si éstas están disponibles
[46, 48]. Se necesita seguir explorando acerca de cómo combinar
distintas mediciones descriptivas del mismo criterio.
¿Cómo controlar la heterogeneidad con pocos estudios para cada
intervención?
Muchos meta-análisis en red involucran pocos estudios para emplear
el modelo de efectos aleatorios [8] o la meta-regresión [12]. El
exceso de especificación que resulta de ello (es decir, la cantidad de
parámetros a estimar excede la cantidad de estudios) lo cual puede
obligar al meta-analista a utilizar un modelo de efectos fijos cuando
está presente la heterogeneidad. Cooper et al. [12] propuso modelos
alternativos de efectos aleatorios que incorporan el ajuste de
covariables capaz de mitigar el exceso de especificación,
dependiendo de la distribución de las interacciones. En el marco
Bayesiano, el uso de distribuciones informativas a priori para el
parámetro de heterogeneidad podría generar un compromiso entre los
modelos de efectos fijos y de efectos aleatorios. Estos métodos
necesitan explorarse con mayor profundidad.
Tamaño de la red: espacio de la evidencia versus espacio de la
decisión
El profesional puede preguntar, "¿existe una forma directa de decidir
sobre el tamaño de una red? ¿Existe un tamaño óptimo? ¿Qué tamaño
es suficiente?” El tamaño implica la cantidad de estudios y la
cantidad de tratamientos. Si la cantidad de estudios es demasiado
pequeña, un análisis no puede usar un modelo de efectos aleatorios ni
de meta-regresión. No obstante, incluir demasiados estudios puede
aumentar el nivel de inconsistencia, lo cual potencialmente puede
provocar un sesgo por confusión. Por otro lado, un tratamiento
establecido puede haber sido incluido en demasiados estudios. El
tamaño de la red depende del tipo de terapias y tratamiento [33], los
comparadores, la incertidumbre, el tamaño de la muestra, la
homogeneidad, la calidad de la información y la población exacta de
pacientes [39]. Además, pareciera que el tamaño de la red debería
depender del nivel esperado de confusión. Si bien los métodos
pueden ser responsables de la inconsistencia y un análisis de
sensibilidad puede evaluar la robustez de los resultados derivados de
una red en particular, quedan muchos problemas en lo que respecta a
definir la mejor red y decidir acerca del tamaño de la red. Incluir
todos los resultados relevantes debería justificarse para minimizar la
inconsistencia y la heterogeneidad entre estudios y poblaciones. Las
mejoras en la transparencia en el desarrollo de redes y en el uso de
meta-análisis en red ayudarían a los no especialistas (como los
encargados de la toma de decisiones en materia de salud) a entender
el proceso, la metodología y los hallazgos del estudio [39, 49]. Sutton
et al. [49] sugirieron que la orientación para desarrollar una red
robusta podría basarse en la opinión de expertos clínicos o en las
consideraciones estadísticas/económicas de eficiencia o costoefectividad acerca de las ventajas de ampliar la red. Estos temas
requieren de una mayor elaboración y posiblemente de un conjunto
de criterios estandarizados.
Datos individuales de los pacientes en el meta-análisis en red
Los meta-análisis de los resultados individuales de los pacientes
(RIP) son considerados el estándar de referencia, ya que brindan la
oportunidad de explorar diferencias en los efectos entre subgrupos
[50, 51]. De modo similar, el meta-análisis en red basado en los RIP
puede considerarse superior. Cuando hay RIP disponibles, los
modelos de meta-regresión generalmente tienen el poder suficiente
para evaluar la heterogeneidad y mejorar la consistencia. Además de
un ajuste potencialmente cuestionable, los ajustes basados en las
covariables a nivel general pueden producir un sesgo ecológico [52].
Este problema puede evitarse usando RIP, o minimizarse usando RIP
para un subconjunto de estudios [53]. El valor agregado de usar RIP
en el meta-análisis en red debería evaluarse con mayor profundidad
para desarrollar recomendaciones sobre su relevancia y practicidad.
Mayor desarrollo de métodos frecuentistas
Para el meta-análisis en red en algunas redes de evidencia más
complejas, especialmente en aquellas que involucran estudios de
múltiples grupos, los métodos frecuentistas tienen un desarrollo
inferior y son menos accesibles que sus contrapartes Bayesianas.
Un desarrollo mayor beneficiaría a los usuarios que prefieren los
métodos frecuentistas. Los enfoques potenciales incluyen
distribuciones de confianza e intervalos de confianza basados en
puntaje [54, 55]. Además, varios métodos ampliamente utilizados
para el meta-análisis dependen de aproximaciones o supuestos. Por
ejemplo, la estimación de efectos fijos y la estimación de efectos
aleatorios del efecto del tratamiento (medias ponderadas) supone que
las ponderaciones basadas en varianzas estimadas de los efectos al
nivel del estudio están lo suficientemente cerca de las ponderaciones
basadas en varianzas ciertas, y que las varianzas estimadas no están
correlacionadas con sus efectos estimados. Los métodos de efectos
fijos y de efectos aleatorios a menudo no son satisfactorios,
especialmente cuando los tamaños de las muestras de algunos
estudios individuales son modestos [56, 59]. Es necesario realizar una
revisión exhaustiva de la evidencia empírica.
Conclusión
Este artículo, la segunda parte del informe del Grupo de Trabajo,
describe las pautas generales de mejor práctica para los profesionales
interesados en realizar meta-análisis en red. Se presentan los métodos
VALUE IN HEALTH 14(2011)4 29–437
estadísticos fundamentales y los mismos son respaldados con
ejemplos que sugieren modos de presentar resultados frente a
audiencias no especializadas. Las técnicas no siempre son aplicables
y pueden estar sujetas a los sesgos y limitaciones que son debatidos
dentro de este informe. El hecho de no respetar los supuestos de
homogeneidad y consistencia puede hacer que los resultados sean
cuestionables. En el caso de que sean aplicables las técnicas, se debe
tener cuidado y transparencia, y recomendamos adherirse a nuestra
lista de verificación. La estandarización de los métodos mejoraría la
credibilidad y aplicabilidad generales de las comparaciones indirectas
de tratamientos y meta-análisis en red. Finalmente, la investigación
continua en muchas áreas debería generar revisiones periódicas de las
actuales recomendaciones en esta materia.
Material complementario
Se puede encontrar material complementario a este artículo en la
versión en línea, misma que se encuentra en
doi:
10.1016/j.jval.2011.01.011, en www.valueinhealthjournal.com/issues
(seleccionar volumen, número y artículo).
REFERENCIAS
[1] Jansen JP, Fleurence R, Devine B, et al. Interpreting indirect treatment comparisons &
network meta-analysis for health care decision-making: Report of the ISPOR Task Force on
Indirect Treatment Comparisons Good Research Practices—part 1. Value Health
2011;14:XX–XX.
[2] Salanti G, Kavvoura FK, Ioannidis JP. Exploring the geometry of treatment networks.
Ann Intern Med 2008;148:544–53.
[3] Sutton AJ, Abrams KR, Jones DR, et al. Methods for Meta-Analysis in Medical Research.
Chichester, UK: John Wiley & Sons, Ltd., 2000.
[4] Higgins JPT, Green S. Cochrane Handbook for Systematic Reviews of Interventions.
Chichester, UK: John Wiley & Sons, Ltd., 2008.
[5] Borenstein M, Hedges LV, Higgins JPT, Rothstein HR. Introduction to Meta-Analysis.
Chichester, UK: John Wiley & Sons, Ltd., 2009.
[6] Moher D, Liberati A, Tetzlaff J, Altman DG. Preferred reporting ítems for systematic
reviews and meta-analyses: the PRISMA statement. Ann Intern Med 2009;151:264–9.
[7] Hawkins N, Scott DA, Woods B. How far do you go? Efficient searching for indirect
evidence. Med Decis Making 2009;29:273–81.
[8] Hawkins N, Scott DA, Woods BS, Thatcher, N. No study left behind: a network metaanalysis in non-small-cell lung cancer demonstrating the importance of considering all
relevant data. Value Health 2009;12: 996–1003.
[9] Fu R, Gartlehner G, Grant M, et al. Conducting quantitative synthesis when comparing
medical interventions: AHRQ and the Effective Health Care Program. [publicado en octubre
de 2010]. Disponible en: http://effectivehealthcare.ahrq.gov/. [acceso el 20 de noviembre
de 2010].
[10] Song F, Loke YK, Walsh T, et al. Methodological problems in the use of indirect
comparisons for evaluating healthcare interventions: survey of published systematic
reviews. BMJ 2009;338:b1147.
[11] Lu G, Ades AE. Combination of direct and indirect evidence in mixed treatment
comparisons. Stat Med 2004;23:3105–24.
[12] Cooper NJ, Sutton AJ, Morris D, et al. Addressing between-study heterogeneity and
inconsistency in mixed treatment comparisons: application to stroke prevention
treatments in individuals with nonrheumatic atrial fibrillation. Stat Med 2009;28:1861–81.
[13] Lu G, Ades AE. Assessing evidence inconsistency in mixed treatment comparisons. J
Am Stat Assoc 2006;101:447–59.
[14] Thompson SG, Smith TC, Sharp SJ. Investigating underlying risk as a source of
heterogeneity in meta-analysis. Stat Med 1997;16:2741–58.
[15] Wells GA, Sultan SA, Chen L, et al. Indirect Evidence: Indirect Treatment Comparisons
in Meta-Analysis. Ottawa, Canada: Canadian Agency for Drugs and Technologies in Health,
2009.
[16] Salanti G, Higgins JP, Ades AE, Ioannidis JP. Evaluation of networks of randomized
trials. Stat Methods Med Res 2008;17:279–301.
[17] Sutton AJ, Abrams KR. Bayesian methods in meta-analysis and evidence synthesis.
Stat Methods Med Res 2001;10:277–303.
[18] Lumley T. Network meta-analysis for indirect treatment comparisons. Stat Med
2002;21:2313–24.
[19] van der Valk R, Webers CA, Lumley T, et al. A network meta-analysis combined direct
and indirect comparisons between glaucoma drugs to rank effectiveness in lowering
intraocular pressure. J Clin Epidemiol 2009;62:1279–83.
[20] Elliott WJ, Meyer PM. Incident diabetes in clinical trials of antihypertensive drugs: a
network meta-analysis. Lancet 2007;369:201–7.
[21] Psaty BM, Lumley T, Furberg CD, et al. Health outcomes associated with various
antihypertensive therapies used as first-line agents: a network meta-analysis. JAMA
2003;289:2534–44.
[22] Lambert PC, Sutton AJ, Burton PR, et al. How vague is vague? A simulation study of the
impact of the use of vague prior distributions in MCMC using WinBUGS. Stat Med
2005;24:2401–28.
[23] Borenstein M, Hedges LV, Higgins JPT, Rothstein HR. A Basic introduction to fixedeffect and random-effects models for metaanalysis. Res Synthesis Methods 2010;1:97–
111.
[24] Higgins JP, Thompson SG. Quantifying heterogeneity in a metaanalysis. Stat Med
2002;21:1539–58.
[25] Deeks JJ, Higgins JPT, Altman DG. Analysing data and undertaking meta-analyses. In:
Higgins JPT, Green S, eds., Cochrane Handbook for Systematic Reviews of Interventions.
Chichester, UK: John Wiley & Sons, Ltd., 2008.
[26] Rücker G, Schwarzer G, Carpenter JR, Schumacher M. Undue reliance on I2 in assessing
heterogeneity may mislead. BMC Med Res Methodol 2008;8:79.
[27] Kulinskaya E, Dollinger MB, Bjørkestøl K. Testing for homogeneity in meta-analysis I.
The one-parameter case: standardized mean difference. Biometrics 2011;67:203–12.
[28] Bucher HC, Guyatt GH, Griffith LE, Walter SD. The results of direct and indirect
treatment comparisons in meta-analysis of randomized controlled trials. J Clin Epidemiol
1997;50:683–91.
[29] Lam SKH, Owen A. Combined resynchronisation and implantable defibrillator therapy
in left ventricular dysfunction: Bayesian network meta-analysis of randomised controlled
trials. BMJ 2007;335:925.
[30] Dias S, Welton NJ, Caldwell DM, Ades AE. Checking consistency in mixed treatment
comparison meta-analysis. Stat Med 2010;29:932–44.
[31] Spiegelhalter DJ, Best NG, Carlin BP. Bayesian measures of model complexity and fit. J
R Stat Soc Series B Stat Methodol 2002;64:583–616.
[32] Stettler C, Wandel S, Allemann S, et al. Outcomes associated with drug-eluting and
bare-metal stents: a collaborative network metaanalysis. Lancet 2007;370:937–48.
[33] Lu G, Ades AE, Sutton AJ, et al. Meta-analysis of mixed treatment comparisons at
multiple follow-up times. Stat Med 2007;26:3681–99.
[34] Cipriani A, Furukawa TA, Salanti G, et al. Comparative efficacy and acceptability of 12
new-generation antidepressants: a multipletreatments meta-analysis. Lancet
2009;373:746–58.
[35] Spiegelhalter DJ, Thomas A, Best NG, Lunn D. WinBUGS User Manual, Version 1.4.
Cambridge, UK: MRC Biostatistics Unit, 2002.
[36] OpenBUGS. Available from: www.openbugs.info. [acceso el 6 de diciembre de 2010].
[37] SAS Institute Inc. SAS/STAT User’s Guide, version 9.2. Cary, NC: SAS Institute Inc.,
2008.
[38] Glenny AM, Altman DG, Song F, et al. Indirect comparisons of competing interventions.
Health Technol Assess 2005;9(26).
[39] Jansen JP, Crawford B, Bergman G, Stam W. Bayesian meta-analysis of multiple
treatment comparisons: an introduction to mixed treatment comparisons. Value Health
2008;11:956–64.
[40] Berlin JA, Santanna J, Schmid CH, et al. Individual patient- versus group-level data
meta-regressions for the investigation of treatment effect modifiers: ecological bias rears
its ugly head. Stat Med 2002;21: 371–87.
[41] Berkey CS, Hoaglin DC, Mosteller F, Colditz GA. A random-effects regression model for
meta-analysis. Stat Med 1995;14:395–411.
[42] van Houwelingen HC, Arends LR, Stijnen T. Advanced methods in meta-analysis:
multivariate approach and meta-regression. Stat Med 2002;21:589–624.
[43] Nam I-S, Mengersen K, Garthwaite P. Multivariate meta-analysis. Stat Med
2003;22:2309–33.
[44] Riley RD, Abrams KR, Lambert PC, et al. An evaluation of bivariate random-effects
meta-analysis for the joint synthesis of two correlated outcomes. Stat Med 2007;26:78–97.
[45] Welton NJ, Caldwell DM, Adamopoulos E, Vedhara K. Mixed treatment comparison
meta-analysis of complex interventions: psychological interventions in coronary heart
disease. Am J Epidemiol 2009;169:1158–65.
[46] Welton NJ, Cooper NJ, Ades AE, et al. Mixed treatment comparison with multiple
outcomes reported inconsistently across trials: evaluation of antivirals for treatment of
influenza A and B. Stat Med 2008;27:5620–39.
[47] Woods BS, Hawkins N, Scott DA. Network meta-analysis on the loghazard scale,
combining count and hazard ratio statistics accounting for multi-arm trials: a tutorial. BMC
Med Res Methodol 2010;10:54.
[48] Burch J, Paulden M, Conti S, et al. Antiviral drugs for the treatment of influenza: a
systematic review and economic evaluation. Health Technol Assess 2009;13(58).
[49] Sutton A, Ades AE, Cooper N, Abrams K. Use of indirect and mixed treatment
comparisons for technology assessment. Pharmacoeconomics 2008;26:753–67.
[50] Stewart LA, Clarke MJ. Practical methodology of meta-analyses (overviews) using
updated individual patient data. Stat Med 1995;14: 2057–79.
[51] Sutton AJ, Higgins JPT. Recent developments in meta-analysis. Stat Med 2008;27:625–
50.
[52] Greenland S, Morgenstern H. Ecological bias, confounding, and effect modification. Int
J Epidemiol 1989;18:269–74.
[53] Lambert PC, Sutton AJ, Abrams KR, Jones DR. A comparison of summary patient-level
covariates in meta-regression with individual patient data meta-analysis. J Clin Epidemiol
2002;55:86–94.
[54] Xie M, Singh K, Strawderman WE. Confidence distributions and a unifying framework
for meta-analysis. J AmStat Assoc 2011;106:320–33.
[55] Agresti A. Score and pseudo-score confidence intervals for categorical data analysis.
Stat Biopharm Res In press.
[56] Brockwell SE, Gordon IR. A comparison of statistical methods for meta-analysis. Stat
Med 2001;20:825–40.
[57] Sánchez-Meca J, Márin-Martínez F. Confidence intervals for the overall effect size in
random-effects meta-analysis. Psychol Methods 2008;13:31–48.
[58] Jackson D. The significance level of the standard test for a treatment effect in metaanalysis. Stat Biopharm Res 2009;1:92–100.
[59] Shuster JJ. Empirical vs natural weighting in random effects metaanalysis. Stat Med
2010;29:1259–65; commentary and reply, 1266–81.
Descargar