Volumen 6 • Número 1 • 2003 VA L U E I N H E A LT H Principios de Buenas Prácticas en el Desarrollo de Modelos Analíticos para la Toma de Decisiones en las Evaluaciones de Atención en Salud: Informe del Grupo de Trabajo de ISPOR sobre Buenas Prácticas en Investigación – Estudios de modelación Autores: Milton C.Weinstein, PhD,1 Bernie O’Brien, PhD,2 John Hornberger, MD, MS,3 Joseph Jackson, PhD,4 Magnus Johannesson, PhD,5 Chris McCabe, MSc,6 Bryan R. Luce, PhD7 1 Center for Risk Analysis, Harvard School of Public Health, Boston, MA, EE.UU., y Innovus Research, Inc., Medford, MA, EE.UU; 2 Department of Clinical Epidemiology and Biostatistics, McMaster University, Hamilton, Ontario, Canadá; 3 Acumen, LLC, y Stanford University School of Medicine, Stanford, CA, EE.UU.; 4 Pharmaceutical Research Institute, Bristol-Myers Squibb, Princeton, NJ, EE.UU.; 5 Centre for Health Economics, Stockholm School of Economics, Estocolmo, Suecia; 6 Trent Institute for Health Services Research, University of Sheffield, Sheffield, Reino Unido; 7 MEDTAP International, Bethesda, MD, EE.UU. Traducción validada por: Pablo Anaya, MHA, Gerente HE&OR, GalaxoSmithKline Mexico, Mexico City, Mexico Erwin Hernando Hernandez Rincon, MD, MSc, Profesor e Investigador, Universidad de la Sabana, Bogota, Colombia La citación para este informe es: Weinstein MC, O'Brien B, Hornberger J, et al. Principles of good practice of decision analytic modeling in health care evaluation: Report of the ISPOR Task Force on Good Research Practices-Modeling Studies. Value Health 2003; 6:9-17 ABSTRACT ________________________________________________________________________________________________________________ Objetivos: los modelos matemáticos se utiliza ampliamente en la evaluación económica de fármacos y otras tecnologías sanitarias. Los usuarios de modelos en el sector público y el sector privado necesitan ser capaces de evaluar la calidad de los modelos de acuerdo a los criterios científicos de buenas prácticas. Este informe describe el consenso de un grupo de trabajo convocado para brindar a los desarrolladores de modelos las guías necesarias para realizar y reportar estudios basados en modelos. . supuestos utilizados en el modelo y aclarando que las conclusiones están supeditadas a los supuestos y datos sobre los cuales está construido el mismo. Métodos: el grupo de trabajo fue creado con el asesoramiento y el consentimiento del Consejo Directivo de ISPOR. Sus miembros fueron desarrolladores o usuarios experimentados de los modelos, que habían trabajado en los sectores académico e industrial y provenían de distintos países en América del Norte y Europa. El grupo de trabajo se reunió en tres ocasiones, intercambió correspondencia y borradores por correo electrónico y solicitó comentarios sobre tres borradores a un grupo de revisores externos, y más ampliamente, a los miembros de ISPOR. La modelación matemática se utiliza ampliamente en la evaluación económica de fármacos y otras tecnologías sanitarias. El objetivo de la modelación es estructurar la evidencia clínica y económica de tal manera que pueda ayudar a que las decisiones sobre la práctica clínica y las asignaciones de recursos en el área del cuidado de la salud sean más informadas. Resultados: los criterios para evaluar la calidad de los modelos se dividieron en tres áreas: estructura de los modelos, datos utilizados como entradas para los modelos y validación de los modelos. Muchos temas importantes abarcaron varias de estas áreas. Los modelos y sus resultados deben considerarse como herramientas de apoyo para la toma de decisiones, no como enunciados de datos científicos. Por lo tanto, no es adecuado exigir que los modelos sean validados en forma prospectiva antes de ser utilizados. No obstante, los supuestos sobre la estructura causal y estimaciones de los parámetros deben contrastarse continuamente con los datos, y adecuar los modelos consecuentemente. Los supuestos estructurales y las estimaciones de los parámetros deben informarse en forma clara y explícita, y se deben ofrecer oportunidades para que los usuarios valoren la relación condicional entre las entradas y los resultados a través de los análisis de sensibilidad. Conclusiones: las evaluaciones basadas en modelos son un recurso valioso para los tomadores de decisiones del sector salud. Es responsabilidad de los desarrolladores de los modelos llevar a cabo este tipo de estudios de acuerdo a los más altos estándares de calidad posibles, y comunicar los resultados presentando adecuadamente los Enviar la correspondencia: Milton Weinstein, Center for Risk Analysis, Harvard School of Public Health,718 Huntington Avenue, Boston, MA 02115. Correo electrónico: [email protected] Introducción Los modelos sintetizan la evidencia sobre las consecuencias y costos para la salud provenientes de muchas fuentes diferentes, tales como datos de ensayos clínicos, estudios observacionales, bases de datos de aseguradoras, registros de casos, estadísticas de salud pública y encuestas de preferencia. Un modelo es un marco lógico- matemático que permite integrar datos y valores y que vincula estos datos con resultados de interés para los tomadores de decisiones en el sector salud. Para tomar decisiones sobre la asignación de recursos, el resultado final de un modelo a menudo es la estimación del costo por año de vida ajustado por calidad (AVAC) ganado u otra medida de rentabilidad. Si bien la evidencia proveniente de ensayos clínicos aleatorizados (RCT, por su siglas en inglés) sigue siendo fundamental para evaluar de eficacia, cuando estos resultados se analizan de forma aislada pueden resultar engañosos si no se traducen en medidas que puedan ser valoradas por los pacientes, los proveedores, las aseguradoras y el público en general. Por ejemplo, supongamos que un RCT demuestra que un tratamiento reduce el riesgo de que aparezca una rara secuela de una enfermedad crónica en un 50%, por otro lado, supongamos que otro ensayo clínico muestra que un tratamiento diferente reduce el riesgo en un 10% de una secuela distinta, pero más común esta última intervención tal vez sea más eficaz y costo-efectiva que la primera, pero una comparación simple de los resultados de los ensayos no es suficiente. No obstante, un modelo podría ser útil para revelar este hecho a los tomadores de decisiones. La comparación entre ambas intervenciones dependería de una síntesis de la evidencia sobre la incidencia de las secuelas en la población objetivo, la reducción del riesgo relativo que ofrece el tratamiento, la supervivencia y la calidad de vida con y sin secuelas, y los costos de las intervenciones y la atención médica necesaria para diagnosticar y tratar las secuelas. El valor de un modelo no sólo se encuentra en los resultados que genera, sino también en su capacidad para mostrar la relación lógica que existe entre la información de entrada al modelo (es decir, los datos y los supuestos) y los resultados, en tal forma que las consecuencias y los costos puedan ser valorados. Por este motivo, un modelo no debe ser una “caja negra” para el usuario final, sino que debe ser lo más claro posible, para que la lógica detrás de estos resultados pueda ser comprendida a un nivel intuitivo. Por este motivo, los resultados de los modelos nunca deben presentarse como estimaciones puntuales o como declaraciones absolutas sobre la eficacia o el costo. Por el contrario, los resultados de los modelos deben presentarse como consecuencia a los datos ingresados y los supuestos, y deben incluirse un análisis de sensibilidad para explorar los efectos de los datos y supuestos alternativos sobre los resultados. El objetivo de este artículo es enunciar una postura consensuada del Grupo de Trabajo de ISPOR sobre Buenas Prácticas en Investigación – Estudios de Modelación. Al igual que los modelos mismos, esta postura representa el mejor criterio del Grupo de Trabajo en este momento y está sujeta a modificaciones a medida que surjan nuevas tecnologías de modelación a través de los avances en materia de informática y análisis y, fundamentalmente, a medida que se generalicen nuevas dimensiones de las tecnologías en salud y del medio ambiente, como la genómica o resistencia microbiana a los fármacos. Proceso del Grupo de Trabajo El Presidente del Grupo de Trabajo de ISPOR sobre Buenas Prácticas en Investigación – Estudios de Modelación, Milton C. Weinstein, fue nombrado en el año 2000 por el Presidente del Comité de Ciencias de la Salud de ISPOR, Bryan R. Luce. Los miembros del Grupo de Trabajo fueron invitados a participar por el Presidente con el asesoramiento y consentimiento del Consejo Directivo de ISPOR. Se buscaron personas que tuvieran experiencia como desarrolladores o usuarios de modelos farmacoeconómicos; que fueran reconocidos por ser líderes científicos en el sector; que hubieran trabajado en los sectores académico e industrial, y también como asesores de gobiernos; y que provinieran de distintos países. También se identificó un grupo de referencia de miembros de ISPOR, a quienes se les pedirían comentarios. El Grupo de Trabajo organizó su primer encuentro en la Reunión Científica Anual de América del Norte de ISPOR en Arlington, Virginia, en mayo de 2000. El Grupo de Trabajo utilizó el correo electrónico para intercambiar bosquejos e ideas durante los meses siguientes. El Presidente preparó un primer borrador del informe y lo envió a los miembros del Grupo de Trabajo para que lo revisaran y aportaran sus comentarios. El borrador revisado se envió al grupo de referencia y, luego de recibir sus comentarios, se preparó uno nuevo. Se presentó un resumen de este borrador en una sesión plenaria de la Reunión Científica Anual de América del Norte de ISPOR en Arlington, Virginia, en mayo de 2001. Se incorporaron los comentarios del público a un nuevo borrador revisado, el cual se publicó en el sitio web de ISPOR para recibir los comentarios del público en general. El siguiente borrador se presentó en la Reunión Científica Anual de Europa de ISPOR que tuvo lugar en Cannes, Francia en noviembre de 2001, y se volvió a publicar un nuevo borrador revisado en el sitio web de ISPOR para recibir comentarios adicionales. Este informe refleja los aportes obtenidos de todas estas fuentes. Definición del concepto de modelo El Consejo Nacional de Investigación en su informe sobre los usos de modelos de microsimulación para la política social, ofreció esta definición de un modelo de simulación: “… una secuencia objetiva y replicable de cálculos utilizados para generar estimaciones de cantidades de interés. . .” [1]. Definimos un modelo de evaluación para atención en salud como una metodología analítica que da cuenta de eventos a lo largo del tiempo y entre distintas poblaciones, que se basa en los datos extraídos de fuentes primarias y/o secundarias, y cuyo propósito es estimar los efectos de una intervención sobre los costos y las consecuencias para la salud. Como parte de nuestra definición de trabajo, suponemos que los modelos de costo-efectividad están diseñados para apoyar la toma de decisiones. Esto significa que su propósito no es efectuar afirmaciones absolutas sobre las consecuencias de las intervenciones, sino revelar la relación entre los supuestos y los resultados. Estos supuestos incluyen supuestos estructurales sobre las relaciones causales entre las variables, parámetros cuantitativos tales como la incidencia y la prevalencia de una enfermedad, la eficacia y efectividad de un tratamiento, las tasas de supervivencia, los estados de salud (utilidades), las tasas de utilización y los costos unitarios, así como juicios de valor, como por ejemplo la naturaleza de las consecuencias que evalúan los tomadores de decisiones. Un buen estudio basado en un modelo presenta todos estos supuestos de manera explícita y clara, y enuncia sus conclusiones condicionadas a dichos supuestos. Evaluación del modelo Los modelos deben utilizarse solamente después de una evaluación cuidadosa, para asegurarse de que los cálculos matemáticos sean precisos y coherentes con las especificaciones del modelo (validez interna), para garantizar que sus entradas y sus resultados sean coherentes con los datos disponibles (calibración), y para garantizar que sus resultados tengan sentido y se puedan explicar a un nivel intuitivo (validez aparente). En el caso de que distintos modelos de la misma decisión lleguen a conclusiones diferentes, se espera que los desarrolladores de los modelos puedan explicar el origen de las diferencias (validación cruzada). La descripción del modelo debe ser lo suficientemente detallada como para que el modelo pueda ser replicado matemáticamente. Las evaluaciones de validez predictiva (la capacidad del modelo para realizar predicciones precisas de eventos futuros) son valiosas, pero no esenciales. Como los eventos futuros transmiten información que no está disponible al momento en que el modelo es desarrollado y calibrado, un modelo no debe ser criticado por no poder predecir el futuro. No obstante, un buen modelo debe estar diseñado para poder ser calibrado o especificado nuevamente para adaptarse a nueva evidencia a medida que esté disponible. El criterio para determinar si, y hasta qué grado, las pruebas de validez predictiva son necesarias antes del uso del modelo, depende de los beneficios en términos de mejorar el modelo para la toma de decisiones y los costos de retrasar el flujo de información mientras se obtienen datos adicionales [2]. Evaluación de la calidad de los modelos El resto de este enunciado describe el consenso del Grupo de Trabajo acerca de los atributos que definen a un buen modelo para la toma de decisiones para la atención en salud. Hemos utilizado mucha información de algunos artículos excelentes que ya han propuesto criterios para evaluar la calidad de los modelos [3–6]. Las características se organizan bajo las categorías principales de estructura, datos y validación. Estructura 1. El modelo debe estructurarse de tal manera que sus entradas y resultados sean relevantes para la perspectiva de la toma de decisiones de la evalución económica. Tanto los costos como las consecuencias para la salud deben reflejar la perspectiva de toma de decisiones elegida. Por ejemplo, si el estudio tiene la intención de ayudar a tomadores de decisiones en la asignación de recursos entre un amplio rango de intervenciones a nivel de la sociedad, entonces los resultados del modelo deben ser ampliamente aplicables, y se deben incluir los costos y las consecuencias para todos los miembros de la población afectada. Si se utiliza una perspectiva menos amplia que la social, entonces el informe debe incluir una descripción, al menos cualitativa, de las implicancias de ampliar la perspectiva a una perspectiva social. 2. La estructura del modelo debe ser consistente, tanto con una teoría coherente sobre la condición de salud que se está modelando como con la evidencia disponible sobre las relaciones causales entre las variables. Esto no significa que todas las relaciones causales deben ser comprobadas, tal como normalmente se realiza en las pruebas de hipótesis, mostrando que el tamaño del efecto es estadísticamente significativo a un nivel comúnmente aceptado de significancia (ej: P < .05). Por el contrario, significa que las relaciones incluidas no se contradicen por la evidencia disponible y que son consistentes con teorías ampliamente aceptadas. 3. Si la evidencia de los supuestos estructurales está incompleta, y no hay una teoría universalmente aceptada sobre el proceso de la enfermedad, entonces deben reconocerse las limitaciones de la evidencia que respalda la estructura elegida para el modelo. De ser posible, deben realizarse análisis de sensibilidad utilizando estructuras de modelos alternativos (por ejemplo, usando marcadores indirectos alternativos o variables intermedias). Los puntos 4 a 8 se relacionan con los modelos de estadotransición (o compartimentales, o de Markov): 4. Se pueden definir estados de salud que correspondan con el proceso de la enfermedad, estos pueden ser no observados o no observables, observados o una combinación de ambos. Por ejemplo, los modelos de estrategias de detección pueden definir estados de salud en base a una patología subyacente, a un estado clínico o ambos. No obstante, se debe tener cuidado de evitar el sesgo estructural cuando las intervenciones modifican tanto la enfermedad subyacente como la presentación clínica, como es el caso de los modelos de estrategias para detección de cáncer, en los cuales los casos de cáncer detectados pueden tener distintos pronósticos dependiendo del método o la frecuencia con las que se realicen las pruebas de detección. En general, el sesgo estructural se evita modelando los estados de la enfermedad subyacente y luego calibrando los resultados con los datos de los estados clínicos observados. 5. Cuando las tasas de transición o las probabilidades dependen de eventos o estados que pueden haber sido experimentados en períodos de tiempo previos, esta dependencia o “memoria” debe reflejarse en el modelo. Esto puede hacerse incorporando la historia clínica o de tratamiento en la definición de los estados de salud o incluyendo el historial como una covariable al momento de especificar las probabilidades de transición. 6. No deben omitirse estados por falta de datos. Algunos ejemplos pueden ser estados de salud crónicos relacionados a eventos adversos o secuelas poco comunes de una enfermedad que no se observan en ensayos clínicos. No obstante, la inclusión de un estado de salud debe basarse en evidencia coherente con la recomendación 2 descrito arriba. 7. Los motivos para incluir subdivisiones adicionales en los estados de salud pueden basarse en su importancia clínica, en su relación con la mortalidad, en su relación con la calidad de vida o preferencias del paciente, en su relación con los costos de los recursos o en cualquier combinación. Tal vez sea importante incluir en forma separada en el modelo los estados de la enfermedad que no se consideran clínicamente importantes, por estos otros motivos. Por otro lado, los estados de salud que se consideran de importancia clínica se pueden incluir para mejorar la validez aparente, aún cuando no afecten los resultados del modelo. 8. La duración del ciclo del modelo debe ser lo suficientemente corta como para que sea poco probable la existencia de cambios múltiples en la patología, los síntomas, las decisiones sobre el tratamiento o los costos dentro de un mismo ciclo. La elección de la duración de un ciclo debe estar justificada. 9. La estructura del modelo debe ser lo más simple posible, y al mismo tiempo debe tratar de capturar los procesos e intervenciones fundamentales de la enfermedad. No es necesario modelar la complejidad total de una enfermedad si la decisión puede informarse a través de una estructura más general, en términos de estados de la enfermedad o subgrupos de población. Si se hacen simplificaciones, las mismas deben estar justificadas sobre la base de que sería poco probable que afecten los resultados del análisis. A veces, un análisis de sensibilidad estructural que use un modelo menos general puede brindar mayor certeza de que las simplificaciones no afectarán los resultados. 10. Las opciones y estrategias no deben limitarse solamente a la disponibilidad de evidencia directa proveniente de los ensayos clínicos. Tampoco el rango de opciones y estrategias modeladas debe verse limitado por la práctica clínica aceptada actualmente. Debe haber un equilibrio entre el hecho de incluir un rango amplio de opciones factibles y la necesidad de que un modelo siga siendo manejable, interpretable y basado en la evidencia. 11. Si bien la estructura del modelo debe reflejar las características esenciales de la enfermedad y sus intervenciones, independientemente de la disponibilidad de datos, de cualquier forma se espera que la disponibilidad de datos afecte la estructura del modelo. Por ejemplo, si un sistema de clasificación en particular ha sido utilizado con más frecuencia en estudios clínicos, entonces los estados de salud bien pueden definirse de acuerdo con dicho sistema de clasificación, incluso si otros sistemas de clasificación funcionan mejor a la hora de predecir resultados o de diferenciar entre calidad de vida y costo. 12. No tomar en cuenta la heterogeneidad dentro de la población modelada, puede generar errores en los resultados del modelo. Cuando sea posible, las poblaciones modeladas deben separarse en subgrupos que tengan diferecias en las probabilidades de eventos, calidad de vida y costos. Esto es particularmente importante cuando las tasas de recurrencia de los eventos a lo largo del tiempo se correlacionan dentro de los subgrupos que tienen distintas tasas de eventos, de lo contrario, se pueden obtener estimaciones sesgadas de los resultados a largo plazo. 13. El horizonte temporal del modelo debe ser lo suficientemente largo como para reflejar diferencias importantes y de interés entre las consecuencias a largo plazo y el costo de otras opciones y estrategias. Para muchos modelos los horizontes temporales del total de la expectativa de vida son adecuados y casi siempre se exigen en modelos cuyas opciones tienen tasas de supervivencia con duraciones diferentes. Los horizontes más cortos pueden justificarse si la supervivencia y las secuelas crónicas a largo plazo no difieren entre las opciones o se basan en un entendimiento del proceso de la enfermedad y el efecto de las intervenciones. En cualquier caso, la falta de datos de seguimiento a largo plazo no debe utilizarse como una justificación para no ampliar el horizonte temporal, siempre y cuando sea relevante para la decisión que se está analizando. Datos Nuestras recomendaciones sobre los datos utilizados en los modelos se agrupan en tres categorías: identificación de los datos, modelación de los datos e incorporación de los datos. obtención de los datos no equivalen a los beneficios que se pierden si se actúa con la evidencia existente. Identificación de los datos 1. Un modelo no debe ser criticado porque los datos existentes no cumplen con los estándares ideales de rigor científico. Las decisiones se tomarán con o sin el modelo. Rechazar el modelo debido a que la evidencia está incompleta, significaría que una decisión sin los datos y sin el modelo es mejor que una decisión con el modelo pero sin los datos. Con el modelo, la evidencia disponible puede utilizarse de forma lógica para tomar una decisión informada; sin el modelo, se perdería una oportunidad de utilizar la evidencia disponible dentro de un marco lógico. 2. Deben realizarse revisiones sistemáticas de literatura sobre los datos de entrada al modelo. El modelo debe estar acompañado por evidencia de que dichas revisiones se han efectuado, o por una justificación de que esto no se ha hecho en base a la idoneidad y generalización de los datos ya obtenidos. 3. El rango (es decir, los límites máximo y mínimo) debe acompañar a las estimaciones del caso base de todos los parámetros de entrada para los cuales se realisen análisis de sensibilidad. La elección de los parámetros para los análisis de sensibilidad es una cuestión de criterio del analista, pero el hecho de no realizar un análisis de sensibilidad sobre un parámetro cuyo valor podría ser controvertido, deja abierta la posibilidad a cuestionar las conclusiones. 4. La especificación de las distribuciones de probabilidad para los parámetros de entrada, en base a la incertidumbre del muestreo y/o entre variaciones del estudio, puede incorporarse a un análisis de sensibilidad probabilístico formal. Sin embargo, esto no siempre es necesario ni costo efectivo. Con el fin de evaluar las distribuciones de las entradas, la metodología preferida es utilizar las distribuciones posteriores obtenidas a partir de metaanálisis formales y análisis Bayesianos, pero las consideraciones prácticas podrían conducir a la aplicación del criterio de los expertos (ver punto 7 debajo). 5. Si se excluyen fuentes de datos conocidas para la estimación de los parámetros, se debe justificar dicha exclusión. 6. Las fuentes de datos y resultados no deben rechazarse sólo porque no cumplen con la “significancia estadística” de acuerdo a los límites de probabilidad generalmente aceptados (ej.: P > .05). Toda la evidencia, aún cuando sea insuficiente para descartar la aleatoriedad como causa, puede incorporarse legítimamente a los modelos. Esto está sujeto a la condición de que la incertidumbre sobre los cálculos sea revelada y evaluada en análisis de sensibilidad y que las conclusiones sean claramente formuladas como condicionales, supeditadas a las estimaciones de las entradas utilizadas. 7. 8. La opinión de los expertos es un método legítimo para evaluar los parámetros, siempre y cuando se demuestre que alguno de estos parámetros no afecta los resultados de manera importante, o que se presente un análisis de sensibilidad sobre estos parámetros con un enunciado claro de que los resultados están supeditados a esta(s) estimación(es) subjetivas. Si se obtiene la opinión de expertos y los resultados se ven afectados por dichas opiniones, entonces el proceso de obtención de dichas opiniones debe informarse detalladamente. Se prefieren estimaciones de expertos derivados de métodos formales como técnicas de grupo nominal o Delphi. Se debe mostrar que se consideraron otras opciones razonables para obtener nuevos datos adicionales antes de desarrollar el modelo. En este contexto, “razonable” significa que el costo y el retraso inherentes a la obtención de los datos están justificados por el valor esperado de la nueva información para el análisis. Si bien existen métodos formales para evaluar el valor de la información, es suficiente con brindar un argumento heurístico sobre la razón por la cual el cuerpo de la evidencia existente era óptimo desde el punto de vista de informar las decisiones actuales. Esto a menudo puede lograrse utilizando análisis de sensibilidad, para mostrar que los intervalos razonables de datos conducirían a la obtención de hallazgos cualitativamente similares, o argumentando que el costo y el retraso en la Modelación de datos 1. La modelación de datos hace referencia a los pasos matemáticos que se siguen para transformar las observaciones empíricas en un formato que sea útil para la modelación de decisiones. Algunos ejemplos incluyen: a. El método de incorporar estimadores de los ensayos clínicos de la efectividad del tratamiento con estimadores de los resultados de referencia provenientes de datos epidemiológicos o de salud pública. Las estimaciones de efectividad pueden basarse en los datos de “intención a tratar” o “de pacientes en tratamiento”, dependiendo de los objetivos del análisis. A menudo, un enfoque adecuado es calcular las estimaciones de riesgo relativo (o razón de momios) entre las opciones de tratamiento provenientes de ensayos clínicos y superponerlas con las probabilidades de supervivencia de las estimaciones de referencia (ej: población no tratada o con tratamiento convencional) u otras variables provenientes de fuentes de estudios poblacionales. b. El método para transformar las probabilidades de intervalos provenientes de la literatura o de un ensayo clínico en una probabilidad instantánea y luego en una probabilidad de transición o probabilidad de evento, correspondiente al intervalo de tiempo utilizado en el modelo. c. El método para combinar la mortalidad específica de la enfermedad con la mortalidad general dentro del modelo. En general, es aceptable calcular las probabilidades de mortalidad general de las tablas de mortalidad nacionales, a menos que se pueda justificar el uso de una fuente alternativa. En general, no es necesario corregir el hecho de que la mortalidad general incluye a la mortalidad específica de laenfermedad dentro de la población general, a menos que la enfermedad represente una causa importante de muerte en los grupos demográficos que están siendo modelados. d. El método para modelar la supervivencia (como por ejemplo una distribución exponencial, gamma, de Weibull o de Gompertz). La elección de una forma funcional para la mortalidad específica de la enfermedad debe especificarse y justificarse. En general, la mortalidad general debe modelarse de forma no paramétrica en base a los datos de la tabla de mortalidad. e. Modelar factores de riesgo o intervenciones como si tuvieran un efecto aditivo o multiplicativo sobre las probabilidades de referencia o las tasas de incidencia de la enfermedad o mortalidad. Debe buscarse evidencia que respalde la forma aditiva o multiplicativa en estudios que examinen el efecto del factor de riesgo o la intervención en una población estratificada por riesgo base. f. El método para combinar las utilidades específicas de un campo en una función multiatributo de utilidad. Es preferible usar instrumentos de calidad de vida relacionados consalud, con sistemas de calificación previamente especificados en base a los métodos de “elección forzada” (juego estándar, equivalencia temporal). g. El método para transformar valores de los estados de salud (como las escalas de calificación o las clasificaciones de estados de salud) en factores de ponderación de la calidad de vida. h. El método para transformar cargos en costos. i. El método para ajustarse a la inflación o poder adquisitivo a lo largo del tiempo y entre los distintos países. El ajuste a la inflación debe basarse en el Índice de Precios al Consumidor (IPC), sus componentes para la atención en salud, o uno o más de sus subcomponentes, como los servicios o equipamientos de atención médica. La elección entre el IPC general y su componente de atención en salud o sus subcomponentes depende de si los recursos considerados están mejor representados por la canasta del mercado (o de productos básicos) general en el IPC o en la canasta del mercado para atención en salud. Una limitación del IPC para atención en salud es que refleja no sólo los precios sino también, hasta cierto punto, las cantidades de insumos requeridos para producir servicios para la atención en salud. El método a elegir para adaptarse a cada país es utilizar la paridad del poder adquisitivo. No obstante, una simple conversión de divisas sería adecuada si existe un mercado internacional para un insumo a un precio fijo. j. 2. 3. 4. El método para descontar los costos y los efectos en salud al valor actual. Los supuestos para la modelación de datos deben presentarse de forma transparente y estar respaldados por evidencia de su aceptación general y, preferentemente, de su validez empírica. Se deben documentar y registrar cuidadosamente las medidas principales que se han tomado para desarrollar el modelo. La credibilidad del modelo puede mejorarse mostrando cómo se concibió un modelo; por ejemplo, antes o durante la Fase III o IV de un ensayo clínico, y cómo su estructura y datos de entrada evolucionaron a medida que se obtenía evidencia nueva (por ejemplo, luego de finalizado un ensayo clínico) en respuesta a los debates subsiguientes con expertos clínicos y en materia de regulación y política. Cuando los enfoques alternativos, pero igualmente justificables, de modelación de datos pueden generar resultados notoriamente diferentes, es necesario realizar análisis de sensibilidad para evaluar las implicancias de estas alternativas. Por ejemplo, si un modelo predice beneficios menores en lo que respecta a la expectativa de vida a mayor edad, pero el modelo usa una especificación multiplicativa del efecto de una intervención sobre la mortalidad de referencia, entonces debe evaluarse la alternativa de un modelo aditivo. Si existe una evidencia empírica más fuerte que respalde una forma funcional, entonces esa forma debería ser el caso base y la(s) forma(s) alternativa(s) debería(n) evaluarse a través de un análisis de sensibilidad. Los métodos de modelación de datos generalmente deben respetar los métodos aceptados en bioestadística y epidemiología. En el caso de la modelación, el meta-análisis es un enfoque válido y deseable, siempre y cuando se tenga el cuidado de reconocer la heterogeneidad que existe entre las fuentes de datos. La heterogeneidad puede ser integrada, ya sea segregando las estimaciones basadas en grupos diferentes de los estudios primarios, o bien calculando modelos jerárquicos formales para combinar información de estudios heterogéneos. 6. Si se utiliza una simulación de cohorte, el análisis de sensibilidad se puede realizar usando una simulación probabilística (Montecarlo de segundo orden), utilizando las distribuciones de probabilidad específicas de las entradas de los parámetros. Al especificar estas distribuciones de parámetros, se debe tener cuidado de garantizar que la interdependencia entre los parámetros quede reflejada adecuadamente en la distribución conjunta de los parámetros. 7. Cuando sea apropiado, y si las diferencias en la supervivencia ajustada por calidad entre las alternativas son menores que la duración de un ciclo, se debe utilizar la corrección de medio ciclo para ajustar los cálculos relacionados con el tiempo en el modelo. Validación Nuestras recomendaciones sobre la validación de los modelos se agrupan en tres categorías: validación interna, validación entre modelos y validación externa. Validación interna 1. Los modelos deben someterse a una evaluación interna y una “depuración”. Se debe suministrar evidencia de que esto se ha hecho. Este proceso debe incluir la utilización de valores ingresados nulos o extremos para evaluar si producen los resultados esperados. También se puede incluir un examen del código del programa para detectar errores de sintaxis y evaluaciones de las repeticiones, utilizando valores de entrada equivalentes. 2. Cuando sea posible, los modelos deben calibrarse contrastándolos con los datos. La calibración es posible cuando existen datos en los resultados del modelo y las entradas del modelo, en el período de tiempo que se está modelando. Los datos de calibración pueden provenir de estadísticas nacionales de salud, como el número de muertes, hospitalizaciones, procedimientos o costos de los recursos, tanto generales como específicos por edad y sexo. Los datos de calibración deben provenir de fuentes independientes de datos utilizadas para calcular los parámetros de entrada en el modelo. Un modelo no debe ser criticado si no existen datos de calibración independientes. No obstante, un modelo está sujeto a críticas si los datos independientes aptos para la validación existen y el modelo no produce resultados consistentes con esos datos (o no se pueden explicar las discrepancias) o si el modelador no ha examinado la concordancia entre los resultados del modelo y dichos datos. 3. Si bien el código fuente por lo general debe permanecer como propiedad del modelador, se deben solicitar copias de los modelos con una interfaz de usuario adecuada, las cuales deberán estar disponibles para fines de revisión científica, bajo estrictas condiciones de seguridad y protección de los derechos de autor. Incorporación de datos 1. Las unidades de medida, los intervalos de tiempo y las características de la población deben ser mutuamente consistentes a través de todo el modelo. 2. Es aceptable la utilización de una simulación probabilística (Montecarlo, de primer orden) o determinística (de cohorte). 3. Si se utiliza una simulación de primer orden, o Montecarlo, se debe proporcionar evidencia de que el error aleatorio de simulación (es decir, la desviación estándar de los valores del resultado por ejecución) es visiblemente menor que el tamaño del efecto de interés. 4. 5. Todos los estudios de modelación deben incluir amplios análisis de sensibilidad de los parámetros clave. Se pueden utilizar análisis de sensibilidad determinísticos (univariado y multivariado) o probabilísticos. Cuando sea posible, los análisis de sensibilidad dentro de los modelos que usen simulaciones de Montecarlo deben utilizar números aleatorios generados a partir de un solo valor inicial (semilla) dentro de cada análisis de sensibilidad, para minimizar los errores en la simulación aleatoria. Validación entre modelos 1. Los modelos deben ser desarrollados independientemente entre sí, para permitir evaluaciones de corroboración entre los modelos (validez convergente). 2. Si los resultados de un modelo difieren considerablemente de resultados publicados o públicamente disponibles basados en otros modelos, el modelador debe hacer todo lo posible por explicar las discrepancias. ¿Estas discrepancias se deben a diferencias en la estructura del modelo o en los valores de entrada? 3. Los modeladores deben cooperar con otros modeladores en la comparación de resultados y en la articulación de los motivos de las discrepancias. (Reconocemos el trabajo de las agencias de financiación que apoyan este tipo de colaboración, como el programa CISNET para la modelación de cáncer, patrocinado por el Instituto Nacional deCáncer de los EE.UU.) Validación externa y predictiva. Los modelos deben estar basados en la mejor evidencia disponible al momento de su creación. En áreas como el VIH e hiperlipidemia, los primeros modelos utilizados suponían que las consecuencias para la salud estaban influidas por los factores de riesgo (recuento de células CD4, colesterol sérico). Se descubrió que datos posteriores provenientes de algunos ensayos clínicos discrepaban con las estimaciones de los modelos iniciales, mientras que otros eran consistentes con los supuestos del modelo. Los aportes de los ensayos clínicos permitieron la creación de una segunda generación de modelos, tanto para el VIH como para la hiperlipidemia, cuyas estimaciones se aproximan más a las de los ensayos clínicos. En VIH, esto se ha logrado a través de la incorporación de la resistencia a los medicamentos antirretrovirales en las estimaciones de eficacia del tratamiento y del ARN del VIH como un marcador de la virulencia de la enfermedad. En la hiperlipidemia, esto se ha logrado a través de la modelación de las fracciones de colesterol LDL y HDL como factores de riesgo. Las discrepancias restantes entre la evidencia empírica directa y los resultados del modelo aún no se han explicado. Aún se desconoce si éstas se relacionan con defectos en el diseño del ensayo clínico (ej.: selección de los pacientes, cruces en el tratamiento) o con factores biológicos subyacentes (ej.: proteína C reactiva y estatinas, recuperación inmunológica y tratamiento antirretroviral). Por lo tanto, los modelos no sólo capturan el conocimiento de la ciencia al momento en el que el modelo se construye (en un momento en el que aún puede haber datos limitados a largo plazo sobre el nuevo tratamiento), sino que además pueden ofrecer una base para contrastar e interpretar la información proveniente de nuevos estudios. La capacidad que tienen los modelos para adaptarse a la nueva evidencia y el conocimiento científico debe considerarse una fortaleza, no una debilidad del enfoque del modelado. 1. Como el objetivo de los modelos es respaldar la toma de decisiones, y como sus resultados deben informarse como supeditados a los supuestos de las entradas, no es necesario evaluar cada estimación de datos o supuesto estructural en estudios prospectivos, antes del uso del modelo. 2. La decisión de obtener datos adicionales para alimentar un modelo debe basarse en un equilibrio entre el valor esperado de la información adicional y el costo de la información. a. El “valor esperado de la información” hace referencia al concepto de la teoría de decisión, que valora la información en términos de su efecto esperado (o promedio) sobre las consecuencias de las decisiones. Por ejemplo, el valor esperado de la información sería cero para un estudio del parámetro de un modelo cuyo alcance anterior no incluya el umbral para la elección entre distintas opciones de decisión. El criterio con respecto a las probabilidades anteriores de los resultados posibles del estudio es una parte inevitable de la evaluación del “valor esperado de la información”. b. El “costo de la información” incluye el costo de los recursos para realizar un estudio o ensayo empírico, al igual que los beneficios perdidos esperados por demorar las decisiones hasta que el estudio o ensayo haya sido completado. El criterio con respecto a las probabilidades anteriores de los efectos del tratamiento es una parte inevitable de la evaluación del costo de la información. c. Las recomendaciones para la realización o diseño de investigaciones para guiar la toma de decisiones en el futuro se puede basar en un análisis formal del valor de la información o en una interpretación informal de las implicanciones de los análisis de sensibilidad. 3. Los modelos nunca deben ser considerados completos o inmodificables. Deben ser actualizados en repetidas ocasiones, y a veces deben ser abandonados y reemplazados, a medida que surge nueva evidencia para dar forma a su estructura o valores de entrada. Como corolario, los modelos que han demostrado ser contradictorios con la nueva evidencia, pero que no han sido revisados o calibrados para para incorporarla, deben ser abandonados hasta que se logre esa nueva calibración. Observaciones finales Si bien estas pautas representan los puntos de vista actuales de este Grupo de Trabajo, no deben ser consideradas rígidas o inmutables. Esto no es un “reglamento”. Diferentes circunstancias llevarán a desviaciones de estas pautas, dependiendo de los recursos disponibles para el modelador (tiempo, dinero y datos) y del objetivo del modelo. Desde nuestro punto de vista, lo más importante que se debe tener en cuenta a la hora de evaluar un modelo de evaluación de atención en salud es que los resultados no deben ser considerados afirmaciones sobre los hechos o como predicciones sobre el futuro. En cambio, su propósito es sintetizar la evidencia y los supuestos de una manera que les permita a los usuarios finales adquirir un mayor conocimiento sobre las implicanciones de esas entradas sobre las consecuencias y los costos evaluados. Sus resultados estarán siempre condicionados a sus entradas, razón por la cual es tan importante que sus entradas sean lo más transparentes y accesibles como sea posible. Otras lecturas sobre la metodología de modelado El objetivo de este informe no es brindar una descripción general de la metodología de modelado, sino identificar esos aspectos de la metodología que el Grupo de Trabajo califica como buenas prácticas de investigación. Recomendamos las siguientes fuentes para aquellos lectores que deseen familiarizarse con los conceptos básicos de los métodos de modelado. Como libro de texto introductorio sobre análisis de decisiones, incluidos los árboles de decisión y los modelos de Markov, consulte Hunink y colaboradores. [7]. Para ver métodos contemporáneos de modelado en evaluaciones económicas, incluido un panorama general de los métodos para modelar la supervivencia a partir de datos de ensayos, y un panorama general de los enfoques determinístico y estocástico del modelaje, consulte Kuntz y Weinstein [8]. Para acceder a un panorama general sobre los métodos para manejar la incertidumbre en los modelos, consulte Briggs [9] y el Capítulo 11 de Hunink y cols. [7]. Los siguientes miembros de ISPOR aportaron comentarios útiles por escrito en los borradores de este informe: Phantipa Sakthong, MS, Faculty of Pharmaceutical Sciences, Chulalongkorn University, Bangkok, Tailandia; Mendel Singer, PhD, Case Western Reserve University, Cleveland, OH, EE.UU.; y Leslie Wilson, PhD, MS, University of California at San Francisco, San Francisco, CA, EE.UU. Los autores también le agradecen a la Directora Ejecutiva de ISPOR, Marilyn Dix Smith, PhD, por el apoyo administrativo para que se organicen reuniones del Grupo de Trabajo. Referencias 1. National Research Council. Improving Information for Social Policy Decisions: The Uses of Microsimulation Modeling, Vol. 1, Review and Recommendations. Washington: National Academy Press; 1991. 2. Weinstein MC, Toy EL, Sandberg EA, et al. Modeling for health care and other policy decisions: Value Health 2001;4:348–61. 3. Sculpher M, Fenwick E, Claxton K. Assessing quality in decision analytic cost-effectiveness models: a suggested framework and example of application. Pharmacoeconomics 2000;17:461–77. 4. Hay J, Jackson J, Luce B, et al. Methodological issues in conducting pharmacoeconomic evaluations— modeling studies. Value Health 1999;2:78– 81. 5. Akehurst R, Anderson P, Brazier J, et al. Decision analytic modeling in the economic evaluation of health technologies. Pharmacoeconomics 2000;17: 443–4. 6. Gold MR, Siegel JE, Russell LB, Weinstein MC, editors. Cost-Effectiveness in Health and Medicine. Report of the Panel on Cost-Effectiveness in Health and Medicine. New York: Oxford University Press; 1996. 7. Hunink M, Glasziou P, Siegel J, et al. Decision Making in Health and Medicine: Integrating Evidence and Values. Cambridge: Cambridge University Press; 2001. 8. Kuntz K, Weinstein M. Modelling in economic evaluation. In: Drummond M, McGuire A, editors. Economic Evaluation in Health Care: Merging Theory with Practice. Oxford: Oxford University Press; 2001. 9. Briggs A. Handling uncertainty in economic valuation and presenting the results. In: Drummond M, McGuire A, editors. Economic Evaluation in Health Care: Merging Theory with Practice. Oxford: Oxford University Press; 2001.