1. Generalidades sobre los diferentes tipos de estudios en

Anuncio
Parte 1. Diseño de estudios en investigación clínica.
Autor: Santiago Perez Lloret
En este módulo nos ocuparemos en primer lugar de los diseños en investigación
clínica, de sus segos. Finalmente nos detendremos en la pruebas de confrontación
de hipótesis.
1. Generalidades sobre los diferentes tipos de estudios
en investigación clínica.
La investigación biomédica provee evidencia que el médico debe combinar con su
experiencia y con los deseos del paciente para tomar una decisión. Como todo
sujeto que toma decisiones, el médico adopta conductas en un ámbito de riesgo:
todos los tratamientos, incluida la aplicación de vacunas, tienen tantos efectos
adversos como beneficios, pero no administrarlos a tiempo puede ser grave y las
herramientas diagnósticas imperfectas pueden llevar a tomar innecesariamente
conductas de riesgo en sujetos libres la patología sospechada, para citar algunos
ejemplos. En estas situaciones, las decisiones deben sustentarse firmemente en el
peso de la evidencia (weight of evidence), es decir en la información disponible al
momento de la toma de la decisión.
Desde el punto de vista científico, el concepto se refiere al resumen ordenado de
la evidencia científica, como pueden ser las revisiones sistemáticas o los metaanálisis, y a los métodos disponibles para producirlos. Sin embargo, el progreso
diario de la ciencia produce un amplio caudal evidencia cuya calidad suele ser
heterogénea. Así, ¿a qué nos referimos cuando hablamos de la calidad de la
1
evidencia? Pues bien, es la serie de atributos que nos permiten confiar en menor o
mayor grado en los resultados obtenidos en los diferentes estudios.
Estos conceptos deben ser tenidos en cuenta al diseñar un estudio, ya que
hacerlo implica imaginar y planificar la manera en que los diferentes sesgos serán
evitados y cómo podrán interpretarse los resultados a pesar de los sesgos que no
pudieron ser eliminados. Así, la calidad de un estudio está determinada por la
forma en que dicho estudio fue diseñado y conducido. Más aún, así como la
anatomía determina la fisiología, el diseño básico del estudio determina la máxima
calidad que se podrá alcanzar con ese diseño. Esto ha permitido elaborar
jerarquías de calidad de la evidencia en función del tipo de estudio considerado,
como se describe en la siguiente tabla
Grado
Evidencia obtenida de
Al menos 1 estudio clínico aleatorizado controlado bien
I
diseñado.
II-1
Estudio clínico no aleatorizado bien diseñado.
II-2
Estudios de cohortes o caso-control bien diseñados.
Series temporales múltiples con o sin intervención o de
II-3
experiencias clínicas no controladas importantes.
Estudios descriptivos, recomendaciones de comités de
III
expertos, opiniones personales.
En resumen, un estudio bien diseñado ha de plantear los criterios y formas con las
que hemos de seleccionar a los sujetos participantes, los procedimientos, la
clasificación de las exposiciones y los desenlaces o eventos, las formas en que
recogeremos y trataremos los datos, la identificación de las llamadas “variables
2
confusoras” o “confounding” y el “número de sujetos a incluir”, atendiendo a lograr
una cierta precisión en el momento de realizar la inferencia estadística.
Un diseño no puede estar ajeno a la naturaleza de la pregunta científica que
enfrentamos ni de la etapa del método científico en la que tal pregunta se inscribe.
De acuerdo entonces con lo arriba dicho, hemos de reconocer la siguiente
clasificación de estudios:
Reproducido de: Características de los tipos de estudios más frecuentes en
investigación clínica. Santiago Perez Lloret, Daniel Vigo, Claudio Gonzalez. Arch
Neurol Neuroc Neuropsiquiatr 2008; 15 (1): 25-33
3
Desde luego existen otras formas de clasificación. Sin embargo, para
homogeneizar nuestra comunicación, tomaremos esta taxonomía como válida a
efectos de este módulo.
Con el objeto de acortar la extensión del presente módulo 3 en razón del tiempo
con el cual disponemos, hemos de enfocarnos a la consideración de los estudios
de cohortes, los de casos y controles, los ensayos clínicos y nos introduciremos a
los principales aspectos de los métodos meta-analíticos.
2. Estudios de Cohortes.
Una “cohorte” es un conjunto de individuos que comparte una característica
común. Un estudio de cohorte/s ha de tener por objeto evaluar la morbilidad o la
mortalidad observada en uno o más grupos de individuos inicialmente indemnes
de la enfermedad (desenlace) bajo análisis, definidos en base a su exposición o
no a un determinado factor (variable exposición).
Como es natural, este tipo de estudio requiere la observación de los sujetos a lo
largo de cierto tiempo entre la inclusión y el posible desarrollo del evento o
desenlace. Por tanto, los estudios de cohortes serán siempre longitudinales.
Si tomamos una cohorte y la seguimos un tiempo suficiente, será posible en ella
determinar la “incidencia” del evento en los sujetos que la integran. Por tanto, es
común que el objetivo de un estudio de cohortes consista en la comparación de la
incidencia del desenlace en los expuestos a un determinado factor, versus la
incidencia del mismo desenlace en los no expuestos a ese factor. Es razonable
entonces que el Riesgo Relativo sea una medida natural de la fuerza de la
asociación de uso habitual en los estudios de cohortes.
Los estudios de cohortes pueden ser prospectivos o retrospectivos. En los
estudios retrospectivos, las exposiciones y los desenlaces relevantes ya se han
dado, es decir, han sucedido en el pasado. Pero no importa si se trata de estudios
4
prospectivos o retrospectivos, la selección de los sujetos se fundamenta en la
exposición, es decir, en la condición de estar o no expuesto al supuesto factor
etiológico. Por ello las bases metodológicas de todo estudio de cohortes tienen
que ver con la naturaleza longitudinal de la evaluación del estado de salud, y la
selección basada en exposición. Es importante consignar que la exposición al
factor sospechoso es una condición natural; no es el resultado de una intervención
del observador. Ello es muy importante a efectos de distinguir los estudios de
cohortes de los experimentales o de intervención.
La eficiencia de los estudios de cohortes guarda una relación importante con la
frecuencia del evento o desenlace de mayor interés. Si bien un estudio de
cohortes permite evaluar la asociación entre una exposición y uno o varios
posibles desenlaces, es conveniente definir la importancia que asignamos a cada
desenlace; ¿consideramos la mortalidad por cualquier causa nuestro desenlace de
mayor interés?, o bien ¿es la mortalidad de causa cardiovascular la más
importante? Es fundamental tener en cuenta que cuando la frecuencia de los
eventos de mayor interés es muy baja, el rinde de este tipo de estudio puede ser
limitado. Si el desenlace (“endpoint”) cuya incidencia procuramos evaluar es muy
raro, podríamos vernos obligados a seguir un número muy importante de personas
durante un período muy prolongado para quizás detectar un número muy bajo de
casos, de eventos de interés. Ello deriva en costos a menudo insostenibles y exige
recursos difíciles de proveer.
Se acepta en general la existencia de cohortes fijas o “cerradas” y cohortes
dinámicas o “abiertas”. En una cohorte fija, sólo los sujetos presentes en el
momento de constitución de la cohorte son incluidos en el estudio. Se trata de
grupos fijos de sujetos seguidos desde un momento hasta un punto final. Por
ejemplo, podríamos seguir a todos los empleados de una empresa presentes en la
misma en el momento de constitución de la encuesta. En un proceso dinámico de
reclutamiento, siguiendo el ejemplo anterior, todo nuevo trabajador que cumpla los
5
criterios de selección puede ser incorporado al estudio durante un período
determinado. Además de la naturaleza del proceso de selección, la condición de
exposición definida al momento del ingreso del sujeto en una cohorte fija se
considera invariable a lo largo del estudio, en tanto que una cohorte dinámica
puede admitir variaciones en la intensidad de la exposición (por ejemplo, la
condición de fumador puede variar a lo largo del seguimiento, y ello es admisible
en un proceso de análisis dinámico).
La constitución de una cohorte.
Los siguientes aspectos deben ser considerados a efectos de constituir una
cohorte apropiada:
1. Identificación de la población.
Se deberá establecer de antemano la “población blanco” del estudio. Esta es
definida como la población a la que se podrán aplicar los resultados del estudio.
Esta definición deberá ser tomada en cuenta al momento de diseñar el
procedimiento de recolección de la muestra, teniendo en cuenta que la misma
debe ser representativa de dicha población.
2. Establecimiento de criterios de inclusión.
2.a) La exposición debe ser claramente definida y debe ser de intensidad
suficiente como para justificar el estudio de su asociación con el desenlace. La
determinación de la intensidad apropiada de la exposición suele ser un problema
de difícil resolución en algunos contextos particulares. En Epidemiología, es muy
importante establecer la relación dosis / respuesta que caracteriza a la asociación
entre la exposición y el evento; esta es otra razón por la que definir correctamente
la intensidad de la exposición resulta fundamental.
6
2.b) La inexistencia del evento o desenlace de interés al inicio del estudio debe ser
un requisito importante en el proceso de selección. En ocasiones, el desenlace en
estudio no es otro que el empeoramiento de una condición preexistente; entonces,
es crucial definir cuál es el estado preexistente que no constituye el “evento”
objetivo de nuestro estudio actual.
2.c) Debe tomarse posición acerca de las variables confusoras y la conducta a
seguir en relación con ellas en el proceso de selección. Supongamos que
procuramos estudiar la asociación entre sedentarismo y desarrollo de accidente
cerebrovascular (ACV). Como el sedentarismo es más frecuente en obesos que
en no obesos, así como lo es el desarrollo de ACV, podríamos considerar a la
obesidad como una variable confusora sobre la asociación que estamos
estudiando. Ahora bien; ¿cómo procederé? ¿excluiré a los obesos, de modo de
evitar “confundir” el efecto del sedentarismo con el de la obesidad? Si así procedo,
no constituiré una muestra demasiado alejada de la población, que desde luego
incorpora obesos entre los sedentarios?. La toma de posición respecto de
restringir el ingreso de sujetos que presentan ciertas variables potencialmente
confusoras es un requisito previo al inicio del estudio.
2.d) En definitiva, se supone que, idealmente, el grupo “expuesto” debería:
i) Estar verdaderamente expuesto (y esto debe ser claramente definido, no
deben existir dudas acerca de lo que significa estar expuesto);
ii) Ser representativo de una población definible y elegible;
iii) La información necesaria debe ser recogida en este grupo con la misma
facilidad y debe ser de tan buena calidad como la obtenida en el grupo de
no expuestos.
7
2.e) Debe definirse si se incluirá de manera fija o dinámica
¿Cómo seleccionar correctamente a los sujetos expuestos y a los no
expuestos?
En primer lugar diremos que cuando hemos de investigar la asociación entre la
exposición a un factor y uno o más eventos, y las potenciales variables confusoras
no son completamente conocidas, el grupo expuesto será un subconjunto de una
población elegible y los no expuestos, una muestra no expuesta representativa de
la misma población. No se recomienda en este caso el “matching” o apareamiento.
Aquí, el control de los factores confusores se llevará a cabo en el análisis
estadístico de los datos. A este diseño de cohortes, preferible cuando estudiamos
la asociación entre un factor y diversos “endpoints” le llamamos “no apareado con
controles internos” (“unmatched, internal controls”).
Por otro lado, cuando procuramos estudiar la asociación entre una exposición y un
evento específico, y las variables confusoras principales son conocidas, los
expuestos serán un subconjunto de una población elegible y los no expuestos
podrán ser sujetos apareados con los expuestos para los potenciales factores
confusores. A este tipo de diseño se lo denomina “apareado con controles
internos”.
Finalmente, cuando no sea posible obtener controles internos, es decir, sujetos
provenientes de la misma población elegible, los expuestos pueden ser sujetos
provenientes de una población expuesta a un alto nivel de exposición y los no
expuestos pueden provenir de otra población con bajo o ningún nivel de
exposición. A este tipo de diseño se lo conoce como “cohortes con controles
externos”.
8
3. La correcta definición del evento. Ello es importantísimo a efectos de evitar
sesgos de clasificación. En necesario tener en cuenta que el desenlace, evento o
“endpoint” puede ser de naturaleza “simple” o bien “combinada” (“aggregate
endpoints”). En efecto, cuando un evento o suceso claro y fácilmente definible se
da en la cohorte con una frecuencia suficiente, podemos emplearlo como punto
final de calidad apropiada. Por ejemplo, puede que si estudiamos una cohorte de
sujetos en prevención secundaria de enfermedad coronaria, la manifestación de
un nuevo infarto podría ser un endpoint apropiado para la evaluación de su
asociación con algún factor de riesgo. Ahora bien; es posible que en ciertas
cohortes el infarto no se desarrolle con gran frecuencia (ej. prevención primaria) y
debamos explorar el uso de endpoints combinados: por ejemplo “desarrollo de
infarto (fatal o no fatal), o angina inestable, o accidente cerebrovascular”. Claro
está que cualquier sujeto que desarrolle un infarto, una angina inestable o un ACV
habrá alcanzado el punto final; ello aumenta el numerador en la incidencia. Desde
luego, paga el precio de la heterogeneidad fisiopatológica, etiopatogénica y
evolutiva:¿no estaremos introduciendo en la misma “bolsa” a casos muy distintos,
considerando a todos ellos como “eventos equiparables”?.
4. Establecimiento del número efectivo de la cohorte y de la duración del
seguimiento. Desde luego, la potencia del estudio es una función del número de
sujetos a incluir. Pero no es este el único aspecto a definir: ¿cuánto tiempo
debemos seguir a los sujetos a efecto de que el estudio realmente resulte útil? En
realidad, la unidad generatriz de la potencia de un estudio de cohortes es el
número de persona-años “útiles” que hemos de tomar en consideración.
9
¿Cómo evaluaremos el efecto de un factor causal sobre la ocurrencia
evento?
Pues bien, en los estudios de cohortes, utilizaremos el Riesgo Relativo.
Se evaluaron en un distrito el desarrollo de casos de una forma de
hepatitis entre los ancianos internados en instituciones de cuidado
geriátrico expuestos y no expuestos a una vacuna antiinfluenza de
reciente desarrollo:
Casos
de
hepatitis
Número de
Incidencia (%)
persona-años
Vacunados
6
393
1.53
No vacunados
7
1939
0.36
Total
13
2332
0.56
Repasemos su cálculo y significado mediante un ejemplo.
Como recordaremos, el Riesgo Relativo será: 1.53 / 0.36 =
4.25 (pueden existir diferencias según el número de
decimales empleados en los cálculos).
Ejemplo
¿Existe exceso o reducción de riesgo frente a la exposición
a la vacuna?
La exposición parece incrementar el riesgo de hepatitis. De
hecho, el exceso de riesgo puede ser calculado como: (RR –
1) x 100 = 325%.
10
El intervalo de confianza del 95% que corresponde a este
riesgo relativo es:
1.17 – 14.69 (puede diferir según el método que se emplee
para su evaluación). Por tanto, la asociación resulta
significativa.
La
diferencia
de
riesgos
(llamada
también
“riesgo
atribuible”) será:
1.53 – 0.36 = 1.17 x 100 persona-años –1
El riesgo atribuible, cuando se divide por el riesgo absoluto
en expuestos, da lugar a la “proporción atribuible en
expuestos”, en este caso:
1.17 / 1.53 = 0.76 ó 76%
¿Qué ocurre cuando poseemos más de un posible factor causal?
11
Supongamos que, en un intento de reevaluar los hallazgos del estudio de
hepatotoxicidad por la vacuna antiinfluenza, se repite el estudio en otro
distrito. El trabajo se lleva a cabo en población mayor de 60 años, no
internada, y se recaban datos relacionados con consumo de alcohol
(alcoholismo) en esta muestra, obteniéndose los siguientes resultados:
Casos de
Riesgo
hepatitis (por
Riesgo
atribuible (por
mil persona-
Relativo
mil persona-
años
años
No
vacunados,
no
2.9
1.0
0 (referencia)
8.7
3.0
5.9
13.1
4.5
10.2
38.9
13.4
36.0
alcohólicos
Vacunados,
no
alcohólicos
No
vacunados,
alcohólicos
Vacunados
alcohólicos
Sigamos, pues, este ejemplo con cierto detalle. En ausencia de ambos factores, la
incidencia de la hepatopatía es, digamos, 2.9 por mil. Ahora bien; en vacunados,
dentro del período estudiado (por ejemplo 1 año), la incidencia se eleva a 8.7 por
12
mil; es decir, el riesgo relativo será 8.7 / 2.9 = 3. En alcohólicos no vacunados, el
mismo tipo de hepatopatía presenta una incidencia de 13.1 por mil; el riesgo
relativo será 13.1 / 2.9 = 4.5.
Es interesante plantearnos (si no conociéramos el resultado de la última fila) ¿cuál
sería el valor esperable de hepatopatía si los dos factores (vacunación y
alcoholismo) estuvieran presentes? Aquí existen “a priori” dos posibles formas
posibles responder a esa pregunta antes de conocer el valor de la última fila:
El modelo aditivo:
Consiste en suponer que el resultado de la última fila (vacunados alcohólicos)
debiera ser la consecuencia de la suma de los riesgos atribuibles más el valor de
“riesgo basal” (es decir, el valor de la incidencia del evento en no expuestos a
ninguno de los dos factores). Así: 2.9 por mil + 5.9 por mil + 10.9 por mil = 19.7 por
mil; el riesgo relativo debiera ser, si tal modelo fuera el correcto, 19.7 / 2.9 = 6.8.
El modelo multiplicativo:
Sin embargo, podría suceder que la incidencia en la última fila no resultara
compatible con la simple suma de las incidencias de las restantes. Si la vacuna
incrementa el riesgo 3 veces (RR=3), y el alcoholismo 4.5 veces (RR=4.5), podría
ser concebible que el riesgo de la exposición a ambos factores fuera: 3 x 4.5 =
13.5. Como vemos en el ejemplo, este es el caso en la situación estudiada.
Como vemos, la intervención conjunta de dos factores potencialmente causales
puede incrementar el riesgo de manera aditiva o multiplicativa. Ambos tipos de
sinergismo se presentan en la práctica y, la presunción del modelo que ha de
asumir la exposición múltiple tiene connotaciones matemáticas y de interpretación
epidemiológica relevantes. No será el objeto de esta sesión profundizar en tales
13
aspectos, sino simplemente introducir al lector en la materia, haciéndole prever las
potenciales consecuencias de la exposición a más de un posible factor causal.
3. Estudios de Casos y controles.
En los estudios de casos y controles comparamos la frecuencia de una exposición
anterior a un determinado factor o variable (exposición) en un grupo de sujetos
que presentan una determinada enfermedad o evento (los “casos”), versus la
frecuencia de la exposición a ese mismo factor entre un grupo de sujetos que no
presentan la enfermedad o evento (los “controles”).
Así como en los estudios de cohortes es posible estudiar la asociación de una
determinada exposición con uno o más eventos de interés, en los estudios de
casos y controles es posible estudiar la asociación entre un evento particular y
varias posibles exposiciones.
Una característica importante de los estudios de casos y controles es que resultan
especialmente útiles cuando la frecuencia del evento de interés es baja. Además,
por lo común, los estudios de casos y controles suelen requerir tiempos menores
para la obtención de resultados que los estudios de cohortes, con menores costos.
En los estudios de cohortes, la definición de cada sujeto participante se hace de
acuerdo con su condición de “expuesto” o “no expuesto”. En los estudios de casos
y controles, la definición se hace sobre la base de considerar al sujeto como
portador del evento (caso) o no portador del evento (control).
14
En un estudio de cohortes, este es el sentido de la selección:
Evento SI
Evento NO
Exposición SI
A
B
Exposición NO
C
D
Por tanto, la ocurrencia de los cocientes A / (A + B) y C / (C + D) es natural; la
frecuencia de eventos es, idealmente, de ocurrencia natural como una
consecuencia de la exposición o no al factor. Al inicio podemos saber cuántos
expuestos y cuántos no expuestos tenemos; los eventos se darán o no con el
transcurso del tiempo.
En los estudio de casos y controles, el sentido de la selección es el siguiente:
Evento SI
Evento NO
Exposición SI
A
B
Exposición NO
C
D
Es decir: seleccionamos casos y los controles, y comparamos la frecuencia de
exposición entre ellos. Como comprenderemos, los cocientes A / (A + B) y C / (C
+ D) no son de ocurrencia natural; si elegimos un control por cada caso, los
denominadores (A + B) y (C + D) han de tener un valor distinto del que tendrían si
seleccionáramos 10 controles por cada caso.
15
La medida del efecto en los estudios de casos y controles no puede ser, por tanto
el Riesgo Relativo. Será, en cambio, el Odds Ratio (OR).
Los casos.
En un estudio de casos y controles, los casos pueden ser “incidentes” o
“prevalentes”. Es siempre preferible que, en lo posible, los casos hayan sido
diagnosticados recientemente, es decir sean casos “incidentes”. Los casos que
han sido diagnosticados hace mucho tiempo (“prevalentes”), si bien pueden ser
fáciles de obtener y, de este modo, pueden incrementar el tamaño muestral
rápidamente, tropiezan con varios problemas. En efecto; si la enfermedad fuera
potencialmente mortal ¿no existirá una razón -por nosotros desconocida-, por la
que estos “casos prevalentes” son particularmente resistentes, es decir, una razón
especial que justifique su supervivencia? y si la enfermedad se cura en un tiempo
razonable, ¿por qué ellos no han curado aún? y los casos prevalentes más graves
¿serán accesibles por nosotros o se habrán dirigido a centros de mayor
complejidad en busca de atención especializada? En fin, siempre es posible hallar
objeciones a un trabajo que incluya casos prevalentes. Lamentablemente, no
siempre es fácil incluir casos incidentes, y, en ocasiones, ni siquiera es fácil
concebir ese tipo de casos. Por ejemplo; supongamos que se trata de casos de
obesidad: ¿cuándo decimos que el caso es incidente? O en diabetes tipo 2, aun
en los casos de reciente diagnóstico, ¿la enfermedad ha comenzado hace poco?
Como vemos, no siempre es fácil elegir los casos más seguros para nuestro
estudio.
Los casos pueden ser individuos con la enfermedad o evento de interés obtenidos
a partir de una población definida elegible, por ejemplo un distrito o una ciudad,
durante un período (base primaria), o bien pueden resultar un subconjunto de las
personas con la enfermedad que han sido estudiadas en una institución médica en
un período (base secundaria). Como se comprenderá, los casos obtenidos a partir
16
de una base secundaria pueden estar afectados por sesgos de derivación: es
decir, según el grado de complejidad del centro médico en consideración, la
severidad y otras características de la enfermedad o evento en estudio.
Es común que en la literatura internacional veamos referirse a los estudios casos y
controles como “community-based” o “institution-based”, y a la vez, que los casos
hayan sido o no apareados (o emparejados) con los controles respecto de algunas
variables potencialmente confusoras (“matched” o “unmatched”).
Los controles.
Debemos tener presente la importancia de una correcta clasificación de lo que es
un caso y de lo que entenderemos por control en el contexto de un estudio
particular. Si por dificultades diagnósticas o de otro tipo, incluyéramos dentro del
grupo control a sujetos que en realidad son casos, los resultados se sesgarían
hacia la nulidad de la asociación (“efecto dilución”). Esto es muy posible cuando la
enfermedad es frecuente, y el riesgo de este tipo de sesgo es menos común
cuando la entidad es rara. Por ello insistiremos una vez más en la importancia de
distinguir correctamente “caso” de “control”.
Los grupos control no suelen ser “grupos naturales”, sino que resultan de un
constructo necesario elaborado por el investigador. Ello suele ser fuente de
sesgos que deben minimizarse.
Un tipo particularmente interesante de estudio casos y controles es el llamado
“casos y controles anidado en una cohorte”. Aquí, los casos son sujetos que han
desarrollado el evento mientras eran seguidos en un estudio de cohortes, y los
controles, una muestra de sujetos sin el evento provenientes del mismo estudio.
Compartiendo la misma base, estos estudios suelen ofrecer menos tendencia a
sesgos de selección.
17
El apareamiento, emparejamiento o matching.
Consiste en seleccionar uno o más controles que se asemejen a un caso.
Pretende equilibrar la proporción de casos y controles por cada categoría de cada
una de las variables por las que se aparea. Pretende de este modo controlar la
influencia de confusores.
Sin embargo, desde luego, no podrá estudiarse el efecto sobre la enfermedad de
las variables por las cuales se aparea. Y puede producirse, en ocasiones, el
llamado efecto de sobreapareamiento: debemos aparear sólo por potenciales
confusores, evitar el apareamiento excesivo.
Algunos sesgos en estudios de casos y controles.
Tres tipos de sesgos que afectan la determinación de la frecuencia de exposición
deben tenerse especialmente en consideración en los estudios de casos y
controles:
1. Cuando signos o síntomas tempranos dan origen a intervenciones terapéuticas,
puede ser difícil registrar la frecuencia de exposición, porque la misma puede
haber sido modificada, en términos de intensidad, por recomendación del médico.
2. Es por lo general más fácil que el enfermo (caso) recuerde la exposición a un
determinado factor que su correspondiente control (sesgo de rememoración o de
“recall”).
3. En los casos, puede existir una tendencia exagerada hacia la búsqueda de la
exposición respecto de los controles. Como es natural, muchas veces “forzamos”
la exploración con mayor énfasis en aquellos sujetos a los que sabemos enfermos,
respecto de quienes no lo están.
18
4. El ensayo clínico.
Como hemos adelantado en la sesión primera, el ensayo clínico es un
experimento éticamente justificado llevado a cabo en seres humanos.
En este experimento, la variable independiente de mayor relevancia es la
exposición a un agente cuya introducción en el sistema resulta de la intervención
deliberada del observador.
La o las variables dependientes pueden ser una o múltiples, de naturaleza cuali o
cuantitativa.
Como también hemos mencionado, tres principios rigen el ensayo clínico:
1. El principio de comparación;
2. El principio de significación, y,
3. El principio de causalidad.
Desde el punto de vista de sus objetivos, los ensayos clínicos pueden ser
clasificados de la siguiente forma:
a) Aquellos que procuran identificar una diferencia relevante entre categorías de la
variable intervención;
b) Aquellos que procuran establecer la existencia de “equivalencia” entre las
categorías de la intervención.
La búsqueda de diferencias relevantes entre las categorías de la variable
independiente (por ejemplo, diferencia en la incidencia de infección entre
vacunados –una de las categorías de la variable independiente- y no vacunados –
la otra categoría), define un objetivo típico de numerosos ensayos clínicos llevados
a cabo a lo largo de la historia. Conviene insistir aquí en un aspecto central de
esta búsqueda de diferencias relevantes: no es lo mismo detectar una diferencia
clínicamente relevante que una estadísticamente significativa. Idealmente, una
19
diferencia es importante desde el punto de vista científico cuando asume las dos
condiciones (esto es, relevancia clínica y significación estadística).
Desde un punto de vista estadístico, y de manera puramente intuitiva, podríamos
hallar dos configuraciones para nuestra hipótesis en los estudios que procuran
identificar diferencias entre las categorías de la intervención:
* Una hipótesis nula (H0), de la forma “no existe diferencia entre las categorías de
la intervención”;
* Una hipótesis alterna (H1), de la forma “existe diferencia entre las categorías de
la intervención”.
El proceso del ensayo clínico debiera perseguir el interés de rechazar o no la H0.
Es decir, la conclusión del estudio clínico deberá ser: 1) se puede rechazar H0,
eso quiere decir que ambas intervenciones tienen efectos diferentes o 2) no se
puede rechazar H0, lo que significa que el estudio no ha arrojado evidencia
suficiente como para poder aseverar que ambas intervenciones producen efectos
diferentes.
En los estudios de “equivalencia”, siguiendo la teoría desarrollada por Schuirmann
y colaboradores, las hipótesis asumen las siguientes conformaciones:
* H0 : Las categorías de la intervención NO SON equivalentes (ejemplo: “las dos
drogas no son equivalentes”).
* H1 : Las categorías de la intervención SON equivalentes (ejemplo: “las dos
drogas son equivalentes”).
Continuando con el razonamiento anterior, el estudio clínico puede tener 2
conclusiones posibles: 1) se puede rechazar H0, aseverando por tanto que las dos
20
drogas son equivalentes, o 2) no se puede rechazar H0, lo que implica que no hay
evidencia suficiente para aseverar que ambas drogas tienen efectos diferenciales.
Las diferencias entre ambos enfoques son sutiles pero de gran importancia.
Obsérvese que la opción “aceptar H0” no está presente en ningún caso. Esto es
así porque corrientemente se considera que si un estudio científico no ha podido
obtener suficiente evidencia para demostrar lo que se pretendía demostrar, otro
estudio podrá hacerlo en el futuro. Así, si no podemos rechazar H0, concluimos
justamente eso “que no hay suficiente evidencia como para rechazar H0”. Por
ejemplo, respecto de la situación anterior, resulta inmediatamente obvio que nunca
podremos demostrar que dos intervenciones son equivalentes. Debemos a
Schuirmann y colaboradores la elaboración de la teoría estadística que permite
evaluar la equivalencia entre intervenciones y que ya hemos expuesto.
En la consideración de cualquier ensayo clínico, los siguientes aspectos son muy
relevantes:
1. ¿Cuál/es es/son la/s pregunta/s a responder? ¿Son ellas suficientemente
importantes? ¿Son susceptibles de ser respondidas a través de este tipo de
investigación?
¿Estamos
explorando
la
existencia
de
diferencias
o
de
equivalencia?
2. ¿Cómo se ha de estructurar el diseño del estudio? ¿Cuál es el plan?
3. Sujetos a estudiar:
3.1. Criterios de selección: de inclusión y de exclusión
3.2. Diseño y toma de la muestra
21
4. Variables a estudiar:
4.1. Variable predictora / Exposición (tratamientos)
4.2. “Outcomes” o resultados (variable dependiente, de naturaleza cuali o
cuantitativa)
4.3. Variables confusoras
5. Control de las fuentes de error:
5.1. Control del error aleatorio y cálculo del tamaño muestral
5.2. Control de sesgos
Algunos de los sesgos comúnmente cometidos en los ensayos clínicos se ubican
entre los siguientes:
* Selección
* Procedimientos
* Exclusión arbitraria post-ingreso
* Pérdida selectiva de datos
* Sospecha diagnóstica o de exposición (sospecha de que el evento se
desarrollará más probablemente en el sujeto tratado menos intensivamente)
* Adopción de definiciones retroactivas
El diseño del ensayo clínico, como el diseño de cualquier experimento clásico,
implica:
1. El diseño de los tratamientos (categorías de la variable intervención);
2. El diseño de los procedimientos para el control de errores;
3. El diseño de la muestra y de los procedimientos de observación y recolección
de resultados.
22
En relación con el diseño de los tratamientos, la primera pregunta es: ¿él o los
tratamientos? La respuesta no es sencilla. Por lo general, la respuesta debiera ser
“los tratamientos”. Desde el inicio hemos sostenido la importancia del principio de
comparación. ¿Es mi tratamiento igual o mejor que...?. Volveremos a este punto
más adelante. Sin embargo, debemos señalar que cuando se trata de fases
iniciales del estudio de un fármaco (fase I de la Farmacología Clínica) se admite la
administración a voluntarios sanos de un único tratamiento a efectos de explorar
algunos aspectos muy específicos y relevantes (seguridad, cinética en voluntarios
sanos, etc).
La existencia de otros tratamientos, además del que se halla bajo estudio, o de
tratamiento y placebo –si correspondiere- , es muy importante porque:
a) Como hemos dicho, sostiene el principio de comparación;
b) Limita el error de inferencia atribuible a expectativas del paciente, de su familia
o del médico; los cambios introducidos por la evolución espontánea de la
enfermedad, el fenómeno de “regresión a la media” (es decir el fenómeno por el
cual los sujetos que están más gravemente afectados por una condición
determinada muestran la tendencia en el curso del tiempo a mostrar valores más
cercanos a la media de la población), etc.
Además del tratamiento activo bajo estudio, debemos considerar la constitución
como control de uno o más de los siguientes grupos concurrentes:
1. Placebo.
2. No tratamiento.
3. Otro activo diferente del que se halla en estudio.
4. Dosis diferente o régimen de administración distinto del mismo activo bajo
estudio.
23
Respecto del control de errores, múltiples aspectos deben ser tenidos en
consideración. Uno de ellos, de enorme importancia, radica en la asignación
aleatoria de los sujetos a cada grupo o randomización. Este procedimiento:
a) Limita los sesgos de selección promovidos por la subjetividad (“prefiero a este
paciente para éste tratamiento y no a aquél...”)
b) Tiende a equilibrar la distribución e influencia de factores confusores
desconocidos
c) La randomización estratificada o en bloques ayuda a equilibrar la distribución
de factores pronósticos distintos de la intervención.
Otro procedimiento vinculado al control de errores consiste en el establecimiento
de “ciegos”. Las técnicas de cegamiento (ciego simple, doble o triple), tienden a
poner límites a la subjetividad, a las expectativas de parte del paciente, su familia
o del médico y a los llamados sesgos de evaluación o información. Este sesgo
consiste en tender a evaluar de manera diferente a aquellos sujetos a los que
sabemos expuestos a tratamientos clásicos o supuestamente menos efectivos.
Existen diversos diseños de ensayos clínicos. Por su importancia, sólo haremos
referencia a tres de estos tipos de diseño, probablemente los más frecuentemente
empleados: diseño de grupos paralelos, diseño cruzado y ensayo clínico factorial.
La teoría sobre la que se fundamentan los dos primeros tipos de diseño (grupos
paralelos y cruzados) es la del “nesting” o “anidamiento”. En efecto, se dice que
en los diseños de grupos paralelos, los pacientes “anidan” dentro de cada grupo al
que ha sido asignado; en cambio, se define a los diseños cruzados como “nonnested”.
En el diseño de grupos paralelos, los pacientes son asignados a alguno de los
múltiples tratamientos (al menos dos), donde son seguidos hasta la finalización del
24
estudio. Los pacientes son aleatoriamente asignados a un tratamiento. En estos
estudios, existen dos fuentes de variación claramente identificables: la variación
interindividual y la intraindividual. La primera hace referencia a las diferencias que
podemos encontrar entre los dos grupos, que en este tipo de estudios debería ser
debida a las diferentes intervenciones aplicadas. Por otro lado, los sujetos de cada
grupo pueden variar en relación a su estado de base y en este caso, puede que la
variación sea debida al tratamiento aunque también puede deberse a otras
causas.
En los estudios cruzados, los pacientes son randomizados a una determinada
secuencia; por ejemplo, algunos de ellos primero reciben la droga X y luego la Y, y
otros, primero la Y y luego la X. Pero precisamente por ello, se elimina una fuente
de variación: la interindividual, dado que todos los sujetos han de recibir ambos
tratamientos. Por ello se sostiene que requieren en principio un tamaño muestral
menor que el exigible para un estudio de grupos paralelos. Sin embargo, los
estudios cruzados tienen sus problemas:
a) los diseños cruzados no pueden ser empleados en enfermedades que pueden
curar con la primera secuencia de tratamiento, o cuando su variabilidad es muy
amplia;
b) puede verificarse el traslado del efecto de un tratamiento al siguiente período;
por ejemplo, los efectos del tratamiento X podrían extenderse al período en el que
el sujeto es tratado con Y. Ello se conoce como “carry-over effect” y para limitarlo,
suele disponerse entre ambos tratamientos un período de lavado o “wash-out”. Sin
embargo, la duración de este período es a veces difícil de estimar con seguridad.
c) Cuando un paciente abandona el estudio en un período, su pérdida tiene un
efecto mayor al del abandono de un sujeto en un estudio de grupos paralelos;
d) son más largos que un estudio de grupos paralelos comparable;
25
Los diseños factoriales exploran el efecto conjunto de más de un tratamiento. Por
ejemplo:
Droga A
NO Droga A
Droga B
N1
N2
NO Droga B
N3
N4
Donde N es el número de pacientes en cada caso.
Como vemos, los estudios factoriales permite estudiar el efecto de ambas drogas
(A y B) aisladas, pero también administradas en forma conjunta, lo que permite
estudiar un eventual sinergismo.
5. Sesgos en investigación clínica
Un sesgo, en sentido amplio y palabras sencillas, es una desviación de la verdad.
En otras palabras, son factores que distorsionan la relación real entre un factor y
un evento y generan resultados que no reflejan dicha relación. Cuando analizamos
el resultado de un estudios de investigación, deberemos tener siempre en cuenta
que un sesgo puede ser una explicación alternativa a la relación causal entre el
factor y el evento estudiados. De esta manera, luego de excluir todas las causas
posibles de sesgos podremos concluir que dicho estudio provee evidencia
convincente acerca de la presencia o ausencia de una relación causal entre el
factor y el evento en estudio.
Los sesgos afectan la validez interna y externa de los estudios. La validez interna
de un estudio es la capacidad que tiene dicho estudio de detectar la relación
causal que se está buscando. La validez externa hace referencia a la posibilidad
de extrapolar los resultados obtenidos a la población blanco. Todos los estudios
26
sufren de sesgos, el desafío del investigador es minimizarlos o si ocurren,
identificarlos, reportarlos y poder identificar sus efectos sobre el resultado. Sin
embargo, conviene agregar que los estudios observacionales presentan sesgos
que muchas veces son difíciles de solucionar. Por el contrario, los estudios
clínicos aleatorizados controlados con placebo tienen mínimos sesgos, siempre
que sean bien diseñados y conducidos.
A continuación comentaremos dichos sesgos, comenzando con tres ejemplos.
Se lleva a cabo un estudio prospectivo del tipo cohortes, en
21.076 trabajadores de una empresa automotriz. Se observa
que la exposición a un determinado factor presente en su
Ejemplo 1
ámbito laboral reduce el riesgo de una cierta enfermedad,
cuando se los compara con 24.507 personas de la población
general.
Pero, ¿son los trabajadores comparables con la población general?;¿no podría
deberse la diferencia a que en esa empresa el examen de ingreso pre-laboral es
extremadamente estricto y, por tanto, suelen presentar un mejor estado de salud
que la gente que proviene de la población general, aun cuando se la ajusta por
sexo y edad?...
27
En un ensayo clínico, 6435 pacientes con diabetes mellitus
tipo 2 son expuestos aleatoriamente a uno de los siguientes
tratamientos: uno intensivo (Int) y otro convencional (Conv)
Ejemplo 2
–menos intenso-. Se espera una reducción de los valores de
hemoglobina glicosilada sustancialmente mayor en el grupo
Int. Se pretende además conocer si el tratamiento Int retarda
la progresión de la lesión microvascular de la retina
(retinopatía), cuando se lo compara con Conv. Por razones
de practicidad, el estudio es abierto: tanto el médico como
el paciente saben a qué grupo pertenece.
Al final del estudio, los diabéticos incluidos en Int presentan una menor tasa de
progresión hacia retinopatía. Pero, ¿qué tal si, al conocer que un paciente está en
el grupo Conv, los médicos tienen la tendencia a buscar con mayor detenimiento
la presencia de lesión vascular?
28
En un estudio de casos y controles se pretende conocer la
asociación entre la presencia de artritis reumatoidea (AR) y
los antecedentes familiares de la misma enfermedad. Los
Ejemplo 3
casos son pacientes con AR; los controles, personas de la
población general.
Se detecta que la frecuencia de historia familiar es mayor en los pacientes con AR.
Pero, ¿no es más fácil recordar (o aun recabar) el antecedente entre los sujetos
efectivamente enfermos que en personas por lo demás sanas?...
En el próximo documento nos ocuparemos de los sesgos en
investigación
clínica.
Recuerde
que
el
objetivo
del
investigador es diseñar y conducir estudios que presenten
la menor cantidad posibles de sesgos, siempre tratando de
Conclusión
evitar aquellos que resultan fatales para el estudio. No
olvidemos que el objetivo de todo estudio es intentar arribar
a los objetivos propuestos.
29
Descargar