SALUD PÚBLICA 5º TEMA I Epidemiología

Anuncio
SALUD PÚBLICA 5º
TEMA I
Epidemiología
Como ciencia que estudia las epidemias, trabaja con bases de datos tabuladas, de las que se puedan extraer
informaciones para analizar.
Las cinco preguntas clásicas del estudio epidemiológico son: qué, quién, cómo, dónde, y cuándo. Estas
preguntas buscan ubicar tres parámetros: persona, lugar y tiempo.
Establecido esto se puede aventurar una hipótesis, que será comprobada por medios lógicos o
experimentales (ensayos clínicos).
El siguiente paso del método epidemiológico es la transformación de la hipótesis en ley.
• Evolución histórica
HIPÓCRATES (hace 2.400 años) estableció una perspectiva comunitaria en la comprensión de las
enfermedades, en su obra Aires, aguas y lugares pone de manifiesto cómo los fenómenos biológicos y
sociales afectaban colectivamente a la población: podemos pues establecer en este momento el origen de la
epidemiología.
En España, ANGELERIO (finales del siglo XVI) en un estudio sobre la peste titulado Epidemiología
introduce por primera vez en nuestro país el término epidemiología.
En 1802 VILLALBA, sanitario español, publicó un libro titulado Epidemiología española, que relata todas
las epidemias ocurridas en España hasta 1801.
Superado el origen divino de la enfermedad, la teoría miasmática establece la causalidad en factores
medioambientales, entre los que se encuentran la pobreza y las bajas condiciones sociales. Entre los autores
que propugnan estas teorías destacan WIRCHOW (Alemania), VILLERMÉ (Francia), ALISON (Escocia),
y FARR y SNOW (Inglaterra).
JOHN SNOW, médico de una amplia formación técnica y humanista, es considerado como el padre de la
moderna epidemiología, al sentar las bases del método epidemiológico en sus trabajos sobre la
propagación y prevención del cólera en la ciudad de Londres, en 1849, 1853 y 1854.
La epidemia de Broad Street (agosto de 1854) sigue todo un método clásico de investigación cuyos pasos
se sintetizan a continuación:
• Diagnóstico de la epidemia por aumento de la concentración de casos en un área localizada.
• Distribución cronológica de los casos: la epidemia comenzó entre el 30 y 31 de agosto.
• Distribución espacial o mapa epidemiológico: la mayoría de los casos se distribuían en un área alrededor
de un pozo equipado con bomba manual ubicado en Broad St.
• Encuesta y análisis de otros atributos.
• Establecimiento de la causa: contaminación de la noria por el alcantarillado y descargas de pozos negros,
hizo destapar la noria y demostró la proximidad de un pozo negro y de una alcantarilla (demostró la
presencia de materia orgánica por análisis químico del agua).
1
• Recomendaciones: hizo retirar la manilla de la bomba con lo que empieza a declinar la epidemia el 8 de
septiembre.
• Presenta un informe final con las conclusiones obtenidas.
Snow describe toda la epidemiología del cólera, 30 años antes de que se descubriera el bacilo productor de la
enfermedad.
A partir de 1874 comienza la era bacteriana con los avances microbiológicos y serológicos: aparece la
ciencia de las enfermedades infecciosas con la Teoría de los gérmenes (Pasteur, Koch, Kitasato, Versin).
• Epidemiología moderna
La moderna epidemiología comienza con unas bases perfectamente establecidas en el estudio de las
enfermedades infecciosas para pasar después, en una aplicación más amplia, a estudiar todos los problemas
de salud−enfermedad.
El inicio de la epidemiología moderna se puede situar en 1943 cuando John Ryle, ocupa la plaza de
profesor de Medicina Social en la Universidad de Oxford, (resalta que los aspectos sociales de las
enfermedades son más relevantes que el agente específico que las ocasiona). En estos años se creó en
Inglaterra la primera escuela de higiene del mundo.
También influyó en el cambio del sentido de los estudios epidemiológicos el progresivo envejecimiento de
las poblaciones, que llevaba a la necesidad del conocimiento de las enfermedades crónicas.
Se ve que entre la epidemiología de las enfermedades infecciosas y la de las no infecciosas no existe una
diferencia tan grande, y disponemos del método que permite estudiar ambos tipos de enfermedades.
El despliegue de la epidemiología sigue siendo lento, el desarrollo más importante que se ha producido se
debe a la influencia de la estadística, y en los últimos años a la informática que han prestado sus
herramientas a la epidemiología.
• Definición de epidemiología
Existen numerosas definiciones de epidemiología en parte porque ninguna satisface todos los requisitos que
se les debiera exigir y en parte por el dinamismo de la disciplina (se ha ido modificando en función de cómo
cambiaba el concepto de enfermedad), surgiendo nuevas definiciones en un intento de precisar sus límites y
aplicaciones.
Inicialmente era la ciencia o doctrina de las epidemias; más tarde amplio su definición para ser la ciencia de
los fenómenos de masa, más cercano al sentido etimológico del término epidemiología (epi = sobre; demos
= pueblo; logos = tratado).
Veamos algunas de las definiciones que marcan cambios en la interpretación de la enfermedad:
• FROST (1927): ciencia de las enfermedades infecciosas, en tanto que son un fenómeno de masas o
de grupo, consagrada al estudio de su historia natural y su propagación en el marco de una cierta
filosofía.
• MAXCY (1951): rama de la medicina que estudia la relación entre los diversos factores que
determinan la extensión y propagación en la colectividad humana de una enfermedad infecciosa o de
un estado fisiológico definido.
2
• MACMAHON & PUGH (1970): estudio de la distribución de la enfermedad en el hombre y de los
factores que determinan su frecuencia.
• ASOCIACIÓN EPIDEMIOLÓGICA INTERNACIONAL (1974): trato de unificar las distintas
definiciones existentes y propuso la epidemiología es el estudio de los factores que determinan la
frecuencia y distribución de enfermedades en poblaciones humanas. Incluye ya todo proceso o
enfermedad, agudo o crónico, físico o mental, transmisible o no, que afecte a grupos de
población.
• Numerosos autores (Mouis, 1975; Enterline, 1979; Neutra, 1979; Guerrero, 1981; Jenicek, 1982) la
consideran un método, es decir, como una herramienta para obtener conocimientos sobre la
enfermedad.
• PAYNE: la epidemiología es el estudio de la salud del hombre en relación con su medio
introduciendo el concepto de ecología en la relación salud−enfermedad (la salud del hombre
como la adaptación de éste a su medio ambiente).
Actualmente se podría definir como la metodología orientada hacia la investigación de todos los
problemas de salud y enfermedad que afectan a las poblaciones.
• Concepto
Es la ciencia y método de razonamiento inductivo para investigar y solucionar un problema de salud,
con independencia de su etiología, que afecta a la comunidad.
• Fines y objetivos de la epidemiología
La epidemiología tiene como fines y objetivos fundamentales todos los fenómenos biológicos y sociales que
afectan la salud de la comunidad.
♦ Fines
La Epidemiología se basa en fundamentos teóricos que sintetizó Jenicek en:
• EXACTITUD: Los estudios epidemiológicos deben ser lo más exactos posibles tratando de eliminar o
reducir al máximo los errores accidentales o sistemáticos.
• CLASIFICACIÓN: Los datos recogidos deben ser tabulados y adaptados a una buena clasificación de los
fenómenos que sea acorde con los sistemas de taxonomía internacional de los mismos (CIE 9 MC).
• RAZONAMIENTO: El razonamiento basado en el juicio clínico y en el enfoque de salud comunitaria es
fundamental en epidemiología.
• NORMALIDAD y REPRESENTATIVIDAD: Los hechos estudiados en los fenómenos epidemiológicos
deben ser representativos en sus observaciones de lo que ocurre en la población.
♦ Objetivos
• Diagnóstico de salud en la población
Utilizando métodos epidemiológicos se puede describir y tratar de diagnosticar el estado de salud de la
población mediante INDICADORES SANITARIOS (variables numéricas relacionadas con factores
específicos que miden determinados aspectos del estado de salud y la evolución que en él se pudiera
ocasionar).
3
Los indicadores clásicos de salud han sido los de morbilidad y mortalidad; actualmente se pretende
medir la salud como un proceso de adaptabilidad.
Hay que establecer:
1. Estructura demográfica de la población.
2. Definición de las variables biológicas, sociales y ambientales: raciales, congénitas, medio ambiente,
condiciones sociales
3. Indicadores de morbilidad y mortalidad. Índices de salud global.
La Clínica trata problemas individuales de salud − enfermedad: diagnóstico y tratamiento, pronóstico y
evolución, alta y recuperación.
La Epidemiología trata problemas de salud−enfermedad como fenómeno de grupo:
• Diagnóstico de salud y tratamiento (programas de salud). El diagnóstico de salud debe de realizarse
de forma dinámica teniendo en cuenta el mundo cambiante en que nos desenvolvemos observando las
repercusiones del modo de vida en la población (telefonía móvil).
• Análisis: vigilancia epidemiológica de la enfermedad y del medio ambiente en que se desarrolla.
• Problemas de salud condicionados: hábitos de vida, estado de nutrición, educación sanitaria, etc.
• Evaluación de métodos de diagnóstico y tratamientos
La valoración de los tests diagnósticos se debe realizar mediante el método epidemiológico buscando:
• Simplicidad (economía de gasto)
• Objetividad (reproductividad)
• Validez (sensibilidad y especificidad)
• Aceptabilidad por parte de la población
SENSIBILIDAD: capacidad de reacción positiva en presencia de la enfermedad, capacidad de detectar
enfermos entre los verdaderamente enfermos. Un test muy sensible nos servirá para buscar nuevos casos.
ESPECIFICIDAD: falta de reacción en ausencia de la enfermedad ó capacidad para detectar enfermos entre
los sanos. Un test muy específico nos servirá para resolver un problema de diagnóstico.
En cuanto a la evaluación del tratamiento se tendrá en cuenta las características del enfermo, de la
enfermedad y de la propia terapia empleada, valorando:
• Eficacia
• Costo
• Administración, aceptación y control por parte del paciente
• Ausencia de efectos indeseables ó adversos
• Establecer probabilidades y riesgos
La probabilidad y el riesgo de que una persona pueda desarrollar una enfermedad pueden predecirse a
partir del análisis de la experiencia colectiva de una muestra representativa de individuos:
4
• INCIDENCIA: número de casos nuevos de una enfermedad que aparece en un grupo susceptible a lo
largo de un período de tiempo.
• RIESGO INDIVIDUAL: probabilidad de enfermar o morir de una determinada patología o
accidente, condicionada a la probabilidad de que el sujeto no muera por otra causa. Los factores de
riesgo son el conjunto de fenómenos de los cuales depende esta probabilidad: se determinan con
medidas de frecuencia o de asociación.
• RIESGO COMUNITARIO: cálculo de la frecuencia con que se presentan estos determinados
sucesos (periódica o instantánea). Relación de individuos que contraen una enfermedad en un
periodo dado o que tienen la enfermedad en determinado momento, en relación con los
habitantes del área. Podemos ver la evolución de la enfermedad a lo largo del tiempo y considerar
su tendencia al alza, a la estabilidad o al descenso, y sus fluctuaciones según épocas, y establecer
proyecciones para el año siguiente (o para un periodo máximo de 5 años).
• Mejor comprensión de los fenómenos biológicos
La descripción de un suceso biológico y el estudio de su distribución de acuerdo a las diferentes variables de
persona, lugar y tiempo, dan bases para entender mejor la situación de dicho suceso y ver en qué
circunstancias disminuye o aumenta su frecuencia.
• Identificar nuevos síndromes: perfeccionar cuadro clínico
La definición de síndrome, bien mediante la agrupación de síntomas y signos, de las reglas de la historia
natural de la enfermedad y de sus consecuencias, morfológicas y bioquímicas, o bien mediante el
descubrimiento de fenómenos aparentemente inconexos que tenían las mismas causas.
El análisis epidemiológico puede mostrar:
• que lo que tradicionalmente se ha agrupado exige separación debido a que sus componentes se
distribuyen en forma diferente en la población
• que diversos fenómenos que aparentemente no guardaban ninguna relación entre si deben asociarse
por estar distribuidos de forma similar.
• Investigación de causas de salud y de enfermedad
La epidemiología se aplica principalmente para descubrir las causas de la salud, profundizar en su
comprensión, y mejorar el estado de salud de la población.
CAUSA − EFECTO (no inmediato)
RED CAUSAL
En la investigación causal debemos considerar que un efecto puede estar establecido por varias causas
(multicausalidad), y éstas pueden determinar un solo efecto, o una causa producir más de un efecto
(multiefectividad), dando lugar a lo que se denomina red causal. Además, un efecto como respuesta a una
causa puede no ser inmediato, sino que puede producirse después de un largo tiempo de latencia.
Acción concomitante de factores causales no antagonistas:
• ADICIÓN: el efecto combinado resultante de los diversos factores es igual a la suma de sus efectos
5
individuales.
• POTENCIALIZACIÓN: el efecto total es superior a la suma de efectos individuales.
Para establecer una relación causal hace falta, además de ir a una asociación estadística, un
razonamiento lógico y científico o, lo que es lo mismo, hay que tratar de encontrar una explicación causal
para un fenómeno racional.
• Funcionamiento de los servicios de salud
Ayudar a los servicios de salud en la planificación sanitaria mediante:
• Estudio sistemático por medio de la observación y experimentación del funcionamiento de los
servicios con vistas a su mejoramiento: gestión y eficacia (GRDs, costes, etc.).
Otros campos nutren al funcionamiento de los servicios de salud: economía, ética, análisis de sistemas,
modelos matemáticos, empresariales, etc.
TEMA II
El método epidemiológico
El núcleo de la epidemiología es el método epidemiológico, que se nutre de las ciencias biológicas,
matemáticas y sociales, etc. Se basa en una serie de etapas:
• Observación del fenómeno epidemiológico
Mediante un buen sistema de información sobre la distribución de la enfermedad en la población, en un área
dada y en un lapso de tiempo definido (fuentes de información):
• Conocimiento directo (observación de los hechos naturales)
• Revisión bibliográfica
• Comparación de los hechos con otros similares (observados o por estudios).
Hay que responder a las cuestiones de cuándo, dónde, quién, cómo es decir, epidemiología descriptiva.
• Tabulación de los datos observados.
Con los datos recogidos y ordenados, procedemos al análisis y comparación de datos.
• Formulación de la hipótesis
Es la opinión fundada de cuáles han sido los motivos por los que se ha producido el suceso en estudio. La
elección de la hipótesis condiciona el éxito o fracaso de una buena investigación epidemiológica causal.
La hipótesis epidemiológica presenta generalmente una relación de causa − efecto entre dos categorías de
suceso, el factor de riesgo y la enfermedad (de forma probable).
Estas hipótesis no pueden ser:
• Arbitrarias
• Contrarias a las leyes
6
• Incompatibles con los conocimientos científicos
• Ni referirse a estudios no disponibles.
La hipótesis epidemiológica debe analizar:
• La población: características de las personas a las que se les aplica la hipótesis.
• El efecto esperado: con la secuencia cronológica, primero la causa y después el efecto.
• La causa o factor de riesgo responsable de la enfermedad.
• La relación dosis−respuesta: a mayor exposición al factor de riesgo (intensidad y duración), aumento
progresivo del efecto.
• La relación tiempo−respuesta.
Idea original (observando el fenómeno) ! pensamiento inductivo ! conclusiones: hasta este momento estamos
realizando epidemiología analítica.
• Verificación, comprobación o resolución de la hipótesis mediante experimentación
La hipótesis ha de ser lógica o experimentalmente verificada antes de poder transformarla en ley, para poder
adoptar luego medidas de prevención. La hipótesis en general debe mostrar una capacidad de ser sometida a la
experimentación con los límites de ética y la logística (naturaleza probabilística). Esto es epidemiología
experimental.
Debemos tener en cuenta:
• La validez de la información (evitar errores sistemáticos y sesgos)
• La reproducibilidad (evitar errores de muestreo) y precisión del estudio
• La exactitud del estudio (combinación de validez y precisión).
• Emisión del informe o formulación de la ley causa−efecto de una enfermedad
Verificada la hipótesis se emite un informe sobre la causa de la enfermedad.
TEMA III
Clasificación de los estudios epidemiológicos
Los estudios epidemiológicos pueden ser clasificados en función de:
• La manipulación
• EXPERIMENTALES: el investigador manipula las condiciones del estudio. Estudia un grupo de
estudio (factor de riesgo, medida preventiva) y un grupo control o testigo Limitaciones: ética,
tiempo factor de riesgo − respuesta en el efecto y costes. Cuando el estudio experimental se realiza
sobre personas: ENSAYO CLINICO.
• OBSERVACIONALES: no se manipulan las condiciones del estudio. Pueden ser:
♦ DESCRIPTIVOS: caracterizan fenómenos epidemiológicos, factores de riesgo, efectos
según las variables de persona, lugar y tiempo.
♦ ANALÍTICOS: un paso más adelante, compara entre grupo de estudio y grupo control,
escogiéndose los grupos de acuerdo a la presencia o ausencia del factor de riesgo o del efecto.
No describen fenómenos, sino que buscan probar una relación de causalidad.
7
• El seguimiento
• TRANSVERSALES o DE CORTE: en un momento dado, en un periodo de tiempo concreto y
limitado: PREVALENCIA
• LONGITUDINALES: en un período de tiempo suficientemente largo: INCIDENCIA
• El sentido del análisis
• de la causa al efecto: se estudian un grupo con factor de riesgo (cohorte expuesta) y otro sin factor de
riesgo (cohorte no expuesta): ESTUDIO DE COHORTE
• del efecto hacia la causa: ESTUDIO DE CASO − CONTROL.
• El momento de comienzo
• RETROSPECTIVO: efecto se produce antes de estudio
• PROSPECTIVO: efecto se produce después del inicio del estudio, independientemente de que el
factor de riesgo anteceda o no al comienzo.
Del diseño depende la calidad del estudio. Se diferencian dos tipos de estudio: descriptivos y analíticos.
• DESCRIPTIVOS
Responden al qué, cómo, quién, cuándo y dónde, es decir, a la recogida de datos. Son la descripción de la
distribución de un suceso o fenómeno en una población, con fines de:
• Planificación sanitaria
• Elaboración de mapas de riesgo
• Formulación de hipótesis
• POBLACIONALES
Emplean la tendencia lineal simple, siendo la variable que establece la relación el coeficiente de
correlación (r). Representan a poblaciones enteras, y se usan para describir las enfermedades desde un
punto de vista que pueda ser útil (edad, sexo). Pero no son estudios fiables.
En los estudios descriptivos estudiamos un único individuo o grupo de individuos, sin grupo de control.
Por tanto, las conclusiones obtenidas no se podrían generalizar al resto de la colectividad, porque no son
representativos. Al no existir grupos de comparación, ni siquiera con otros estudios semejantes, las
conclusiones que se sacan son muy limitadas. Tampoco servirían para proyecciones de futuro.
ESTUDIOS CORRELACIONADOS (ECOLÓGICOS)
La unidad de observación puede ser un grupo de individuos o una población entera, en la que se comprueban
las frecuencias de enfermedad entre diferentes grupos durante el mismo período de tiempo, o en la misma
población a diferentes tiempos.
Se intentan detectar cambios en las frecuencias de una enfermedad en la misma población a lo largo del
tiempo. Plantea el problema de que las conclusiones no pueden ser extrapoladas: no queda clara la relación
entre el grado de exposición y la enfermedad.
8
• INDIVIDUALES
PREVALENCIA (CROSS−SECTIONAL / SECCIÓN TRANSVERSA / ESTUDIO DE CORTE)
En estos estudios se incluyen todos los individuos que están en la población en el momento en el que se
hace el estudio, investigando todas las variables deseadas aunque no hayan estado expuestos al factor de
estudio.
REPORT DE CASOS
Es, generalmente, la primera evidencia de un fenómeno inesperado o inusual: el primer caso de SIDA, el
primer caso de SARS
SERIES DE CASOS
Describen las características de un grupo de individuos con la misma enfermedad o que han estado
expuestos a un mismo factor. Por ejemplo, todos los casos de tuberculosis de un hospital entre 1940 y 1980.
• ANALÍTICOS
Entre los objetivos de los estudios analíticos están:
• La comprobación de hipótesis
• La búsqueda de la etiología de la enfermedad como fenómeno de masas
• La aplicación de medidas de prevención
Los estudios analíticos comprueban qué es lo que les ocurre a individuos sometidos al factor de riesgo
investigado. Es decir, los estudios analíticos investigan dos grupos: individuos expuestos e individuos no
expuestos.
• OBSERVACIONALES
El investigador no expone a los individuos: ellos están ya expuestos, y el investigador los observa, sin
manipular la enfermedad ni el factor de riesgo.
CASO−CONTROL
Se selecciona a un grupo de personas con referencia a su status de enfermedad. Existe un caso de estudio,
con factor de riesgo y un control, sin factor de riesgo (grupo lo más parecido posible al grupo del caso de
estudio, pero sano). Ambos se someten a un cuestionario, y de la diferencia entre las respuestas puedo inferir
riesgos de salud.
Este tipo de estudios son fáciles de ejecutar, cortos, repetibles, económicos, de alta eficacia, permitiendo, por
ejemplo, un primer estudio de enfermedades raras. Pero también tiene inconvenientes: la medición es difícil
(mayor posibilidad de sesgos); la recogida de datos es incompleta (controles suelen mentir), y la necesidad
de diagnóstico de caso y de control ha de ser muy firme. Además, es muy complicado conseguir un grupo
control y determinar la correcta exposición de todos los sujetos.
COHORTES
Se selecciona un grupo de individuos libres de enfermedad, en base a su estatus de exposición, y se les
hace un seguimiento a lo largo del tiempo:
9
• PROSPECTIVOS: a partir de la exposición.
• RETROSPECTIVOS: cuando la exposición ya se ha producido.
• Cohorte HISTÓRICA
• Cohorte ESPECIAL
Se emplean en el seguimiento de enfermedades de alta incidencia, no en las raras. Entre sus ventajas están
que facilitan una exacta medición del riesgo, con una menor posibilidad de errores y conclusiones falsas,
desde el momento en que la definición de exposición queda bien establecida al principio del estudio. Pueden
valorar una gama de posibles efectos a partir de una exposición única.
Pero entre los inconvenientes tenemos que son difíciles de repetir y costosos: duran muchos años, y eso
puede implicar variaciones en la uniformidad del trabajo, pérdidas de información sobe individuos y
cualesquiera otros problemas añadidos a las dificultades del seguimiento.
• EXPERIMENTALES o DE INTERVENCIÓN
Son los estudios por excelencia, los que mayor calidad aportan, aunque no siempre pueden hacerse
(restricciones éticas e individuales): el investigador modifica los factores o condiciones de exposición, y
trata de reducir la variabilidad debida a factores extraños, frente a los factores en estudio. Siempre se
comparan dos grupos, y del estudio de las diferencias se obtiene o no una comprobación de la hipótesis.
Ensayos CLÍNICOS
Los sujetos del estudio son pacientes (enfermos), sobre los que se evalúan uno o más tratamientos para
el mismo proceso. No se trata de prevención primaria, y se asignan aleatoriamente individuos a los que se
les da placebo o fármaco.
Ensayos DE CAMPO
Los sujetos, que han de ser un alto número, son individuos sanos (aún no han adquirido la enfermedad),
procedentes de prevención primaria. Este tipo de estudios se limita a factores preventivos de enfermedades
muy comunes o muy graves (Poliomielitis − vacuna; gripe − vitamina C). También hay asignación aleatoria
de placebo o fármaco.
Ensayos COMUNITARIOS DE INTERVENCIÓN
Es un ensayo de campo, pero extendido a toda la comunidad (por ejemplo, efectos de la fluoración del
agua). Son estudios de gran tamaño y duración.
Casos − control
Observacionales Experimentales
Con factor de
riesgo
CASOS
Sin factor de
riesgo
CONTROLES
Cohortes
EXPUESTOS
Ensayos clínicos
Ensayos de
TRATADOS
campo
Ensayos
comunitarios
NO
EXPUESTOS
PLACEBO
TEMA IV
10
Epidemiología descriptiva
El método epidemiológico se subdivide en tres etapas:
• Descriptiva: caracterización del proceso en estudio en la población elegida como de referencia.
• Analítica: elaboración y/o confirmación de hipótesis epidemiológicas que expliquen la ocurrencia de la
enfermedad en la colectividad.
• Experimental: tras la fase experimental, se rechaza la hipótesis o, por el contrario, se eleva a la categoría
de tesis.
La epidemiología descriptiva y analítica se engloban bajo la denominación común de Epidemiología
observacional (los estudios epidemiológicos suelen incorporar ambos aspectos, descriptivo y analítico).
• Etapas de un estudio descriptivo
La Epidemiología descriptiva es el primer eslabón que se coloca cuando se intenta establecer una relación
causal entre un factor y una enfermedad. La descripción de un fenómeno es una etapa previa al estudio de sus
posibles factores determinantes (conocimiento de los grupos de riesgo), así que el diseño en epidemiología no
sólo constituye el planteamiento teórico de un estudio epidemiológico para abordar la enfermedad: es la parte
más importante ya que condiciona la ejecución y el análisis de datos.
La descripción puede ser en sí misma la finalidad del estudio (planificación en salud) o, en otras ocasiones,
puede ir seguida de otros estudios que sirven para confirmar la hipótesis etiológica.
• Selección de la población de referencia: posibilita la extrapolación de datos (población española).
• Selección de la población elegible o población diana: características que deben reunir los sujetos que
puedan ser incluidos en la investigación.
• Selección de la población de estudio: si la elegible es inabordable, una muestra representativa.
• Selección de la medida de la frecuencia: según se haga seguimiento o no a las poblaciones, incidencia
(dinámica de la enfermedad) o prevalencia (estática).
• Definición exacta del caso de estudio: con dos fines
♦ No poner en el numerador otros procesos patológicos.
♦ Ofrecer criterios uniformes para los investigadores: el seguimiento de normas
internacionales permite la comparabilidad. La regla de oro de cualquier estudio pasa por
definir estos criterios perfectamente en el Protocolo del estudio.
• Selección y definición de las variables que caracterizan el proceso: según se recojan las variables, así
serán los resultados
♦ Persona, lugar, tiempo.
♦ Patología, terapéutica, etc.
• Selección de las fuentes de información
• Planteamiento y solución de problemas de gerencia y administración
♦ Coste
♦ Personal
♦ Cronograma
♦ Diseño del Protocolo final
11
• Ejecución del estudio
• Elaboración de resultados y conclusiones
• Evaluación global y por objetivos del estudio
• Fuentes de datos
Necesitamos los datos que conciernen a la población (datos demográficos, que son los denominadores de las
tasas a calcular) y los datos relativos a los problemas de salud existentes (que serán los numeradores de las
tasas).
• Datos poblacionales
• ESTADÍSTICAS DEMOGRÁFICAS
Recogen las principales características de las personas (edad, sexo, categoría socio−profesional, etc.) en tasas
especificas o tasas estandarizadas según estos factores, ordenadas por un criterio geoadministrativo (país,
comunidad autónoma, región, municipio, etc.), lo que hace que sean datos fácilmente accesibles.
Dan datos sobre la estructura, componentes, distribución por edades y sexos, y tendencias de una
población, y esto es el fundamento de la mayor parte de los indicadores de salud y de las medidas de
comparación.
• Anuario Estadístico (desde 1858) del Instituto Nacional de Estadística (INE)
• Publicaciones de Centros o Institutos de Estadística de las CCAA
• Instituto de Demografía del Consejo Superior de Investigaciones Científicas (CSIC).
• Servicio de personal de empresas, organismos públicos (Ministerios, Agencias).
• Para otras zonas sin datos demográficos habrá que diseñar encuestas diseñadas al efecto.
• ESTADÍSTICAS VITALES
Recogen los hechos vitales más frecuentes (nacimientos, matrimonios, defunciones).
• Datos de MORTALIDAD
En todos los países desarrollados hay una recogida exhaustiva y permanente de datos sobre mortalidad.
Cualquier muerte ha de ser comprobada por un médico, quien extiende un certificado de defunción indicando
la causa médica. En España, las fuentes de datos de mortalidad son:
• Registro Civil
• Boletines Estadísticos de Defunción
• Movimiento Natural de Población (anual), publicado por el INE
Habitualmente recogen:
• Datos agregados sobre defunciones y su distribución por lugar de inscripción/de residencia.
• Edad al fallecimiento
• Causas (CIE−9MC Clasificación Internacional de Enfermedades 9' rev. Modificación Clínica)
• Agregaciones: nacional, por Comunidades Autónomas, provincias y poblaciones.
• Datos de MORBILIDAD
La morbilidad no se recoge tan exhaustivamente como la mortalidad, salvo en los registros de Hospitales
Públicos y Clínicas privadas que anotan enfermedades que intentan conocer (incidencia de una enfermedad
12
en ese territorio). Su mantenimiento es costoso y se utiliza para estudios analíticos de enfermedades graves
e importantes. En España: pueden presentar sesgos en su declaración y/o registro, y posiblemente no recogen
la totalidad de los datos:
• Registro de Enfermedades de Declaración Obligatoria (EDO),.
• Enfermedades profesionales
• Accidentes laborales
• Enfermedades de larga duración o costosas
• Accidentes de circulación con daños corporales
• Red de médicos centinelas: recogida de información por médicos voluntarios interesados en una
determinada patología.
• Historias Clínicas: otra importante fuente de información de morbilidad, siempre que esté
correctamente recogida la información. En la actualidad, en España, es obligatorio que la historia
clínica recoja en el informe del alta el denominado CMBD (Conjunto Mínimo Básico de Datos),
con lo que si se convierte en una interesante herramienta de investigación en epidemiología.
• Estadísticas de recursos o de uso de servicios
Datos económicos, materiales (Hospitales, consultas) y de personal disponible. Recogen aspectos
medico−administrativos derivados de la actividad hospitalaria o la asistencia primaria, según indicadores
determinados:
• Consultas practicadas
• Ingresos producidos
• Intervenciones quirúrgicas
La aplicación más interesante que se está dando a esta información es para temas de gestión para conocer el
producto hospitalario mediante los GRDs (Grupos Relacionados con el Diagnóstico).
• Estadísticas de salubridad
Población con agua potable, por ejemplo.
• Obtención de datos: población y muestra
Si quisiéramos hacer un estudio sobre todos los individuos de la Facultad (población de origen) tendríamos
problemas de tiempo y de dinero: lo que se hace es determinar un tamaño muestral (n) asequible y trabajar
por muestreo, es decir, trabajar con una muestra representativa de esa población.
Procedimientos para la recogida de información
• SONDEO: Encuesta dirigida a un número limitado de individuos. Da una información rápida de la
situación epidemiológica (prevalencia). Puede ser único o repetido para ver tendencias.
• ENCUESTA GENERAL: Se dirige a toda la población. Está justificada cuando las informaciones
disponibles sobre la enfermedad son suficientes, para evaluar la toma de medidas preventivas o
terapéuticas a gran escala.
• ENCUESTA PERMANENTE: A largo plazo, con forma de sondeo o de detección, como en el
registro periódico de casos.
• ENCUESTA NACIONAL: Sobre una muestra representativa de la población. No va enfocada a una
13
sola enfermedad sino a todos los problemas de salud (morbilidad, mortalidad, crecimiento y
envejecimiento, variaciones en los factores ambientales). Por ejemplo, la US Nacional Health
Survey.
• VIGILANCIA EPIDEMIOLÓGICA: Recoge los problemas de salud más importantes (registro de
cáncer), o del conjunto de elementos que constituyen la historia natural de la enfermedad (caso,
población de riesgo, agentes etiológicos, medio natural y social). Por ejemplo, el registro de
veteranos, el de gemelos
• Preguntas previas al diseño del estudio
• Población teórica: ¿a quién deseo generalizar los resultados del los estudios?
• Población estudiada: ¿a quién puedo acceder en el estudio?
• Tamaño muestral: ¿cuántos individuos necesito para poder generalizar resultados?
• Técnicas de muestreo: ¿de qué manera selecciono a los individuos?
• Muestra: ¿quién forma parte del estudio?
Cualquier estudio debe determinar el tamaño de muestra necesario para la ejecución del mismo y guardar las
proporciones de los parámetros que definen la población de origen (HOMOGENEIDAD y
REPRESENTATIVIDAD). Cada elemento de la población es un individuo, y todos los elementos tienen al
menos una característica común.
Una MUESTRA es el conjunto de los individuos realmente estudiados. En la mayoría de las ocasiones, el
número de sujetos necesarios para la realización del estudio es mucho menor que el de candidatos que forman
la población de estudio, aparte de que una frecuente inaccesibilidad de las poblaciones impide que éstas
puedan ser estudiadas directamente. Todo ello conlleva a que, por razones de eficiencia y disponibilidad de
recursos, se trabaje con una muestra de la población objeto de estudio.
La muestra debe ser lo más semejante posible a la población y, por tanto, representativa de la misma. Los
resultados obtenidos en la muestra, válidos en si mismos tan sólo para la muestra, permitirán estimar
conclusiones para la población, en el caso de la muestra sea en verdad representativa de la población. Cuanto
más fielmente represente la muestra a la población, más fiables serán las conclusiones e inferencias del
estudio.
En líneas generales, para que el estudio de una muestra sea válido para la población, se requiere:
• HOMOGENEIDAD: La muestra tendrá las mismas proporciones que la población en todos aquellos
caracteres que pueden influir sobre a variable en estudio y, consecuentemente, en los resultados. No
es necesario que exista homogeneidad en aquellas características que no actúan sobre la variable. Así,
si se estudia la fuerza física de una población, la muestra deberá guardar una proporción de
varones/mujeres y de adultos/niños similar a la de la población.
La dificultad estriba en que no siempre se conocen a priori los caracteres que pueden influir en los resultados.
En general se ha de seleccionar una muestra homogénea con la población que se estudia en todo aquello que
se sabe que tiene influencia sobre el experimento que se realiza y en aquello cuya influencia se sospecha.
• REPRESENTATIVIDAD: La muestra ha de ser un modelo representativo de la población.
• Tipos y métodos de muestreo
Una vez definida la población de estudio, el siguiente paso es determinar cuántos sujetos compondrán la
muestra (cálculo del tamaño muestral) y qué criterios determinarán la elección de los sujetos de la
muestra. Así el conocimiento del número de sujetos necesarios permitirá evaluar si el estudio puede ser
14
factible o si, en el caso de no disponer del número suficiente de pacientes, se requerirá una modificación de
los criterios de selección, la colaboración con otros centros investigadores, o la prolongación del periodo de
reclutamiento.
La inclusión de un número excesivo de sujetos encarece el estudio y puede ser considerado poco ético, ya que
un mayor número de sujetos recibirá la intervención menos eficaz o será sometido a determinadas
exploraciones. De tal modo que la principal razón para estudiar una muestra y no toda la población es el
ahorro de tiempo y dinero, es decir, eficiencia. Asimismo, hay razones de validez, en cuanto que las
mediciones de las variables tenderán a ser más exactas, ya que se pueden dedicar más esfuerzos a asegurar la
calidad si se efectúan en un número reducido de sujetos.
• MUESTREOS PROBABILÍSTICOS
Es el proceso en el que todos los individuos candidatos tienen una probabilidad conocida, distinta de 0,
de ser incluidos en la muestra (EQUIPROBABILIDAD). Utilizan alguna forma de selección aleatoria
para seleccionar las unidades que serán estudiadas.
La diversas técnicas del muestreo probabilístico se realizan al azar, evitando la posible parcialidad,
consciente o inconsciente, de los investigadores (INDEPENDENCIA). Por esta razón, es más probable que
las muestras tiendan a ser representativas de la población de referencia.
Pese a ello las muestras pueden contener error, de manera que los valores de una variable obtenidos en la
muestra difieran de los verdaderos de la población, simplemente por el azar (error aleatorio o por
muestreo) Hay que tener en cuenta que cuando se elige una muestra, ésta no es más que una de las infinitas
muestras posibles que pueden obtenerse de la población de referencia.
De todos modos la aplicación del muestreo probabilístico permite la utilización de técnicas estadísticas
capaces de cuantificar este error aleatorio.
• ERROR ALEATORIO. Obtención de un resultado no válido debido al azar: se puede corregir
aumentando el tamaño muestral.
• ERROR SISTEMÁTICO. Los resultados no son válidos desde el principio, debido a un sesgo: una
mala recogida de datos, factores de confusión. No hay arreglo: lo mejor es repetir el estudio,
diseñando bien el estudio y eligiendo un buen muestreo.
• MUESTREO ALEATORIO SIMPLE
• Cada unidad de muestreo de la población (elemento sobre el que se aplica la técnica de selección)
tiene la misma probabilidad de ser escogida. Se requiere un listado de las unidades de muestreo
y, tras calcular el tamaño preciso, se procede a seleccionar las unidades necesarias mediante un
sistema de rifa, sorteo o el empleo de la tabla de números aleatorios o mediante algún proceso de
randomización informática.
• El procedimiento es simple y sólo requiere un mínimo de paciencia. Tiene la ventaja de ser sencillo y
de fácil comprensión, permitiendo un cálculo rápido de medias y varianzas. Pero requiere que se
conozca de antemano la lista completa de todas las unidades de muestreo, y si la lista tiene fallos u
omite segmentos de esta población se perderán las ventajas, ya que todas las unidades no tendrán las
mismas probabilidades de ser elegidas. Si las muestras son pequeñas pueden originarse muestras
altamente sesgadas respecto a la población.
• MUESTREO ALEATORIO SISTEMÁTICO
15
• Se basa en alguna regla sistemática simple, como elegir uno de cada n individuos. Tras calcular la
constante de muestreo (k), dividiendo el total de la población por el tamaño de la muestra
deseado, se procede a extraer la primera unidad al azar de entre los primeros k individuos y se le
suma la constante, sucesivamente, hasta completar el tamaño de la muestra.
• Es fácil de aplicar, siendo en muchas ocasiones más cómodo y práctico que el muestreo simple (es
más sencillo elegir las historias terminadas en cero que realizar una extracción por tabla de números
aleatorios).
• Otra ventaja es que no se necesita tener completa la lista de elementos de la población: el listado se
puede construir a medida que el estudio avanza, siempre y cuando las unidades tengan algún orden
preestablecido. Asimismo, sí la población se encuentra ordenada siguiendo una tendencia conocida
(de más viejo a más joven), el muestreo sistemático asegura una cobertura de unidades de todos los
tipos.
• La limitación más importante aparece cuando la constante que se aplica está relacionada con el
fenómeno que desea medirse. En este caso pueden darse estimaciones muy sesgadas de los
parámetros poblacionales (intentar estudiar la actividad de un centro de urgencias a partir de los
pacientes que acuden un determinado día de la semana, por ejemplo, los lunes).
• MUESTREO ALEATORIO ESTRATIFICADO
• La población se divide en dos o más estratos o subgrupos, en razón de alguna característica
común, siendo mutuamente excluyentes.
• A continuación se escoge una muestra al azar en cada estrato, manteniendo las proporciones
observadas en la población de referencia. Así, por ejemplo, la estratificación según sexo, con una
posterior elección de una muestra de varones y otra muestra de mujeres.
• Se consigue que cada subgrupo tenga una representación similar a la de la población de referencia,
evitando que los resultados estén influidos por alguna de las variables de estratificación. Para su
correcta aplicación se requiere conocer la distribución en la población de la variable o variables
utilizadas para estratificar.
• Con el muestreo estratificado se obtienen estimaciones más precisas de los parámetros
poblacionales que con el muestreo aleatorio simple.
• PROPORCIONAL: al número de individuos que hay en los grupos de los estratos elegidos le
corresponde una proporción exacta en la muestra.
• SIMPLE: a cada estrato le corresponde un número igual de individuos.
• ÓPTIMO: tiene poca aplicación.
• MUESTREO ALEATORIO POLIETÁPICO o POR ETAPAS MÚLTIPLES
• En muchas ocasiones es necesario hacer una estratificación con respecto a dos o más caracteres.
Así, por ejemplo, el estudio de la talla en referencia a! sexo y a la edad.
• En este caso se tendría que estratificar paulatinamente: en una primera etapa se seleccionan
unidades de muestreo de una población, procediéndose a obtener, en una segunda etapa, una muestra
de cada una de las unidades primarias. Se puede usar el número de etapas que sea necesario y, en cada
una de ellas, el sistema de muestreo apropiado.
16
• Gráficamente se va obteniendo un racimo (cluster) que puede crecer indefinidamente, con el
resultado de que en cada submuestra, el número de unidades será menor cada vez, a medida que se
amplia el racimo, lo que puede llevar aparejado la dificultad de poder demostrar diferencias
estadísticamente significativas entre las diversas casillas de la muestra, a medida que va aumentando
el número de unidades.
• Ello puede llevar a obligar a limitar el grado de estratificación, por lo que se debe analizar con
cuidado el diseño de la muestra.
• La unidad de muestreo primario es la más grande y comprende un mayor número de elementos, y se
desciende en las sucesivas etapas hasta llegar a la unidad básica o elemento de la población. Así, si se
quiere estudiar la prevalencia de escoliosis en niños en edad escolar, una manera de seleccionar la
muestra seria elegir al azar escuelas (unidades primarias) y, dentro de cada centro una muestra de
niños (unidades secundarias).
• El muestreo en etapas se utiliza cuando la población de referencia es muy grande y dispersa. Su
desventaja es que si las unidades primarias contienen personas similares con relación al fenómeno en
estudio, es difícil estimar la precisión con que puede calcularse los parámetros poblacionales.
• MUESTREO ALEATORIO POR CONGLOMERADOS
• Si en el estudio polietápico se incluyen todas las unidades secundarias, el muestreo se denomina en
conglomerados.
• Los métodos presentados están pensados para seleccionar directamente los elementos de la población,
es decir, que las unidades muestrales son los elementos de la población seleccionada: se determina el
número de conglomerados necesarios para obtener el tamaño muestral y se cogen n individuos.
• MUESTREOS NO PROBABILÍSTICOS
Sus resultados no se pueden generalizar a la población de la que parten. Las unidades se escogen utilizando
métodos en los que no interviene el azar. Se desconoce la probabilidad que posee cada unidad de ser incluida
en la muestra. Existen diversas técnicas:
• MUESTREO POR CUOTAS
• Poco utilizado en investigaciones epidemiológicas y más en estudios de mercado. A partir de la
composición general de la población por características, tales como edad o sexo, se determina el
número de personas necesarias para cada característica y, a partir de ahí, el único requerimiento es
conseguir el número adecuado de personas para llenar cada cuota. Es muy probable que la muestra
difiera sistemáticamente de la población.
• MUESTREO OPINÁTICO O INTENCIONAL
• Para conocer la opinión o intención. Se busca una muestra representativa de la opinión que buscamos
recabar.
• MUESTREO CAUSAL O INCIDENTAL
• Muestreo consecutivo
• Se selecciona a los pacientes que cumplen los criterios de selección a medida que acuden a la consulta
durante un periodo de tiempo determinado. Si se cumple la condición de que la muestra esté libre de
17
sesgos y de que sea representativa de la población, el método es válido.
• Muestreo oor inclusión de voluntarios
• En general es preferible rechazar la colaboración de voluntarios ya que los motivos que llevan a una
persona a prestarse a un estudio sin haber sido seleccionada suelen estar relacionadas con otras
características que afectan a la representatividad de la muestra.
Estudios para determinados parámetros
• NIVEL DE CONFIANZA: Seguridad de obtener resultados válidos y extrapolables a la población.
Dependiendo del nivel de seguridad que predeterminemos tendremos un determinado valor de Z.
Por ejemplo, cuando Z = 1,96 = seguridad del 95 %.
• PRECISIÓN: amplitud del intervalo.
• VALOR APROXIMADO DE LO QUE QUEREMOS MEDIR: Si lo desconocemos, nos ponemos
en el peor de los casos, un 50 %. Varía según conozcamos o no la población:
• No conocemos la población:
• Sí conocemos la población:
• CONTRASTE DE HIPÓTESIS: se trabaja con dos tipos de población: los expuestos y los no
expuestos.
• TAMAÑO MUESTRAL: para determinarlo necesitamos conocer:
• La magnitud de la diferencia a detectar
• Tener una idea de los parámetros
• Seguridad del estudio
• Poder estadístico (1 − , o riesgo de cometer el error )
• Definir si la hipótesis va a ser uni o bilateral
• Medidas de frecuencia en los estudios epidemiológicos
Para Rothman la tarea fundamental de la investigación en epidemiología es cuantificar la ocurrencia de la
enfermedad: todo estudio epidemiológico debe ser entendido como un ejercicio de medición.
Esta medición debe hacerse correctamente; las frecuencias absolutas como tales pueden incitar a la confusión
(los 6.700 muertos anuales por cáncer en la Comunidad Autónoma de Madrid y los 90 de Ceuta no significan
que los madrileños tengan un mayor riesgo de morir por esa enfermedad).
Las medidas en valores absolutos no nos permiten comparar, no nos dicen nada: las medidas relativas tratan
de relacionar el número de individuos enfermos (casos de enfermedad) que surgen en una población
con un número de individuos total.
El uso de medidas relativas, o fracciones, es más apropiado al referir la enfermedad al colectivo donde se han
producido. Existen 4 tipos esenciales de fracciones que se utilizan en epidemiología:
• RAZÓN
18
Una razón es el cociente de dos frecuencias absolutas, en el que el numerador no está incluido en el
denominador (concepto estático).
Los valores pueden estar entre 0 e ".
Al ser la relación entre dos magnitudes que poseen características distintas, nos permite comparar un
fenómeno entre dos grupos diferentes (enfermos y sanos, por ejemplo).
Ejemplo:
Tasa de mortalidad fetal, nº de muertes fetales dividido por el número de nacidos vivos =
• PROPORCIÓN
Una proporción es el cociente de dos frecuencias absolutas, en el que el numerador si está incluido en el
denominador (concepto estático, tampoco tiene dimensión temporal). Puede ser el cociente entre una
frecuencia absoluta de casos y el conjunto de la población, es decir, la frecuencia relativa de un
acontecimiento. Se suele expresar en forma de porcentaje.
Al ser la estimación de una probabilidad, sus valores están entre 0 y 1.
Ejemplo:
Proporción de mujeres en la población española =
• TASA
Cociente entre dos magnitudes cuya característica esencial es que el denominador lleva incluido el factor
tiempo(concepto dinámico). Mide el potencial instantáneo de cambio de una variable (generalmente la
enfermedad) por la unidad de potencial de cambio de otra variable, (usualmente el tiempo), y relativo al
tamaño de la población con riesgo de padecer el proceso en estudio Si se midiera tan sólo en un instante, sería
difícil de manejar en la práctica y, por ello, se suele trabajar tasas medias.
Sería la velocidad a la que aparece una enfermedad, o el número de casos nuevos de una enfermedad a lo
largo de un tiempo.
Sus valores oscilan entre 0 e ".
Ejemplo:
Se observan 500 sujetos libres de afecciones cardiovasculares durante 5 años, al cabo de los cuales se han
diagnosticado 20 infartos agudos de miocardio (IAM) en el grupo de estudio.
• RIESGO
Noción probabilística individual de desarrollar una enfermedad (concepto dinámico). Su diferencia más
importante con la tasa es que, mientras que la tasa implica una idea de grupo, el riesgo es un parámetro que
se refiere aI sujeto. Se define como la probabilidad de desarrollar la enfermedad, condicionada a la
probabilidad de que el sujeto no muera por otro proceso diferente durante la duración del estudio. El
numerador estaría formado por la frecuencia absoluta de número de casos del suceso en estudio y el
denominador lo constituirla el número total, al inicio del periodo de estudio, de sujetos susceptibles al
proceso que se investiga. Es una probabilidad, así que es adimensional. Su valor será siempre inferior a la
19
unidad, o al 100 % si se expresa como porcentaje.
• Medidas de frecuencia como indicadores de salud
• RAZÓN DE POSIBILIDAD o VENTAJA de ODDS
La razón o ventaja de Odds es la probabilidad de que aparezca una enfermedad, dividido entre la
probabilidad de que no haya enfermedad: expresa el número de individuos en los que ocurre, por cada uno
en los que no ocurre. No tiene dimensión temporal, y los valores pueden estar entre 0 e ".
Ejemplo:
De 100 niños con otitis tratados con amoxicilina, curan 75:
% curaciones = , % no curaciones = , Ventaja de Odds =
La probabilidad de curarse una otitis con amoxicilina es de 3 a 1, por tanto.
• PREVALENCIA
La proporción de prevalencia es un indicador estático (aunque si utilizamos varias mediciones seriadas nos
da una idea dinámica), que puede ser:
• DE PUNTO (PP ó sólo P):, interpretado como la proporción o nº de casos existentes de una
enfermedad en una población en un momento dado. Es un parámetro adimensional, con valores
entre 0 y 1. También puede expresarse como porcentaje:
• DE PERÍODO (PPP): es el nº de casos de la enfermedad que han existido en algún momento del
período (es decir, la prevalencia de punto al comienzo del período + la incidencia), referida al nº
de individuos de la población a mitad del período:
La población a mitad de intervalo se calcula como:
La prevalencia indica la carga del evento que soporta la población. Su mayor utilidad está en:
• Estudios de planificación de los servicios sanitarios
• Malformaciones congénitas
• Estudios descriptivos de enfermedades de curso largo
En la prevalencia influyen la incidencia (velocidad de aparición de la enfermedad: a incidencia constante,
cuanto más dure una enfermedad, mayor será su prevalencia) y el tiempo que el sujeto permanece como
caso (duración media de la enfermedad), y la tasa de resolución de la enfermedad (curación, muerte): por
eso es poco útil en la investigación causal y de medios terapéuticos.
La prevalencia también puede estudiarse, considerando una población estable, como Tasa de incidencia x
duración de la enfermedad (T):
• INCIDENCIA
Mide la aparición de la enfermedad en función del tiempo, o número de nuevos casos en una población en
un período de tiempo. Por tanto, se trata de un índice dinámico, una tasa, que requiere del seguimiento en
el tiempo de la población de interés. Cuando la enfermedad es recurrente, se suele referir a la primera
20
aparición. Se emplea en:
• Evaluación de medidas preventivas
• Estudios analíticos de investigación causal
• Estudios descriptivos de enfermedades de curso corto
• INCIDENCIA ACUMULADA (IA)
Es la proporción de sanos que enferman al inicio del período de seguimiento. Adimensional, con valores
entre 0 y 1, aunque se suele expresar como porcentaje. Hay que especificar el período de estudio, ya que
depende del tiempo de seguimiento, y se calcula sobre una cohorte fija, es decir, no se permite la entrada
de nuevos individuos durante el seguimiento.
• TASA de INCIDENCIA o DENSIDAD de INCIDENCIA (DI)
Es el cociente entre el número de casos nuevos ocurridos durante el período de seguimiento y la suma
de todos los períodos de riesgo individuales.
Calcula la velocidad de curación o de aparición de la enfermedad. Para ello, en el denominador hay que
conocer todos los individuos y saber cuánto han estado sin enfermar (o tamaño medio de la población y
período de observación). Se mide en tiempo−1, con valores entre 0 e ".
TEMA V
Epidemiología analítica
• Secuencia de pasos de la Epidemiología analítica
• Diseñar el estudio
• Recoger los datos observados
• Revisar de los mismos: completos y exactos
• Reducir los datos a tablas, para expresar la información de una forma concisa: habitualmente son tablas
tetracóricas (tablas de contingencia o de 2 x 2) *
• Generar medidas epidemiológicas de frecuencia, asociación−efecto e impacto (las de impacto, cuando
quede demostrada la asociación exposición a factor de riesgo − enfermedad)
• Extrapolar o inferimos los resultados a la población
* Un EFECTO es la diferencia en la ocurrencia de una enfermedad entre dos grupos de personas que
difieren con respecto a una característica causal, que llamamos exposición.
Enfermos
No enfermos
Total de expuestos
Expuestos
No expuestos
a
c
b
d
Total de sanos
M0
Total de no expuestos M1
Total de enfermos N0
N1
Lo primero que se suele sacar de estas tablas es la incidencia acumulada:
• Incidencia acumulada de los expuestos:
21
• Incidencia acumulada de los no expuestos:
• Medidas de asociación − efecto
Al hacer un estudio analítico intentamos establecer relaciones causales, y uno de los requisitos para ello es
que exista una fuerte asociación entre factor de riesgo y enfermedad. El cálculo de esa fuerza de la
asociación se realiza a través de las medidas de efecto.
Estas medidas de efecto se establecen mediante la comparación entre frecuencias de expuestos y no
expuestos, y pueden ser:
• ABSOLUTAS: DR, DAR
Se basan en la diferencia de frecuencias entre expuestos y no expuestos:
• DIFERENCIA DE RIESGOS, RIESGO ATRIBUIBLE o DIFERENCIA DE TASAS (DR)
Mide el exceso de riesgo entre los expuestos comparado con los no expuestos a un factor de exposición:
por tanto, está midiendo la incidencia de la enfermedad entre los expuestos, atribuible al factor de
exposición.
• Diferencia Absoluta de Riesgo (de tasas):
IAe = incidencia acumulada de los expuestos
IAo = incidencia acumulada de los no expuestos
• Diferencia de Riesgo:
Ejemplo: estudio de cáncer de pulmón en áreas urbanas y rurales.
Tasa de incidencia (I)
Incidencia acumulada (IA)
Prevalencia
Urbana
60
315
275
Rural
15
80
70
Iurb−Irur = 60 − 15 = 45 x 10−5/año
IAurb−IArur = 315 − 80 = 235 x 10−5 en 5 años
Purb−Prur = 275 − 70 = 205 x 10−5
• RELATIVAS: RR, OR
Se basan en la razón de las medidas de frecuencia, o cociente de frecuencias de expuestos y no expuestos:
• RIESGO RELATIVO (RR)
Mide cuántas veces es más frecuente la enfermedad entre los expuestos que entre los no expuestos (por
ejemplo, riesgo de contraer cáncer entre los que no fuman y entre los fumadores). Depende del tiempo y de
la incidencia en los no expuestos.
22
Incidencia en expuestos =
Incidencia en no expuestos =
RIESGO RELATIVO =
RR = 1 Efecto nulo: aparece la misma frecuencia en expuestos y no expuestos
RR > 1 Hay factor de riesgo
RR < 1 Hay un factor de protección
• ODDS RATIO ó RAZÓN de VENTAJAS (OR)
Expresa el cociente entre la probabilidad de un suceso y la probabilidad complementaria de no ocurrencia. Es
lo mismo que el RR, pero sólo se emplea en estudios de caso−control, ya que estos permiten calcular la
incidencia entre expuestos y no expuestos.
Mide cuántas veces es más frecuente una enfermedad entre los expuestos que entre los no expuestos:
ODDS RATIO = Como en el RR:
OR = 1 Efecto nulo: aparece la misma frecuencia en expuestos y no expuestos
OR > 1 Hay factor de riesgo
OR < 1 Hay un factor de protección
• Medidas de impacto
Hablamos de medidas de impacto sólo cuando queda demostrado que el factor es realmente de riesgo.
Informan sobre los cambios en la distribución de la enfermedad que podemos esperar al variar el factor de
exposición.
• PROPORCIÓN ATRIBUIBLE, FRACCIÓN ETIOLÓGICA ó PROPORCIÓN ATRIBUIBLE
PROPORCIONAL(PA)
Sólo afecta a los expuestos: mide cuántos casos entre los expuestos tienen la enfermedad debido al factor de
exposición. Dicho de otro modo, la proporción de casos que entre los expuestos sería eliminada si
suprimiéramos el factor de exposición:
PROPORCIÓN ATRIBUIBLE =
PROPORCIÓN PREVENIBLE =
En un estudio de casos−control no se puede hacer el RR, ya que no conocemos si los enfermos son nuevos o
antiguos.
• PROPORCIÓN ATRIBUIBLE POBLACIONAL (PAP)
Afecta a toda la población: proporción de enfermos que sería eliminada si suprimiéramos el factor de
exposición.
23
Factor específico de exposición de la población =
PROPORCIÓN ATRIBUIBLE POBLACIONAL =
Frecuencia total =
ó
La forma adecuada de presentar los resultados de un ensayo clínico aleatorizado, y de otros tipos de ensayo,
debe incluir RRR, RAR, NNT, DAR y DRR, medidas que no son realmente de impacto:
• DAR = Diferencia absoluta de riesgo
• DRR = Diferencia relativa de riesgo (DRR = RR − 1)
• RRR = Reducción relativa de riesgo (RRR = 1 − RR)
• RAR = Reducción absoluta de riesgo (RAR = Io − IE)
• NNT = Número necesario a tratar (NNT = 1/RAR)
• Medidas de sinergia
En el supuesto de que coincidan dos tratamientos ¿cómo se sabe si hay interacción o antagonismo entre
ambos?
Se calcula mediante la estimación de la sinergia y el antagonismo de los factores implicados, A y B. En
definitiva, es el riesgo atribuible de los factores ensamblados, entre la suma de los mismos:
IS = 1 Los factores actúan independientemente
IS = 0 Los factores se neutralizan
IS > 1 Los factores son sinérgicos
IS < 1 Los factores son antagónicos
Se aplican criterios de:
• Simplificación: y p > 0,05
• Amplitud de la magnitud en la población:
IC 95 % ! ICS = IC 99 % ! ICI =
Para conocer si el efecto medido es justificable por el mero azar, se aplican otros dos tipos de pruebas: de
significancia e intervalos de confianza.
• Pruebas de significación
En la comprobación de hipótesis estadísticas, lo que intentamos es falsificar la H0 y aceptar por exclusión la
H1
H0 = hipótesis nula: no efecto, no asociación
H1 = hipótesis alternativa: si efecto, si asociación
24
La estadística utilizada es el valor de la p: p = probabilidad de que el resultado se deba al azar.
• No es la probabilidad de que la H0 sea correcta, sino que la calculamos asumiendo que sea correcta.
• Sus valores forman una estadística continua entre 0 y 1.
• No es una medida de la magnitud del efecto
• Depende de la magnitud del efecto y del tamaño de la muestra.
¿Cómo testamos la H0 cuando estamos estudiando factores de riesgo?
• PRUEBA DE CHI CUADRADO ()
Enf.
Sanos
Exp.
a
c
Total
exp. N1
No exp.
b
d
Total no
exp.
Total enf. M1
Total sanos M0
N0
M1 = a + b
M0 = c + d
N1 = a + c
N0 = b + d
Esperados =
T = total de todos los ensayos
Observados = a
Varianza =
Grados de libertad = (filas − 1)·(columnas − 1)
Obtenemos un valor: calculamos los grados de libertad y miramos en la tabla la fila correspondiente: si
obtenida > tabulada para p = 0,05, rechazamos H0 y aceptamos la hipótesis alternativa.
¿Qué significa decir que hay un efecto con p > 0,05? Si la H0 fuera cierta (en la población no hay diferencia
de riesgo entre expuestos y no expuestos), y realizamos 100 estudios similares, sólo en 5 de ellos
obtendríamos resultados desiguales o más alejados de la H0 que los observados, y esto sería debido al azar.
Pero además hay que presentar esta información referida a unos intervalos de confianza, para poder hacernos
una idea de la distribución de ese riesgo en la población general:
• INTERVALOS DE CONFIANZA (IC)
Rango de valores (alrededor de los encontrados en nuestro estudio), entre los que se encuentra el
verdadero valor de la población, con una probabilidad determinada (por ejemplo, IC al 95 %, es decir, p
= 0.05: es lo más habitual, aunque también puede calcularse para p = 0.01 − IC al 99 % o para p = 0.001 − IC
al 99,99 %).
Donde Z es una constante, de valor 1,96.
25
Ejemplo:
Enf
No enf
Exp
13
7
20
No exp
8
12
20
21
19
40
Los expuestos tienen un 63 % más de riesgo que los no expuestos
Hacemos chi−cuadrado:
En principio deberíamos rechazar la H1, pero éste no es un resultado definitivo: hay que calcular el intervalo
de confianza para sacar más datos importantes:
2,49 " 2.5, unas dos veces y media veces más RR, y 1,35 " 1.
En los intervalos de confianza siempre tiene que estar incluida la unidad, 1, es decir, uno de los dos valores
tiene que estar cercano a la unidad, para que podamos hablar de un IC del 95 %.
Los mismos datos, multiplicados x 10 (por aumento del tamaño muestral), no alterarían los datos de RR,
pero sí afectarían a chi−cuadrado, demostrándose que el resultado anterior era resultado de un error
aleatorio que se corrigió aumentando el tamaño muestral. Por lo tanto, no hay que detenerse
exclusivamente en la significación de la p.
Estamos informando del valor puntual obtenido, de la magnitud del efecto y de la variabilidad del efecto (la
amplitud del intervalo).
Esta amplitud del intervalo depende de:
• La variabilidad de los datos
• La cantidad de datos (al aumentar el número de observaciones aumentan la precisión y la estrechez
del intervalo).
• El nivel de confianza elegido, complementario del error . Nivel de confianza = (1 − )
• Medidas de prevención
• PRIMARIAS: Medidas que evitan que la enfermedad se desarrolle, antes de que aparezca la
enfermedad. Tratan de reducir la incidencia de la enfermedad.
• SECUNDARIAS: Medidas que se toman cuando la enfermedad ya está instalada: son medidas para
el diagnóstico y el tratamiento precoz. Pretenden quitar o evitar la enfermedad y la aparición de
secuelas.
• TERCIARIAS: Medidas tendentes a reinsertar a las personas que han sufrido la enfermedad.
• DETECCIÓN PRECOZ: TESTS DE DIAGNÓSTICO
En el marco de las medidas de prevención secundarias, la detección precoz puede hacerse mediante
pruebas de screening (para identificar enfermedades en poblaciones aparentemente sanas con tecnologías
simples: P.A., r−X), o mediante pruebas diagnósticas (detectan la presencia de un factor o factores de riesgo
26
en la población sintomática: son pruebas de confirmación). Los criterios para la aplicación de estos métodos
de detección precoz son:
• Enfermedad grave: tranquilizar a la población
• Alta prevalencia del estadio preclínico
• Período largo entre enfermedad y manifestaciones clínicas
• Que se conozca la historia natural de la enfermedad
• Que exista la posibilidad de tomar medidas de manera precoz, destinadas a mejorar el curso de la
enfermedad.
Los métodos de detección deben:
• Ofrecer una información correcta
• Ser rápidos, sencillos y baratos
• Ser aceptados por la población
• Ser válidos, capaces de medir lo que realmente queremos medir.
• Ser fiables, estables cuando se repiten sistemáticamente (por tanto, cuando se aumentan las
posibilidades de error). La fiabilidad debe tener en cuenta las variaciones interindividuales
(biológicas), aleatorias o sistemáticas, y las variaciones observacionales (determinaciones
distintas), debidas al observador o al instrumento.
En un test de sreening obtendríamos una tabla como esta:
Estado individual
Enfermos
Sanos
Resultados
del test
"
VP
FP
VP + FP = valor
predictivo VP"
"
FN
VN
VP + FN =
sensibilidad
FP + VN =
especificidad
FN + VN = valor
predictivo VP"
Parámetros de salud / enfermedad
SENSIBILIDAD =
Validez del + ó −
VP" =
Otros datos
Capacidad del test para detectar a los que
están enfermos (VP en el total de enfermos).
ESPECIFICIDAD =
Enfermos reales que
den +
VP" =
Capacidad del test para detectar a los que
están sanos (VN en el total de sanos).
No enfermos reales que Todos los enfermos en el total de
den −
individuos de la muestra.
VALOR GLOBAL =
Eficiencia o eficacia
PREVALENCIA =
Para que aceptemos un test, sensibilidad y eficacia han de estar por encima del 90 %.
Relación entre los parámetros que evalúan las pruebas diagnósticas:
VP" y VP" dependen de:
♦ La prevalencia de la enfermedad
♦ La sensibilidad de la prueba (parámetro fijo)
♦ La especificidad de la prueba (parámetro fijo)
27
Por tanto, VP" y VP" dependerán exclusivamente de la prevalencia: VP" aumentará si aumenta la prevalencia,
mientras que VP" disminuye cuando aumenta la prevalencia. A mayor prevalencia, mayor VP" y menor
VP".
• CURVA ROC
Es una manera de representar gráficamente los resultados inevitables debidos a la variación de la
especificidad o sensibilidad de una prueba.
♦ En el eje de ordenadas (Y) situamos la sensibilidad (tasa de VP)
♦ En el eje de abscisas (X) situamos 1 − especificidad (tasa de FP)
Las curvas ROC permiten seleccionar el punto de corte óptimo para una prueba diagnóstica, y también
sirven para comparar entre distintas pruebas: será mejor la prueba en la que la curva ROC tenga un
mayor área bajo la curva.
Ojo: en la curva se pone (1 − especificidad) en X. Por tanto, si en la gráfica vale 0,80, la especificidad real
será 1 − 0,80 = 0,20.
• RAZÓN DE VEROSIMILITUD (LIKEHOOD RATIO)
Indica la probabilidad de que aparezca un determinado resultado en los enfermos, en comparación con
los individuos sanos. En otras palabras, cuántas veces es más probable que se de un resultado en la población
de enfermos en comparación con la de sanos.
Siendo S = sensibilidad y E = especificidad: L" = L" =
• CRITERIOS PARA SELECCIONAR UN TEST
De la enfermedad:
♦ Común y grave
♦ Conocimiento de su historia natural
♦ Alta prevalencia
♦ Tratamiento eficaz
♦ Buena infraestructura
♦ Costes
Del test:
♦ Reproducibilidad: condicionada por
la variabilidad del hecho, del
observador y del test.
♦ Sencillo y aceptado
♦ Poco coste
♦ Mínimos efectos secundarios
♦ Sensibilidad, especificidad
♦ VP" y VP"
♦ Eficiencia o valor global
TEMA IV
El proceso de medir y cuantificar
La investigación científica, en general, y epidemiológica en especial, se define como un proceso sistemático
organizado y objetivo, destinado a responder a una pregunta.
• Sistemático: formulación de una hipótesis que es el objetivo de trabajo; se recogen los datos según un
plan establecido, datos que, una vez analizados e interpretados, modificarán o añadirán nuevos
conocimientos a los ya existentes.
28
• Organizado: se entiende que todos los miembros del equipo conocen a la perfección lo que ha que
hacer durante todo el estudio, aplicando las mismas definiciones y criterios y actuando de forma
idéntica = protocolizado.
• Objetivo: las conclusiones no se basan en impresiones subjetivas: se evitan prejuicios.
• Medir
Las actividades que se realizan en investigación se resumen en tres: medir fenómenos, comparar los resultados
obtenidos en diversos grupos, e interpretarlos en función de los conocimientos y teniendo en cuenta las
variables que puedan haber influido.
Medir es estudiar el efecto de una intervención y/o exposición sobre un problema de salud. Identificar y
seleccionar un criterio para medir este efecto es de crucial importancia, debiendo tenerse en cuenta que el
criterio ha de ser objetivo y debe poder ser medido con un método y ser reproductible
En una primera etapa los conceptos se definen de forma clara y explicita, y en la segunda se deciden los
instrumentos y técnicas para medirlos, haciendo operativas las definiciones, especificando las variables que se
van a utilizar y cómo se van a medir.
Es estudiar el efecto de una exposición sobre un problema, con cierta validez y cierta precisión.
• VALIDEZ
El término validez denota el grado en que una variable mide realmente aquello para lo que está
destinada (verdadero valor de lo que se investiga = exactitud). Podemos diferenciar entre validez:
• INTERNA: resultado para los pacientes que participan en el estudio.
• EXTERNA: resultado para los pacientes de toda esa población.
• PRECISIÓN ó FIABILIDAD
El término es sinónimo de reproductividad, precisión, estabilidad o consistencia, y se refiere al grado en
que pueden reproducirse los resultados obtenidos por un procedimiento de medición. Ojo: muy fiable no
significa válida (báscula mal calibrada). Válido no es lo mismo que preciso.
A = Alta validez y fiabilidad
B = Baja validez y alta fiabilidad
C = Alta validez y baja fiabilidad
D = Baja validez y fiabilidad
v v = verdadero valor
La medición de un fenómeno clínico está sujeta a la variación biológica individual, del observador o del
instrumento utilizado. Tres situaciones de variabilidad que hacen que la precisión varíe:
• INVIDIDUAL: los fenómenos biológicos varían de un momento a otro: una medición realizada en un
momento muestra de todas las posibles mediciones de este fenómeno durante un periodo de tiempo,
no tiene por qué representar el verdadero valor de estas medidas. Por ejemplo, los niveles de glucosa a
29
primera hora de la mañana y dos horas después de haber comido. Para minimizar el impacto de la
variación biológica individual (repetir la medición y media).
Además, los pacientes que padecen la enfermedad recuerdan con mucha mayor exactitud su historia pasada de
exposición. En otras ocasiones pueden falsear deliberadamente las respuestas, para complacer al entrevistador
o no estar bien vista socialmente una respuesta.
• DEBIDA AL INSTRUMENTO: la medida empleada no es la adecuada o el instrumento utilizado no
está bien calibrado. Los errores en la medición ocurren en mayor o menor grado (cuestionario,
exploración física o prueba complementaria) e influyen en la clasificación de los participantes.
♦ Diferencial si afecta de forma diferente a los participantes de un estudio
♦ No diferencial si se presenta por igual en todos los participantes.
Para minimizar sus efectos, estandarizar los procedimientos y seleccionar el instrumento que presente menor
variabilidad
• DEBIDA AL OBSERVADOR: si el observador mide una variable de forma sistemáticamente
distinta según el grupo de estudio, por ejemplo, en estudio sobre tratamiento y efecto secundario. Para
minimizar, evaluar la variabilidad intra e inter de los observadores. Depende de las condiciones en
que se realiza la medición y la propia experiencia.
Tres variabilidades directamente relacionadas con los errores que puedan cometerse a la hora de realizar
una medición. Otras características de la medición:
Las mediciones han de ser:
• Sensibles, para detectar diferencias que puedan resultar importantes.
• Específicas, representa sólo la característica de interés.
• Apropiadas, para los objetivos del estudio, no siendo vaga o ambigua.
• Distributivas, dar una distribución de respuestas adecuadas (intervalo).
• Objetivas, reducir el grado en que el observador está vinculado a la medición y mejorar la estructura
del instrumento, para que éste valore los detalles específicos, en lugar de realizar una generalización
vaga.
• Eficientes: poco onerosas en tiempo y en dinero.
• Comparar
Comparar los resultados entre grupos, entre el grupo que recibe la intervención o está expuesto al posible
factor de riesgo y un grupo control (referencia sobre la frecuencia enfermedad en ausencia de exposición o
intervención).
Los principales efectos que se han de tener en cuenta en el diseño de un estudio son:
• EFECTO HAWTHORNE
Cambio de comportamiento de los individuos que participan en un estudio (grupo de estudio y control).
Respuesta inducida por comportamiento de los participantes de que se les está estudiando (se produce
igual en ambos grupos).
Descrito por primera vez cuando la Western Electric Company llevó a cabo, en los años veinte, una serie de
experiencias en su fábrica Hawthorne de Chicago, con el fin de determinar el efecto de la iluminación sobre la
30
producción. Los grupos control trabajaron bajo una iluminación constante, mientras que en los grupos
experimentales era variable, aumentada o disminuida. El resultado fue que la producción se incrementó no
sólo en los grupos de estudio, independientemente de la intensidad de la iluminación, sino también en los
grupos de control. El simple hecho de que los trabajadores sabían que estaban siendo vigilados supuso un
aumento en la producción.
• EFECTO PLACEBO
Se produce principalmente en estudios que utilizan tratamientos. Es la respuesta que dan las personas
enfermas por recibir el tratamiento, aunque este sea un placebo sin efectos (respuesta en una persona
enferma como consecuencia de la administración de un tratamiento, pero sin ser un específico del mismo: se
produce igual en ambos grupos). El efecto contrario es el efecto nocevo.
• EFECTO REGRESIÓN A LA MEDIA
Es la tendencia de los individuos que tienen un valor muy elevado de una variable a presentar valores
más cercanos a la media de la distribución cuando la misma variable es medida por segunda vez (el
grupo control permite minimizar su efecto). Cuando existen valores que se salen mucho de la media, se repite
tomando como valor la semisuma entre el valor más alto y el normal.
• EFECTO EVOLUCIÓN NATURAL
Hay que tener en cuenta que la evolución o curso natural de una enfermedad tienda a su resolución: los
esfuerzos terapéuticos pueden coincidir con la mejoría observada, pero no ser su causa (en este caso es
muy importante el grupo control).
• Interpretar
En la interpretación de un estudio se debe tener en cuenta el papel que ha jugado el azar (error aleatorio) y los
diversos errores sistemáticos introducidos en la selección, recogida de información y control de los factores de
confusión.
Errores en la medición: variabilidad y sesgos
• ERROR ALEATORIO
Las observaciones se hacen de ordinario en una muestra de pacientes más que en todos aquellos que padecen
la enfermedad en cuestión. Un sólo grupo de observaciones, aun si han sido bien seleccionadas, pueden
representar erróneamente la verdad debido a un error que surge de variación por el azar, por la divergencia
existente entre la observación de una muestra y el verdadero valor de la población. El azar puede afectar todos
los pasos de una observación clínica. Así ocurre en el muestreo de pacientes para el estudio, en la selección de
los grupos de tratamiento y en las mediciones efectuadas en los grupos.
La variación aleatoria tiene tanta probabilidad de ocurrir en observaciones por encima del valor real como por
debajo. Como consecuencia, la media de observaciones provenientes de muchas muestras, tiende a
corresponder con el verdadero valor en la población, aun cuando los resultados de pequeñas muestras
individuales no lo hagan. Se arregla aumentando el número de individuos. La Estadística ayuda a
cuantificar y minimizar la probabilidad de que el azar o variación aleatoria sea responsable de los
resultados clínicos, aunque no pueda ser totalmente eliminada.
• SESGO
31
Son situaciones o resultados anómalos, llamados sesgos, que se producen inconscientemente: se dan cuando
se introduce un error en el diseño del trabajo, ya sea en la selección de los individuos, en la información,
recogida o análisis, de forma que se produzca entre los grupos una diferencia sistemática no atribuible al
factor al factor que se está estudiando. Existen tres tipos:
• SESGO DE SELECCION
Es el error sistemático en proceso de selección de los individuos que limita la comparabilidad de los
grupos. Puede aparecer durante la asignación de los participantes a cada uno de los grupos, o deberse a las
pérdidas de individuos durante el seguimiento. También pueden producirse durante el seguimiento de los
participantes. Si la proporción de individuos que se pierden durante el seguimiento es diferente en ambos
grupos, alertará al investigador de que puede existir un sesgo. No obstante, estas diferencias no implican
necesariamente un error: éste se produciría cuando la probabilidad de desarrollar la enfermedad es diferente
en cada uno de los grupos, entre los que abandonan y los que finalizan el estudio.
• SESGO DE INFORMACION
Se produce cuando la medición de la o las variables en estudio y/o el criterio de evaluación es
sistemáticamente desigual entre los grupos de pacientes. Las principales fuentes de estos errores son la
aplicación de pruebas poco sensibles y/o especificas para el diagnóstico de una enfermedad o la identificación
de una exposición, la aplicación de criterios diagnósticos incorrectos, o distintos en cada grupo, e
imprecisiones u omisiones en la recogida de los datos. Por ello cualquier variable debe medirse de la misma
forma en todos los participantes.
• FACTORES DE CONFUSION
La primera regla para cualquier comparación es que los grupos han de ser similares en relación a las
características que influyen sobre los resultados. A menudo, estas variables se distribuyen de modo
desigual y es necesario corregir tales diferencias.
El fenómeno de confusión aparece cuando la asociación observada entre el factor de estudio y el criterio
de evaluación puede ser total o parcialmente explicada por otra variable (el factor de confusión) o, por el
contrario, cuando una asociación real queda enmascarada por este factor.
Para que una variable se considere de confusión debe cumplir condiciones:
• Ser un factor de riesgo de la enfermedad
• Estar asociada a la variable de estudio.
• No ser un paso intermedio en la asociación entre el factor de estudio y la enfermedad.
Para prevenir el efecto de los factores de confusión en el diseño de un estudio pueden utilizarse tres
métodos:
• ASIGNACIÓN ALEATORIA: sólo puede utilizarse en estudios en los que se evalúa una
intervención preventiva o curativa.
• RESTRICCIÓN: consiste en definir unos criterios de selección muy estrictos, con la finalidad de
disminuir la variabilidad del factor de confusión (ello puede crear, si los criterios son muy restrictivos,
serios problemas para encontrar un número suficiente de sujetos).
• APAREAMIENTO: seleccionar para cada uno de los casos uno o varios controles que sean similares
en una serie de características que influyen en la enfermedad.
32
• una combinación entre ellos.
Los factores de confusión, a diferencia de los sesgos de selección o de información, se pueden controlar en
la etapa de análisis a través de la estratificación, o un análisis multivariante.
TEMA V
Asociaciones causales
Una asociación causal es una asociación causa − efecto, siendo una causa todo factor responsable de un
efecto y, en Estadística, todo suceso, condición o característica que precede a una enfermedad, y sin la
cual la enfermedad no hubiera ocurrido o hubiera aparecido más tarde. Existen dos sistemas para aplicar
el razonamiento a la ciencia:
♦ Método deductivo: de lo general a lo particular. Avanza poco.
♦ Método inductivo: de lo particular a lo general. Este método observa fenómenos, plantea y
resuelve hipótesis, y elabora leyes.
El método inductivo se basa en el descubrimiento de relaciones causales entre un factor y la enfermedad o un
factor y la salud. Aquí causa es un concepto relativo: existen cánceres de pulmón entre individuos fumadores
y entre no fumadores.
• FACTOR DE RIESGO: factor, endógeno o exógeno, que puede ser controlado, que precede al
comienzo de la enfermedad, que está asociado a un incremento de la probabilidad de ocurrencia de
una enfermedad, y que tiene responsabilidad en su producción (tabaco − bronquitis crónica).
• MARCADOR DE RIESGO: concepto reservado a las variable no controlables y que definen a los
individuos particularmente vulnerables. Señalan el aumento del riesgo de padecer la enfermedad,
aunque no tienen influencia directa en su producción (edad, sexo). Es endógeno.
• INDICADOR DE RIESGO: signo precursor de una enfermedad, que pone de manifiesto la
presencia temprana de ella. Es una característica significativamente unida a la enfermedad en su
estado preclínico, sin influencias en su producción (mancha de Koplik − sarampión).
• Teorías de la causalidad
Básicamente tres: determinismo puro, determinismo modificado, y el modelo basado en la probabilidad.
• DETERMINISMO PURO
Existe una causa específica, constante y única, que genera un efecto (bacilo de Koch − tuberculosis). Esto
implica una variable ha de ser causa suficiente y necesaria de un efecto, cumpliendo:
♦ Especificidad de causa: a cada efecto, una sola causa
♦ Especificidad de efecto: a cada causa, un solo efecto
En pocas áreas de la investigación biomédica se aplica todavía este método determinista: la mayoría de las
enfermedades tienen diversos factores causales y ciertos factores de riesgo producen más de un efecto
patógeno. Además, tampoco toma en consideración el papel de los marcadores e indicadores de riesgo, ni
tiene en cuenta los períodos de inducción ni de latencia, ni el sinergismo y el antagonismo.
33
• DETERMINISMO MODIFICADO
Una causa es capaz de producir varios efectos y una enfermedad puede estar producida por más de una causa.
Incorpora conceptos del modelo determinista y del modelo multicausal:
♦ Teoría de la multicausalidad
♦ Teoría de la multiefectividad
Podemos diferenciar entre:
♦ CAUSA NECESARIA: tiene que estar presente para que se produzca el efecto.
♦ CAUSA SUFICIENTE: por sí sola es capaz de producir el efecto, así que si hay efecto, la
causa estará.
Establece varias premisas: las causas no pueden ocurrir después de los efectos; los efectos unicausales no
existen, y se niegan los tiempos de inducción constantes para las enfermedades.
• MODELO PROBABILÍSTICO o MULTICAUSAL
Parte de la premisa de que la enfermedad no es cuestión del azar, así que busca establecer CRITERIOS
DE CAUSALIDAD (Hill):
• ASOCIACIÓN: relación o covariación significativa entre las variables causa y efecto, se demuestra
mediante pruebas estadísticas p significativas.
• AUSENCIA DE ESPURIEDAD: no deben existir terceras variables o factores que afecten a la
relación entre las variables causa y efecto. Implica haber realizado un sólido estudio teórico que permita
incluir en el plan de investigación todas las variables relevantes con los factores de riesgo (variables
independientes): por ejemplo, peso y rendimiento intelectual en niños y adolescentes, ambas variables
relacionadas con la edad.
• CONSISTENCIA DE LA ASOCIACIÓN: que diferentes estudios encuentren la misma asociación, en
diferentes diseños, poblaciones y países. La replicación de la asociación es fundamental en la inferencia
causal: es altamente improbable que todos los sesgos se produzcan en la misma dirección.
• FUERZA DE ASOCIACIÓN: medida de la magnitud del riesgo relativo encontrado. Cuanto mayor sea el
riesgo relativo, mayor es el convencimiento de que la asociación es causal. Así, con una razón de riesgo
de:
♦ 0,9 − 1,1 : no refleja ningún efecto
♦ 1,2 − 1,6 : riesgo débil
♦ 1,7 − 2,5 : riesgo moderado
♦ > 2,6 : riesgo fuerte
• ESPECIFICIDAD: es el grado en que una determinada exposición produce una determinada enfermedad
específica. Refuerza la causalidad, no la contradice. Esta relación biunívoca exclusiva niega la
multicausalidad.
• PRECEDENCIA TEMPORAL DE LA CAUSA: la exposición al factor debe preceder al desarrollo de la
enfermedad. En las enfermedades de período de inducción largo, la secuencia temporal es de difícil
apreciación.
• COHERENCIA O NO CONFLICTIVIDAD: con los hechos asumidos de la Historia natural y de la
biología de la enfermedad en el momento presente (pruebas o ensayos clínicos). Es la plausibilidad
biológica de la relación.
• GRADIENTE BIOLÓGICO o GRADIENTE DOSIS − RESPUESTA: para que una causa produzca una
34
enfermedad, variaciones en la cantidad de la causa deben producir variaciones en la cantidad de efecto en la
misma dirección.
• REVERSIBILIDAD: evidencia experimental de la disminución o desaparición del efecto cuando se
suprime la causa.
• ANALOGÍA: o juicio de una relación por similitud con otros, siendo ésta una regla deductiva.
• PROBABILIDAD: hace referencia a la significación estadística.
• CUMPLIMIENTO DE LAS PREDICCIONES: hay que demostrar que los hechos son derivados de
una asociación causal.
• COMPROBABILIDAD
Problemas
• Suponga que la evolución del SIDA en EEUU entre 1959 y 1982 ha sido la que sigue: al inicio de 1981
habría 17 enfermos, y al inicio de 1982, 112. suponga también que ningún enfermo se ha curado, y que
toda la población de los EE.UU. está expuesta al SIDA:
Año del diagnóstico
Grupos de riesgo
1959 − 1980
1981
1982
Varones homosexuales y bisexuales
43
167
558
Toxicómanos vía i.v.
6
26
137
Haitianos
4
12
35
Hemofílicos
0
1
7
Otros
2
12
45
Fecha
1−1−59
1−1−81
1−1−82
Población
193.410.522
203.149.780
203.758.148
• ¿Cuál sería el numerador del Índice Bruto de Incidencia Acumulada del SIDA en EEUU durante el año
1981?
IA (1981) = casos nuevos / población sana expuesta
Sería el sumatorio de los casos nuevos de 1981: 167 + 26 + 12 + 1 + 12 = 218
• ¿Cuál sería el denominador del mismo Índice?
La población sana expuesta serían los 203.149.780 millones de habitantes a 1−1−81, menos los 17
enfermos que había al inicio del año: 203.149.780 − 17 = 203.149.763
• ¿Cuál sería la IA de SIDA en 1981, expresada en casos por millón de habitantes?
IA (1981) = (casos nuevos / población sana expuesta) x 106 =
• ¿Cuál será el numerador del Índice de Prevalencia para ese mismo año?
El nº de casos = 17 + 218 = 235
35
• ¿Cuál será el denominador del Índice de Prevalencia para ese mismo año?
No sería la población de 1981, sino la media de la población del 81 + la del 82 =
(203.149.780 + 203.758.148)/2 = 203.453.964
• Cuánto vale el Índice de Prevalencia del SIDA a 1−1−82, expresado en casos por millón de habitantes?
• Para calcular los Índices Brutos específicos de Prevalencia del SIDA en 1982 por grupos de riesgo,
necesitaríamos, además
El número de individuos en cada grupo de riesgo.
• Si se elige el mes como unidad de tiempo ¿cuánto vale el denominador de la Tasa Media de Incidencia en
1981?
enero
4 x 0,51 meses +
febrero
6 x 1,5 +
marzo
5 x 2,5 +
abril
10 x 3,5 +
+
diciembre
(203.149.700 − 218) x 12
• En un estudio sobre dieta, alcohol y tabaco, se selecciona un grupo de enfermos con cáncer laríngeo, y
otro grupo de varones, obteniéndose los siguientes resultados:
TABACO
No fuman
½ paquete/día
de ½ a 1 paq./día
> 1 paq./día
Totales
ALCOHOL
No beben
< 3 copas/mes
3 − 30 copas/mes
> 30 copas/mes
Totales
DIETA
< 50.000
Con cáncer de laringe
43
25
171
135
374
Con cáncer de laringe
38
41
111
179
369
Con cáncer de laringe
Sanos
163
41
126
51
381
Sanos
87
51
104
116
358
Sanos
Totales
206
66
297
186
755
Totales
125
92
215
295
727
Totales
98
78
176
201
216
417
39
65
104
359
697
UI de vit./mes
50.000 − 150.000
UI vit./mes
> 150.000
UI de vit./mes
Totales
338
• ¿Qué tipo de estudio es?
Es un caso − control.
36
• Calcular el RR de cáncer de laringe para cada uno de los niveles de consumo de tabaco, alcohol y dieta e
interprete los resultados. Calcule su significación y amplitud.
El RR no se puede calcular porque desconocemos el tiempo que llevan los pacientes expuestos a los
agentes. Pero sí podemos calcular la Odds ratio (OR), que es exclusiva de los caso−control
Si nos aclaramos con las tablas anteriores, podemos hacer las tablas tetraméricas ya conocidas de 2 x 2:
TABACO
Expuestos
Enfermos
½
No expuestos
Totales
43
374
ALCOHOL
Enfermos
<3
Expuestos
No expuestos
Totales
DIETA
Expuestos
½−1 >1
25
171
3 − 30 > 3
41
111
38
369
Enfermos
< 50.000
Sanos
½
½−1 >1
135
41
126
163
381
51
Sanos
<3
3 − 30 > 3
179
51
104
87
358
116
Sanos
50.000 a
150.000
98
< 50.000
201
50.000 a
150.000
78
216
No expuestos
(>150.000)
Totales
39
65
369
358
Hay una relación directa entre la incidencia del cáncer y el número de cigarrillos o copas al día,
relación que está menos clara en el tema de la ingesta de vitaminas.
• Calcular el y el IC de los que fuman más de un paquete al día.
Amplitud =
• En un test de screening para ver las tasas de colesterol sérico y la presión arterial sistólica en 1329
varones de 40 a 59 años de edad, en el momento del examen, ninguno presentaba cardiopatía. Se efectuó
un seguimiento a lo largo de 6 años para detectar la presencia de enfermedad, y se obtuvieron los
siguientes datos:
• Colesterol < 220 mg/mL
♦ con T.A. < 147 mmHg = 431 y 10 casos de cardiopatía
♦ con T.A. 147 − 166 mmHg = 93 y 3 cardiopatías
♦ con T.A. >167 mmHg = 44 y 7 cardiopatías.
• Colesterol 220 − 259 mg/mL
37
♦ con T.A. < 147 mmHg = 347 y 19 casos de cardiopatía
♦ con T.A. 147 − 166 mmHg = 74 y 6 cardiopatías
♦ con T.A. >167 mmHg = 49 y 6 cardiopatías.
• Colesterol > 260 mg/mL
♦ con T.A. < 147 mmHg = 185 y 19 casos de cardiopatía
♦ con T.A. 147 − 166 mmHg = 57 y 11 cardiopatías
♦ con T.A. >167 mmHg = 44 y 11 cardiopatías.
• ¿Qué tipo de estudio es?
Es un estudio analítico de cohortes (varones entre 40 y 59 años) y prospectivo, para valorar la
incidencia de cardiopatías (calcula casos nuevos).
• ¿Qué medidas puedo obtener? Calcularlas.
IA en expuestos y no expuestos, RR, e IC.
Antes de empezar a trabajar hay que ordenar los datos en tablas:
CHOL.
TENSIÓN ARTERIAL
< 147
subtotal
Cardiopat
147 − 160
subtotal
Cardiopat
> 160
subtotal
38
Descargar