RED NACIONAL UNIVERSITARIA Facultad de Ciencias de la Salud

Anuncio
FACULTAD DE CIENCIAS DE LA
SALUD
RED NACIONAL UNIVERSITARIA
Facultad de Ciencias de la Salud
Carrera de Fisioterapia y Kinesiología
OCTAVO SEMESTRE
SYLLABUS DE LA ASIGNATURA
METODOLOGIA DE LA INVESTIGACION
Elaborado por: Lic. Carlos A. Garrido Pinto
Gestión Académica I/2014
U N
I V E R S
I D A D
D
E
A Q U
1
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
UDABOL
UNIVERSIDAD DE AQUINO BOLIVIA
Acreditada como PLENA mediante R. M. 288/01
VISION DE LA UNIVERSIDAD
Ser la Universidad líder en calidad educativa.
MISION DE LA UNIVERSIDAD
Desarrollar la Educación Superior Universitaria con calidad y
Competitividad al servicio de la sociedad.
Estimado(a) estudiante:
El Syllabus que ponemos en tus manos es el fruto del trabajo intelectual de tus docentes, quienes han
puesto sus mejores empeños en la planificación de los procesos de enseñanza para brindarte una educación
de la más alta calidad. Este documento te servirá de guía para que organices mejor tus procesos de
aprendizaje y los hagas mucho más productivos.
Esperamos que sepas apreciarlo y cuidarlo.
U N
I V E R S
I D A D
D
E
A Q U
2
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
SYLLABUS GENÉRICO
Asignatura:
Metodología de la Investigación
Código:
FYK - 835
Requisito:
FYK - 735
Carga Horaria:
Horas Teóricas:
Horas Prácticas:
Créditos:
80 Horas Teórico / Prácticas
40
40
8
I- OBJETIVOS GENERALES DE LA ASIGNATURA.





Elaborar informes preliminares y finales metodológicamente estructurados con parámetros
estadísticos expresados en forma correcta y sistemáticamente.
Manejar estrategias de recolección de datos según los propósitos y características de la
investigación.
Lograr la interacción social con el medio, a través de trabajos prácticos, donde la interrelación,
dual y grupal se incrementará logrando no solo afianzar sus conocimientos teóricos sino
logrando experiencias prácticas.
Identificar las características de la investigación científica mediante la descripción de los pasos
del método científico
Analizar los enfoques de investigación destacando las ventajas y desventajas de cada uno de
los enfoques
II- PROGRAMA ANALÍTICO DE LA ASIGNATURA.
1. FUNDAMENTOS TEÓRICOS
1.1. Generalidades
1.2. El conocimiento científico
1.3. La investigación científica
1.4. Metodología
1.5. Trabajos de aplicación del método científico
1.6. Clasificación de la investigación
1.7. Etapas de la investigación
2. EL ESQUEMA DE INVESTIGACIÓN
2.1. El problema de investigación
2.2. El esquema de investigación
2.3. Tipos de esquemas de investigación
2.4. Etapas de una investigación típica
3. LA INVESTIGACIÓN EXPLORATORIA
3.1. El significado de explorar
3.2. Recolección de datos
U N
I V E R S
I D A D
D
E
A Q U
3
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
4. EL PAPEL DE LA ESTADÍSTICA
4.1. Muestra y muestreo
4.2. Pruebas de significación
4.3. Etapas de la estadística
5. LA INVESTIGACIÓN DESCRIPTIVA
5.1. Hipótesis
5.2. Conceptos: constantes y variables
5.3. Categorización y operacionalización
5.4. Organización de los datos
5.5. Análisis e interpretación de los datos
6. EL PAPEL DE LA MEDICIÓN
6.1 Medición
6.2. Instrumentos de medición
6.3. Escalas de medición
7. LA INVESTIGACIÓN EXPLICATIVA
7.1. El concepto de causa
7.2. Requisitos de causalidad
7.3. Control de variables adicionales
7.4. El diseño experimental
8. PRUEBAS DE CONFIRMACIÓN
8.1. Diseños experimentales divariados
8.2. Diseños experimentales multivariados
9. PRUEBAS DE ESPUREIDAD
10. EL INFORME DE INVESTIGACIÓN
11. RESUMEN
III-Actividades propuestas para las Brigadas UDABOL
Los alumnos de octavo semestre de fisioterapia realizarán un trabajo investigativo cuyo tema será:
“Riesgos laborales del personal de fisioterapia en Hospitales de tercer nivel”
Esta investigación se irá presentando a medida que se desarrolle el estudio y esta presentación
será evaluativo.
Introducción
Las infecciones laborales son aquellas enfermedades humanas secundarias a exposición en el
trabajo a microorganismos como bacterias, virus, hongos y parásitos (helmintos, protozoos). Lo
que distingue a una infección como profesional es algún aspecto del trabajo que implica contacto
con un microorganismo activo La infección laboral se presenta después del contacto con personas
infectadas, como en el caso de los profesionales de la salud, con animales o tejidos humanos,
secreciones o excreciones infectadas, como en el caso de los empleados de laboratorios, con
personas
U N
I V E R S
I D A D
D
E
A Q U
4
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
Objetivos:
Proponer un programa de bioseguridad para el personal de fisioterapia en los hospitales de tercer
nivel
Metodología:
Se realizará un estudio descriptivo en los hospitales de tercer nivel en Santa Cruz, teniendo en
cuenta los riesgos laborales a los que están expuestos el personal de fisioterapia
IV-Evaluación de la asignatura:
PROCESUAL O FORMATIVA
La evaluación de esta asignatura se realizará de la siguiente manera:
Evaluación procesual que incluirá:
a) Preguntas orales evaluativas realizadas en las clases teóricas
b) Preguntas escritas evaluativas en las prácticas referentes al tema tratado en la clase teórica
c) Evaluación periódica del avance del trabajo de investigación orientado al grupo
e) Respuesta escrita e individual de los gift
Estas actividades se calificarán sobre 50% de la nota final, independientemente de la cantidad de
actividades.
DE RESULTADOS DE LOS PROCESOS DE APRENDIZAJE O SUMATIVA (examen parcial o
final)
Evaluación de resultados del proceso de aprendizaje: 2 Exámenes parciales y un examen final
Presentación y discusión del informe final del trabajo investigativo orientado. Cada uno de ellos
tendrá un valor de 25%
V. BIBLIOGRAFÍA BASICA







MÉNDEZ, CARLOS E. Metodológica, 2001, (Signatura Topográfica 001.42 M52)
CARRASCO, SERGIO, Metodología de la investigación científica, 2005, (Signatura
Topográfica 001.42 C23)
HERNÁNDEZ, ROBERTO, Metodología de la investigación, 2003, (Signatura
Topográfica 001.42 H43)
CASTILLA. Metodología de la Investigación en Ciencias De La Salud. Editorial Manual
Moderno, 2001.
GARCÍA ROMERO. Metodología De La Investigación en Ciencias de la Salud. Editorial
McGraw-Hill-Interamericana, 1999.
GARCÍA CONDE. Metodología de la investigación clínica. Editorial Ars Médica, 2003.
HERNÁNDEZ SAMPIERI. Metodología de la Investigación
BIBLIOGRAFÍA COMPLEMENTARIA:
Ariel Ruiz. LA INVESTIGACIÓN EDUCATIVA
Ignacio Vidal .INTRODUCCION A LAS PROBABILIDADES
Esther Díaz. EL CONOCIMIENTO CIENTIFICO
U N
I V E R S
I D A D
D
E
A Q U
5
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
PROGRAMA DE CONTROL DE LA CALIDAD
WORK PAPER # 1
UNIDAD O TEMA: 1. FUNDAMENTOS TEÓRICOS
TITULO: Generalidades
FECHA DE ENTREGA:
La metodología de la investigación incluye los procesos y procedimientos usados para llevar a
cabo una investigación. Es una empresa ordenada, estructurada que produce datos precisos y
consistentes.
Las áreas principales de la metodología científica son:
 Diseño de la investigación.
 Recogida de datos.
 Análisis de datos.
CONCEPTO Y DEFINICIÓN DE INVESTIGACIÓN EN FISIOTERAPIA.
Es la investigación sistemática de la práctica de la fisioterapia y del efecto de su práctica en el
cuidado del paciente, de la familia o la Comunidad. (Notler y Hott).
El objeto fundamental de la investigación en fisioterapia es crear y mantener una sólida base
científica para la práctica de la fisioterapia, que promueva mejores resultados en los cuidados del
paciente. (Talbot).
FINALIDAD DE LA INVESTIGACIÓN.
Para ejercer una practica fundamentada científicamente.
Para el desarrollo de una profesión autónoma.
OBJETO DE LA CIENCIA. Es descubrir las causas de la variabilidad de los fenómenos.
OBJETIVOS: -- Describir.
-- Explicar.
MÉTODO:
-- Observación.
-- Control.
Control es la búsqueda de pruebas en contra, y que ejercen un control sobre ellas. Cuando
tenemos una variable independiente debemos controlar y ver hasta que punto influye en la variable
dependiente.
POSTULADOS DE LAS CIENCIAS.
 Determinismo: buscar la causa de los fenómenos.
 Relaciones limitadas: es la multicausalidad de los fenómenos.
 Falsacionismo: los hallazgos científicos siempre están sometidos y expuestos a
pruebas y comprobaciones posteriores.
Cuando llegamos a una explicación de lo que está ocurriendo o del por qué se produce un
fenómeno se llega a la TEORÍA CIENTÍFICA.
U N
I V E R S
I D A D
D
E
A Q U
6
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
Una teoría es ciencia cuando acepta la posibilidad de encontrar pruebas en contra, éste es un
requerimiento primordial para reconocer si una teoría es científica, si no se pueden encontrar
evidencias en contra de la teoría establecida, no se le puede llamar teoría científica (estos son los
llamados criterios de demarcación.
CRITERIOS DE DEMARCACIÓN: Una teoría es científica si advierte y acepta que puede haber
pruebas en contra de ella.
Hay teorías que no son científicas, por Ej.: la religión, el marxismo. Para que la religión fuese
considerada como teoría científica tendría que empezar por admitir que puede ser que Dios no
exista, algo que no ocurre.
UTILIDAD DE LA INVESTIGACIÓN. La investigación en fisioterapia es inadecuada, diseminada e
insuficientemente utilizada, hay que salvar la separación entre la práctica y la investigación.
Proyectos de utilización, se siguen los siguientes pasos:
 Identificar estudios.
 Valorar su aplicabilidad.
 Realizar protocolos.
 Trasladar protocolos.
BARRERAS EN LA INVESTIGACIÓN.
 Profesionales y personales:
o Falta de formación.
o Falta de orientación.
o Falta de conciencia.
 Públicas y de contexto:
o Falta de apoyo.
o Falta de autonomía.
o Falta de recursos (tiempo, económicos, ...)
 Comunicativas y educativas:
o Ausencia de contenidos.
o Docentes sin habilidades.
o Separación entre teoría y practica.
 Resistencias al cambio:
o Presión cultural para mantener el status quo.
TEORÍAS CIENTÍFICAS.
TEORÍA: es una proposición explicatoria provisional que pretende explicar los hechos
observados. Es provisional por estar sometida continuamente a nuevas pruebas que intentan
ponerla en contra.
 Valoración:
 Falsabilidad.
 Susceptible de modificación.
 Relevancia.
 Simplicidad.
Cuando se buscan pruebas en contra, se elabora una nueva teoría, que es mejor que la
anterior, entonces se desecha la primera para admitir la nueva, a la cual se le vuelven a
buscar nuevas pruebas en su contra y se vuelve a elaborar otra teoría que es a su vez mejor,
U N
I V E R S
I D A D
D
E
A Q U
7
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
y así continuamente, se entra en una especie de circulo, siendo esto lo que garantiza el
avance de la ciencia.
La diferencia entre una profesión y una disciplina, estriba en que la disciplina si es capaz de
generar conocimientos y elaborar teorías.
Las teorías al principio no son ni buenas ni malas, de ellas hay que derivar hipótesis, estas
son investigadas y con los resultados a partir de los datos obtenidos en la investigación se
elaboran nuevas teorías, se logra así que las teorías cada vez sean mejores. También se
puede hacer importando las teorías de otras disciplinas. Por Ej. el utilizado por los médicos al
copiar el modelo de la bomba de agua para explicar la circulación sanguínea, o los
psicólogos para explicar el funcionamiento de la mente con la teoría de los ordenadores.
La fisioterapia importa el modelo de Maslow, trabajar así es lo lógico. Si las teorías referentes
a enfermerias evolucionan, a la vez que lo hacen los marcos propios es indicativo de que la
fisioterapia es una disciplina y no una profesión.
CARACTERÍSTICAS DEL CONOCIMIENTO CIENTÍFICO.
1.- No es exacto. El dogma no existe, sólo existe la precisión.
2.- No es infalible, es autocorrectivo, acumulativo. Ninguna explicación es la última.
3.- Es fragmentario, cada una de las ciencias intenta explicar la realidad de la naturaleza
pero desde una parcela distinta.
4.- Plantea problemas en número y dificultad creciente. Cuanto más avanzada es una
disciplina mayor es su campo de acción.
5.- Presenta pruebas empíricas verificables. Es decir, se busca el consenso la replicabilidad.
Normas de Vancouver.
6.- Busca semejanzas, no diferencias, busca ordenar las cosas.
7.- Los datos poseen valor, con independencia de los propósitos con los que obtuvieron y los
resultados. No importa la teoría o la ideología, importan los datos.
8.- No es monopolista. No es la única manera de generar conocimientos. Ej. Las Leyes
también generan conocimientos.
9.- No es teológica, no le interesan las causas últimas.
10.- Nos capacita para explicar y cambiar la realidad y para actuar con eficacia en el mundo
que nos rodea. Es decir para poder cambiar la realidad con exactitud.
CUESTIONARIO:
1-¿A que se le llama investigación científica?
2-¿Cuál es el carácter de la metodología de la investigación? Explique su respuesta
3-¿Cuál es su utilidad en las ciencias de la salud? Fundamente su criterio
4-Mencione las barreras de la investigación en nuestro medio y explique cada una de ellas
5-¿Considera usted que la metodología de la investigación es una ciencia multidisciplinaria?
¿Por qué?
U N
I V E R S
I D A D
D
E
A Q U
8
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
PROGRAMA DE CONTROL DE LA CALIDAD
WORK PAPER # 3
UNIDAD O TEMA: 2. EL ESQUEMA DE INVESTIGACIÓN
TITULO: El problema de investigación
FECHA DE ENTREGA:
a) El problema de investigación
Si la investigación científica es un automóvil, el combustible que la alimenta son los hechos. Pero
lo que la pone en marcha no es un hecho sino un problema y, obviamente, nuestra intención por
resolverlo. Lewis Carroll, en "Alicia en el país de las maravillas", hace decir a uno de sus
personajes que "como no tenía respuesta para ninguno de sus problemas, el modo de formularlos
no importaba demasiado". Pero en nuestro caso sí interesa cómo plantearemos el problema, ya
que pretendemos resolverlo. La importancia de formular correctamente un problema ya fue
destacada por Claude Bernard, cuando dijo que el experimentador que no sabe lo que está
buscando, no comprenderá lo que encuentra.
El problema a solucionar debe ser formulado en forma lo suficientemente concreta como para que
pueda ser resuelto efectivamente por la vía científica (solucionable científicamente), y lo
suficientemente clara como para saber qué datos buscar para resolverlo.
Así, el problema de si Dios existe o no, no es lo suficientemente concreto pues no hay
investigación científica que pueda resolverlo, siendo más bien un problema filosófico. Asimismo, el
problema de si el perro del comisario ladra o no, además de ser un problema cotidiano y no
científico, no es lo suficientemente claro ya que no especifica si el comisario "tiene" un perro o si el
comisario "es" un perro, con lo cual no sabremos qué datos buscar para resolverlo: si los datos
sobre el perro o los datos sobre su dueño.
Del mismo modo, no podemos decir simplificadamente "voy a investigar el problema de la droga".
Esta es una afirmación ambigua que puede apuntar tanto al problema de cuáles son las causas de
la drogadicción como al problema de cómo fabricar droga sin que se entere la policía. En cambio,
problemas bien planteados son por ejemplo: ¿qué incentiva el rendimiento escolar?, o ¿influye la
educación recibida sobre la ideología política de las personas? Se trata de problemas
solucionables y donde sabemos qué tipo de información buscar para resolverlos.
b) El esquema de investigación
Una vez formulado adecuadamente el problema (y si es en forma de pregunta tanto mejor),
procedemos ahora a trazarnos un esquema de investigación para resolverlo. Un esquema de
investigación es un plan que hacemos para recolectar y analizar los datos combinándolos entre sí,
con la intención de hallar una respuesta al problema de la forma más sencilla y económica posible.
Esta exigencia de simplicidad no debe hacernos pensar que un esquema de investigación se
pueda cumplir en horas o días: habitualmente una investigación lleva meses y años, pero ello es
debido a que el problema a resolver no es tan sencillo, o también a la magnitud de la exigencia del
rigor para resolverlo.
Como ejemplo tomemos el siguiente problema: ¿porqué en ciertos barrios hay mayor índice de
drogadicción que en otros? Para resolverlo, trazamos un esquema de investigación que deberá
incluir las siguientes operaciones: a) recolectar datos, lo que hacemos en base a censos, informes
U N
I V E R S
I D A D
D
E
A Q U
9
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
policiales o sanitarios, o en base a cuestionarios que el mismo investigador puede administrar. Al
mismo tiempo contaremos qué porcentaje de drogadictos hay en cada barrio y, si sospecho que la
drogadicción puede deberse a un menor control policial o a la existencia de familias desavenidas,
también buscaré datos referentes a cuántos agentes policiales hay en cada barrio o qué porcentaje
de familias desunidas hay en ellos. El problema planteado es además lo suficientemente claro
como para saber que no me interesarán datos, por ejemplo, sobre la periodicidad de las manchas
solares; b) analizar los datos recolectados combinándolos entre sí mediante tablas o gráficos. La
lectura de alguna de estas tablas me podrá sugerir, por ejemplo, que a medida que aumenta el
control policial en un barrio, disminuye su índice de drogadicción; c) hallar una respuesta al
problema del modo más sencillo posible. Efectivamente, encontré como respuesta que el índice de
drogadicción depende de la mayor o menor presencia policial, y para encontrarla, recurrí a un
procedimiento sencillo que economiza tiempo, esfuerzo y dinero: en lugar de estudiar todos los
barrios tomé solamente algunos que supongo son una muestra representativa y luego, en vez de
hacer yo mismo un censo (que sería caro y trabajoso), me basé en censos ya realizados
oficialmente y que supongo confiables.
c) Tipos de esquemas de investigación
Existen distintos tipos de esquemas de investigación, que los podemos clasificar según cuatro
criterios: según la fuente de los datos, según el lugar donde investigamos a los sujetos, según el
grado de control ejercido sobre las variables, y según su propósito o finalidad.
Esquemas de Investigación









Según datos:
Según lugar:
Según control:
Según fin:
con datos primarios
con datos secundarios
de laboratorio
de campo
no experimental (ex-post-facto)
experimental
exploratorio
descriptivo
explicativo
Según la fuente de donde obtiene los datos, el esquema de investigación podrá contar con datos
primarios o con datos secundarios (o ambos). Los primeros son aquellos obtenidos directamente
por el investigador de la realidad mediante la simple observación o a través de cuestionarios,
entrevistas, tests u otro medio. Si este procedimiento resultare costoso o exigiese mucho esfuerzo,
el investigador podrá basarse en datos secundarios, que son aquellos que fueron obtenidos por
otras personas o instituciones, tales como censos, etc. Siempre convendrá este último recurso,
salvo que uno tenga buenas razones para desconfiar de ellos, o que directamente no estén
disponibles.
Según el lugar donde investigamos a los sujetos, el esquema de investigación puede ser de
laboratorio o de campo. Investigación de campo no significa investigación rural, sino una
investigación donde estudiamos a los individuos en los mismos lugares donde viven, trabajan o se
divierten, o sea, en su hábitat natural. Si quiero saber cómo influye la televisión en la educación
infantil utilizaré datos sobre niños que ven (o no) televisión en sus hogares. Jamás se me ocurriría
encerrar durante meses o años a varios niños en un laboratorio mirando televisión, para ver como
evoluciona su educación. Del mismo modo, tampoco se me ocurriría provocar un terremoto en una
habitación para ver cómo reacciona la gente allí ubicada (salvo que invente un sofisticado sistema
U N
I V E R S
I D A D
D
E
A Q U
10
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
de simulación de sismos, pero esto ya sería costoso): sólo puedo encarar este estudio a través de
una investigación de campo, o sea en el lugar natural donde estos fenómenos ocurren.
La investigación de laboratorio, como vemos 'saca' a los sujetos de sus lugares naturales, los
'aísla' de su entorno llevándolos a un lugar especial, el laboratorio, y que no necesariamente debe
tener azulejos o probetas. Un ejemplo de laboratorio en psicología es la cámara Gesell, o
habitación donde por ejemplo se deja jugar libremente a los niños mientras estudiamos sus
reacciones a través de un vidrio que permite verlos, sin que ellos puedan advertir la mirada del
investigador. En la investigación de laboratorio el investigador está presente atendiendo casi
continuamente lo que sucede con las personas. A veces basta esto para que, aunque la
investigación transcurra en los lugares naturales, sea una investigación de laboratorio (esto
significa que el científico, en lugar de sacar a las personas de sus casas llevándolas al laboratorio,
ha directamente montado el laboratorio en la casa de las personas). En la investigación de campo,
en cambio, el científico no tiene en general una presencia permanente (salvo que aplique la
técnica de la observación participante), limitándose a recoger datos en forma más o menos
periódica en los sitios de residencia.
Cierto tipo de investigaciones se prestan para planificarse indistintamente como de laboratorio o de
campo. Así, si queremos saber cómo influyen los ruidos sobre el estrés, tenemos dos alternativas:
a) llevar dos grupos de personas a un lugar especial aislado, donde sometemos a uno a ruidos
fuertes y al otro a ruidos débiles, midiendo luego en ambos el estrés resultante (investigación de
laboratorio); b) medir directamente el estrés en personas que viven en lugares de mucho ruido y en
lugares de poco ruido, para evaluar la diferencia (investigación de campo).
Según el grado de control ejercido sobre las variables, el esquema de investigación podrá ser no
experimental o experimental. Frente al problema de las causas del estrés, pueden suceder dos
cosas: a) que no tengamos ninguna idea acerca de los factores que lo generan, en cuyo caso
recolectaré muchos datos sobre diversas personas estresadas y no estresadas sin controlar
ninguna variable en especial como podría ser el sexo, la edad, la ocupación, los ruidos o la
humedad. Se trata de una investigación no experimental; b) puede suceder que sí tengamos una
fuerte sospecha sobre cierto factor -por ejemplo los ruidos-, en cuyo caso haré intervenir
solamente ese factor procurando hasta donde sea posible controlar la influencia de las otras
variables, las cuales, a pesar de también poder influir causalmente sobre el estrés, son ajenas al
propósito del experimento. Como luego veremos en otro capítulo, podemos neutralizar la influencia
de la variable edad tomando individuos al azar, lo que asegurará una gran heterogeneidad en
cuanto a edades. De hecho, si hubiéramos tomado a todos los sujetos con la misma edad, hubiese
persistido la duda de si el estrés el producido por el ruido o por la edad.
Cuando, como en este último caso, controlamos la influencia de variables, estamos ante una
investigación experimental, la cual puede adoptar, indistintamente, la forma de una investigación
de laboratorio o de una de campo. En cambio, los estudios no experimentales son mas bien de
campo y por lo regular no provocamos nosotros el fenómeno a estudiar sino que debemos esperar
a que él ocurra espontáneamente. Precisamente, otra distinción frecuente entre los procedimientos
experimentales y los no experimentales apunta a esta última cuestión. En las investigaciones no
experimentales debemos esperar a que ocurra el fenómeno para luego estudiarlo, y por ello se las
llama también investigaciones ex-post-facto (después de ocurrido el hecho). No es costumbre
provocar la drogadicción para estudiar luego sus consecuencias, así como tampoco se suele
provocar un plenilunio (luna llena) para ver cómo influye sobre el comportamiento criminal de las
personas.
Según la finalidad que persiga el científico, las investigaciones pueden ser exploratorias,
descriptivas y explicativas. En torno a este importante criterio articularemos nuestra exposición,
sobre todo porque esos "tipos" de investigación son esencialmente "etapas" cronológicas de la
misma, y por lo tanto recorrer estas etapas nos permitirá comprender cómo procede el científico
U N
I V E R S
I D A D
D
E
A Q U
11
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
cuando indaga y piensa la realidad. Cualquier investigación comienza siempre con una etapa
exploratoria; recién después se encarará una investigación descriptiva y finalmente una explicativa.
No se puede hacer un estudio explicativo si antes, uno mismo u otro investigador no realizó antes
un estudio descriptivo, como tampoco podemos iniciar este último sin que alguien antes haya
hecho una investigación exploratoria. La historia de la ciencia nos muestra dos cosas: primero, que
una de estas etapas puede durar años y puede haber quedado "olvidada" hasta que alguien
retoma la siguiente etapa; y segundo, que los límites entre una y otra etapa no son temporalmente
exactos, pudiendo a veces superponerse.
Las tres etapas persiguen propósitos diferentes: la investigación exploratoria identifica posibles
variables, la investigación descriptiva constata correlaciones entre variables, y la investigación
explicativa intenta probar vínculos causales entre variables.
Más concretamente: en la investigación exploratoria buscamos información sobre algún tema o
problema por resultarnos relativamente desconocido, como por ejemplo la cuestión de los
prejuicios raciales. Este estudio culmina cuando hemos obtenido el conocimiento suficiente como
para hacer un listado de los diferentes factores que suponemos vinculados con el prejuicio racial,
como por ejemplo educación recibida, religión, zona de residencia, edad, sexo, filiación política,
etc. En la investigación descriptiva buscaremos correlacionar estadísticamente cada uno de esos
factores con el factor prejuicio racial, y termina cuando hemos constatado ciertas correlaciones lo
suficientemente significativas como para sospechar la existencia de un vínculo causal. Por último,
en la investigación explicativa intentaremos probar nuestra sospecha anterior, por ejemplo
realizando un experimento que me permita concluir si el o los factores considerados son o no
causa de la actitud prejuiciosa hacia personas de otras razas.
d) Etapas de una investigación típica
Esta sección tiene la única finalidad de ofrecer una guía práctica para quienes deseen llevar a
cabo una investigación. Se trata de un plan orientativo referido a una investigación típica, es decir,
a un conjunto de pasos o etapas que habitualmente deben cumplirse en la mayoría de las
investigaciones que podemos encontrar en las publicaciones científicas.
Explicaremos brevemente cada etapa utilizando un ejemplo único: una investigación que indague
acerca de las relaciones entre estado civil y estado de ánimo. Tengamos presente que,
dependiendo de cada investigación en particular, algunos de los pasos indicados pueden
saltearse, cambiarse el orden, e incluso volver sobre alguno de los pasos anteriores.
1) Selección del tema de investigación.- El tema de la investigación es básicamente la variable
dependiente. En nuestro ejemplo, cualquiera de ambas podría serlo: el estado civil puede
depender del estado de ánimo (estoy triste por lo tanto me divorcio) o el estado de ánimo puede
depender del estado civil (estoy soltero y por lo tanto estoy alegre). En este paso, por tanto,
deberemos decidir cuál será nuestra variable dependiente. Por ejemplo, elegimos estado de
ánimo.
2) Formulación del problema.- El problema se expresa mediante una pregunta, la cual deberá ser
contestada en la investigación. Por ejemplo: “Existe alguna relación significativa entre estado civil y
estado de ánimo?”.
3) Explicitación del marco teórico.- Las variables elegidas han de ser definidas dentro de un marco
teórico, que puede ser el mismo o distinto para ambas. Por ejemplo, para definir ‘estado civil’
podemos tomar como referencia el Código Civil del país donde hacemos la investigación, En
suma, en este caso se sintetizarán los marcos teóricos utilizados, mientras que las definiciones
teóricas de las variables se especifican en un paso ulterior (Identificación, definición y clasificación
de las variables).
U N
I V E R S
I D A D
D
E
A Q U
12
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
4) Revisión de investigaciones anteriores.- Emprendemos aquí la ardua tarea de revisar todo las
investigaciones realizadas concernientes a la relación entre estado de ánimo y estado civil, para lo
cual deberemos recorrer bibliotecas, la red internet, etc. La idea es hacer una síntesis de todo lo
encontrado utilizando solamente los abstracts de las investigaciones encontradas. Tal vez
podríamos encontrarnos con que nuestra investigación ya fue realizada, pero ello no debe
desilusionarnos: por lo general nuestra investigación partirá de muestras diferentes, utilizará otros
instrumentos de medición, etc., lo cual la convierte en una investigación original que
complementará la ya realizada. En todo caso, en nuestro informe final consignaremos en qué
medida nuestra investigación coincide o no con los resultados de otras investigaciones, y qué
razones podrían dar cuenta de las diferencias.
5) Explicitación de los objetivos.- Explicamos aquí qué operaciones realizaremos para solucionar el
problema que puso en marcha la investigación, o para abordar algunas cuestiones colaterales al
mismo. Suelen especificarse un objetivo general y objetivos específicos. En nuestro ejemplo, el
objetivo general podría ser ‘probar si existe o no una relación significativa entre estado civil y
estado de ánimo’, y algunas objetivos más específicos podrían ser ‘revisar las investigaciones
recientes sobre el tema’, ‘discutir las diferencias encontradas con otras investigaciones sobre el
mismo tema’, o ‘examinar la incidencia de las variables edad y nivel de instrucción en la muestra
seleccionada’. Notemos que cuando especificamos los objetivos, siempre habremos de utilizar
verbos en infinitivo, puesto que ellos designan acciones a realizar (‘probar’, ‘revisar’, ‘discutir’, etc).
6) Selección del tipo de investigación.- Nuestra investigación será de laboratorio o de campo?
Experimental o no experimental? Será un estudio exploratorio, descriptivo, explicativo o una
combinación de ellos? Será una investigación con datos primarios o con datos secundarios?
Supondremos que en nuestro ejemplo realizaremos una investigación de campo, experimental,
descriptivo-explicativa y con datos principalmente primarios.
7) Formulación de la hipótesis.- La hipótesis puede formularse en forma general y específica. La
forma general sería “existe una relación significativa entre estado civil y estado de ánimo”. Un
ejemplo de hipótesis más específica sería “las personas solteras tienden a sufrir estados
depresivos”. En una hipótesis específica, pueden ‘especificarse’ varias cosas: el vínculo entre las
variables (en vez de decir ‘existe una relación entre…” decimos “…es la causa de…”), alguna
categoría de alguna variable (en vez de ‘estado civil’ decimos ‘casado’), o alguna dimensión o
indicador de alguna variable (en vez de ‘estado de ánimo’ decimos ‘presentan desinterés por el
mundo exterior’). Normalmente, la hipótesis que será verificada en la investigación es la hipótesis
general.
8) Identificación, definición y clasificación de las variables.- Qué variables principales
estudiaremos? ‘Estado civil’ y ‘estado de ánimo’. Cómo las definiremos teóricamente? Por ejemplo,
de acuerdo a las definiciones que encontremos, respectivamente, en el Código Civil y en el DSMIV. Al final, las clasificamos según diversos criterios: simples o complejas, manifiestas o latentes,
organísmicas o situacionales, etc. Las clasificaciones que no pueden obviarse son: independiente
o dependiente (‘estado civil’ será independiente y ‘estado de ánimo’, dependiente), y cualitativa o
cuantitativa. Esta última clasificación es importante porque especifica en qué nivel de medición las
estamos midiendo. Por ejemplo, ‘estado civil’ será una variable cualitativa nominal, mientras que
‘estado de ánimo’ será una variable cualitativa ordinal. En principio no tendría mucho sentido
clasificar ‘estado civil’ como ordinal, porque no podemos decir “más casado”, “algo casado” o
“nada casado”.
9) Categorización y operacionalización de las variables.- Asignaremos categorías a las variables
(para ‘estado civil’ pueden ser ‘soltero’, ‘casado’, ‘separado de hecho’, ‘divorciado’, ‘juntado’,
U N
I V E R S
I D A D
D
E
A Q U
13
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
‘viudo’, etc., y para ‘estado de ánimo’ pueden ser ‘muy deprimido’, ‘deprimido’, ‘alegre’ y ‘muy
alegre’). En cuanto a la operacionalización, si las variables son complejas seleccionaremos
dimensiones e indicadores. Dimensiones de ‘estado de ánimo’ podrían ser ‘manifestaciones
físicas’ y ‘manifestaciones psíquicas’, y sus respectivos indicadores, ‘postura corporal’ e ‘interés
por el trabajo’. Como ‘estado civil’ es una variable simple, seleccionaremos un solo indicador. Por
ejemplo, aquello que nos responde el sujeto cuando le preguntamos por su estado civil.
10) Selección de la población.- Especificamos la población que queremos estudiar. Por ejemplo,
todas las personas entre 20 y 60 años que vivan en la ciudad de Buenos Aires. Por lo tanto,
nuestra unidad de análisis serán personas (y no por ejemplo grupos o familias).
11) Selección de la técnica de muestreo.- Podríamos elegir una muestra de tipo probabilístico:
elegimos al azar una cierta cantidad de números telefónicos. Hay otros procedimientos menos
aconsejables porque no son aleatorios, como elegir a las personas que conocemos de nuestro
entorno (familiares, amigos, vecinos, etc). Es estos casos la muestra estará sesgada por nuestras
preferencias y por un determinado estrato social o zona geográfica.
12) Selección del tipo de diseño.- Como estamos suponiendo que nuestra investigación es
explicativa y además indaga una sola variable causal, elegiremos alguno de los seis diseños
experimentales bivariados que propone Selltiz, fundamentando además esta elección.
13) Selección de los grupos.- Dentro de la muestra elegimos al azar los grupos. Por ejemplo, si
elegimos el diseño 1, seleccionaremos dos grupos: el primero conformado por personas solteras, y
el segundo por personas casadas. También podemos elegir tantos grupos como categorías tenga
la variable ‘estado civil’.
14) Selección de los instrumentos de medición ya construídos.- Hay varios tests que miden estado
de ánimo, como por ejemplo el Cuestionario de Depresión. Si no hemos encontrado ningún
instrumento apto para medir nuestras variables, deberemos construirlos nosotros mismos y
pasamos directamente al próximo paso.
15) Construcción de los instrumentos de medición.- En nuestro ejemplo, deberemos construir un
test para medir ‘estado de ánimo’. Para medir ‘estado civil’ obviamente no se requiere ningún test:
basta con preguntarle a la persona cuál es su estado civil.
La construcción de nuestro test implicará cumplir estos pasos:
a. Seleccionar los ítems, es decir, las preguntas o las pruebas que incluirá. Para nuestro
ejemplo, uno de los ítems puede ser la pregunta “Se siente triste la mayor parte de los
días?”.
b. Categorizar los ítems, es decir, establecer las respuestas posibles que podrá responder cada
sujeto en cada ítem. Por ejemplo para el ítem anterior, las posibles categorías pueden ser
“sí” y “no”.
c. Construir un sistema de puntuación de las respuestas. Por ejemplo asignamos
arbitrariamente el número 1 si contestó que sí y 0 si contestó que no. Luego, sumando todos
los puntos de cada ítem, deberemos obtener un índice, en este caso, un índice de estado de
ánimo. También aquí estableceremos como interpretar estos índices. Por ejemplo, si obtuvo
más de 20 categorizaremos al sujeto como “muy deprimido”, si obtuvo entre 15 y 19 puntos
lo ubicaremos como “deprimido”, y así sucesivamente.
d. Finalmente determinaremos la validez y la confiabilidad del instrumento así construido. No
desarrollaremos este tema en este texto, que pretende ser simplemente introductorio.
U N
I V E R S
I D A D
D
E
A Q U
14
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
16) Recolección de datos.- Aplicamos o administramos los instrumentos de medición. Tomamos a
los sujetos elegidos un test de estado de ánimo y les preguntamos su estado civil. De todos los
pasos de esta investigación, este es el único en el cual tomamos contacto con los sujetos del
estudio. Todos los otros pasos los podemos realizar solos en nuestro lugar de trabajo.
17) Construcción de la matriz de datos.- Organizamos y sintetizamos toda la información obtenida
en una matriz, que, en nuestro ejemplo puede asumir la siguiente forma:
Sujeto
A
B
C
Etc
Estado civil
Soltero
Soltero
Casado
Etc
Estado de ánimo
Muy deprimido
Alegre
Deprimido
Etc
En el caso de tratarse de variables cuantitativas, en esta matriz se consignarán en las columnas de
las variables los puntajes brutos, los puntajes estandarizados y/o los percentiles. Por ejemplo, si
utilizamos el test para medir inteligencia en niños, Juancito pudo haber obtenido respectivamente
121, 114 y 82.
18) Tabulación.- Toda la información de la matriz de datos la organizamos aquí en una tabla de
doble entrada, es decir, una tabla que permita cruzar las dos variables en juego:
Soltero
Casado
Separado de hecho
Divorciado
Juntado
Viudo
TOTALES
Muy deprimido
7
?
?
?
?
?
?
Deprimido
?
?
?
?
?
?
?
Alegre
?
?
?
?
?
?
?
Muy alegre
?
?
?
?
?
?
?
TOTALES
?
?
?
?
?
?
?
Por ejemplo, hemos colocado la frecuencia 7 en el primer casillero porque hemos encontrado siete
casos de sujetos solteros muy deprimidos.
19) Graficación.- Opcional. Sirve para presentar la información de las tablas de una forma más
intuitiva y rápidamente comprensible.
20) Obtención de medidas de posición y dispersión.- Generalmente pueden obtenerse a partir de
la tabla de doble entrada. Como en el ejemplo que estamos siguiendo las variables no son
cuantitativas, no podremos utilizar la media aritmética ni el desvío standard. Deberemos usar
medidas estadísticas para variables cualitativas, como el modo o la mediana (medidas de
posición), y otras. Por ejemplo, si la categoría que más se repite para la variable ‘estado de ánimo’
es ‘alegre’, entonces ‘alegre’ es el modo.
21) Análisis de los datos.- De acuerdo a los fines que nos hayamos propuesto, podremos optar por
varias posibilidades, entre las que se cuentan el análisis de correlación, el análisis de regresión, la
prueba de significación, la prueba de espureidad o alguna combinación de ellos.
22) Interpretación de los datos.- Opcional pero recomendable. En este paso arriesgamos algunas
conjeturas personales acerca del porqué de la asociación detectada entre ambas variables. Por
U N
I V E R S
I D A D
D
E
A Q U
15
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
ejemplo, hemos encontrado una alta asociación entre ‘alegría’ y ‘casado’ quizá porque el
matrimonio permite compartir trances y dificultades más fácilmente, con lo cual hay menor margen
para la depresión. La interpretación de los datos puede hacerse desde algún marco teórico
existente o bien, si somos audaces e imaginativos, podemos crear nuestro propio marco teórico
porque no hay ninguno que nos satisfaga.
23) Comunicación de los resultados.- Mientras fuimos cumpliendo los pasos anteriores, es muy
probable que hayamos escrito varias hojas en borrador. Con este material redactamos nuestro
informe final, luego el abstract o resumen del mismo, luego seleccionamos un título para nuestro
informe y, finalmente, publicados los resultados (por ejemplo enviándolos a una revista científica).
Este proceso se realimenta continuamente: en cuanto damos a conocer nuestro trabajo a la
comunidad científica, desde ese momento entra a formar parte de la bibliografía existente sobre el
tema y, por tanto, será consultado por otro investigador que se encuentre en la etapa “Revisiones
de investigaciones anteriores”.
U N
I V E R S
I D A D
D
E
A Q U
16
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
PROGRAMA DE CONTROL DE LA CALIDAD
WORK PAPER # 4
UNIDAD O TEMA: 3. LA INVESTIGACIÓN EXPLORATORIA
TITULO: El significado de explorar
FECHA DE ENTREGA:
a) El significado de explorar
Explorar significa incursionar en un territorio desconocido. Por lo tanto, emprenderemos una
investigación exploratoria cuando no conocemos el tema por investigar, o cuando nuestro
conocimiento es tan vago e impreciso que nos impide sacar las más provisorias conclusiones
sobre qué aspectos son relevantes y cuáles no. Podemos tener una gran voluntad y entusiasmo
para estudiar la drogadicción, pero si desconocemos el tema deberemos iniciar un estudio
exploratorio para empezar a conocerlo y familiarizarnos con él, para precisar mejor el problema
que nos interesa resolver, o para comenzar a dar forma a alguna hipótesis previa que sobre la
cuestión tengamos.
Notemos que, como desconocemos el tema, al iniciar la exploración no tenemos seguridad
respecto de cuáles son las variables o aspectos importantes y cuáles no: ¿influirán sobre la
drogadicción la televisión o el cine, la estabilidad de la pareja parental, la inestabilidad laboral? No
lo sabemos y por ello, a un estudio exploratorio le exigiremos por sobre todas las cosas flexibilidad,
lo cual implica explorar el mayor número de factores posibles puesto que aún no estamos muy
seguros de ninguno. Si somos flexibles en el sentido apuntado evitaremos una búsqueda
tendenciosa de información seleccionando solamente aquellas variables que nuestros prejuicios
nos indican, con lo cual descartaremos ciertos otros factores que podrían ser importantes. Si
estamos persuadidos que la drogadicción sólo se debe al color de cabello de las personas, un
estudio exploratorio resultará superfluo toda vez que con él sólo buscaremos la confirmación
tendenciosa de nuestra creencia. Explorar bien una selva es explorar toda la selva, y no seguir una
única senda. Un mal estudio exploratorio suele echar a perder los subsiguientes estudios
descriptivos y explicativos, con el consiguiente derroche de tiempo y esfuerzo, ya que partimos de
una base equivocada.
En un estudio exploratorio se puede partir de una hipótesis previa, o sea, podemos tener alguna
idea previa sobre qué factores están vinculados con la drogadicción. Pero esta idea vaga es una
guía muy general y sólo nos sirve para descartar la influencia de factores tales como si hay o no
atmósfera en Júpiter, por dar un ejemplo; no nos debe servir para descartar otros posibles factores
relevantes (o que podrían serlo), tales como la inestabilidad política, social o económica de los
países donde aparece la drogadicción.
b) Recolección de datos
Si aceptamos nuestra ignorancia, entonces nos decidiremos a explorar el tema, pero, ¿de qué
manera? Fundamentalmente a través de la recolección de datos, lo cual puede realizarse de varias
maneras.
Los datos que buscaremos no son solamente los que figuran en censos y estadísticas, sino en
cualquier otro tipo de bibliografía que, aunque no contenga cifras ni cuadros, nos ayuden a
empaparnos del tema. Por ejemplo libros o artículos que hablen sobre los métodos de prevención
U N
I V E R S
I D A D
D
E
A Q U
17
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
de la drogadicción, sobre procedimientos curativos o sobre teorías psicoanalíticas, conductistas,
etc., que den su propia explicación sobre la cuestión. Podrá también buscarse información primaria
a través de cuestionarios, entrevistas o dar un uso exploratorio a test como el de Rorschach.
Podremos entrevistar a toda persona que por uno u otro motivo esté inmersa en el tema: un
drogadicto, los padres del drogadicto, un hermano o un amigo, un profesional experto en la
cuestión, un ex-drogadicto, etc.
La entrevista implica hacer preguntas en forma oral, y el cuestionario en forma escrita.
Habitualmente los cuestionarios son standard, o sea, a todos los informantes se les hacen las
mismas preguntas y en el mismo orden, bajo la misma consigna. Estos cuestionarios podrán ser
cerrados, cuando el sujeto simplemente debe optar entre varias respuestas posibles fijadas de
antemano (por ejemplo “sí”, “no”, “no sabe”) o abiertos, donde la persona contesta libremente lo
que se le ocurre.
Para recolectar datos tenemos aún una opción más épica: podemos despeinarnos, ponernos una
ropa desprolija e ir a convivir con drogadictos en sus lugares naturales simulando ser uno de ellos.
Esto es lo que se llama observación participante, y con ella podremos obtener información que por
las técnicas anteriores no fue posible conseguir, sea porque los entrevistados no se animaron a
decirlo, o porque directamente lo desconocían. Pero la observación participante tiene también su
riesgo: encariñarnos con la droga o enamorarnos de una drogadicta podrá pervertir nuestra
intención de objetividad y hacernos olvidar para siempre la metodología de la investigación.
Una última técnica exploratoria consiste en el seguimiento clínico de casos individuales a lo largo
del tiempo: se supone que este camino nos dará una información mucho más profunda sobre la
drogadicción y sus causas, ya que nos permite acceder a la infancia del sujeto, a sus íntimas
motivaciones y creencias, y a sus proyectos más ocultos.
En suma: para explorar un tema relativamente desconocido disponemos de un amplio espectro de
medios para recolectar datos en psicología y ciencias sociales: bibliografía especializada,
entrevistas y cuestionarios, observación participante (y no participante) y seguimiento de casos
clínicos. La investigación exploratoria terminará cuando, a partir de los datos recolectados,
adquirimos el suficiente conocimiento como para saber qué factores son relevantes al problema y
cuáles no. En este momento, estamos ya en condiciones de encarar una investigación descriptiva.
U N
I V E R S
I D A D
D
E
A Q U
18
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
PROGRAMA DE CONTROL DE LA CALIDAD
WORK PAPER # 5
UNIDAD O TEMA: 4. EL PAPEL DE LA ESTADISTICA
TITULO: Muestra y muestreo
FECHA DE ENTREGA:
Antes de examinar la etapa descriptiva de la investigación, nos convendrá tener una idea general
de la estadística y de cómo se emplea en la actividad científica, en la medida en que se trata de
una herramienta fundamental que la matemática provee al investigador para poder resumir y
analizar gran cantidad de información.
Tanto en las investigaciones exploratorias como en las descriptivas y explicativas, el científico no
maneja un solo dato sino muchos, sea porque estudia muchos individuos (las edades de todos los
argentinos, o el cociente intelectual de todos los adolescentes de un colegio), sea porque estudia
un solo individuo sobre el cual se hacen muchas observaciones que proporcionarán, entonces,
muchos datos (las calificaciones que obtiene Juancito en las distintas asignaturas y a través de
varios años).
Cuando, como en tales casos, hay que considerar una gran cantidad de datos, necesitaremos una
herramienta para poder organizarlos, analizarlos y finalmente sacar conclusiones sobre la
población o el individuo de donde esos datos fueron extraídos, y este instrumento se llama
estadística. La utilidad de la estadística, entonces, no apunta necesariamente al estudio de
muchos individuos (población), sino fundamentalmente al estudio de muchos datos, sea porque
provengan de un solo sujeto o de muchos. No obstante en lo que sigue explicaremos el trabajo
más usual de la estadística en ciencias sociales: el estudio de poblaciones de individuos.
Todos sabemos la diferencia entre individuo y población: una cosa es un argentino determinado, y
otra cosa el conjunto de los habitantes de ese país. O también: una cosa es la ciudad de París y
otra el conjunto de todas las ciudades del mundo, lo que viene a mostrarnos que lo que llamamos
individuo es simplemente un elemento dentro de un todo (población) y que, para evitar malos
entendidos, llamaremos genéricamente “unidades de análisis”. En psicología las unidades de
análisis pueden ser personas, en psicología social grupos pequeños, en sociología sociedades o
clases sociales, en demografía ciudades, en química metales, en biología ratas, etc.
La distinción entre individuo población es importante porque a la estadística que aquí vemos no le
interesa el individuo aislado sino el conjunto de la población. Si al estadístico le interesa que
Juancito tiene cociente intelectual 110 es sólo para llegar a saber que el promedio de cocientes
intelectuales de la población es de 115 y que, entonces, Juancito está por debajo de esa media.
La población o universo, definible como el conjunto de todas las unidades de análisis, puede ser
finita o infinita, según tenga o no un número determinado de individuos: podemos considerar
infinito al conjunto de todos los individuos posibles según su combinación genética. La población
también puede ser real o potencial: una población real es el conjunto de todos los argentinos
mayores de 18 años y menores de 20, y población potencial es por ejemplo el conjunto de todas
las personas que “podrían” utilizar el servicio de psicopatología de un hospital.
U N
I V E R S
I D A D
D
E
A Q U
19
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
a) Muestra y muestreo
Nos interesarán, entonces, las poblaciones. Pero aquí surge un problema: como habitualmente las
poblaciones son muy grandes (cuando no infinitas), no podemos obtener los datos de “todos” los
individuos, y entonces nos vemos obligados a seleccionar una parte de esa población, que se
llama muestra. La muestra está así a mitad de camino entre el individuo y la población (aunque en
ciertos casos una muestra puede estar constituida por un solo individuo):
Obviamente, deberemos asegurarnos que la muestra
sea representativa de la población: si queremos tomar
una muestra de los habitantes de una ciudad y sólo
seleccionamos veinte enfermos mentales de un
hospicio, esta muestra no representará adecuadamente
a la población. En cambio si seleccionamos la misma
cantidad de sujetos tomando uno de cada 100 de la guía
telefónica aquí ya puedo empezar a pensar más en la
posibilidad de cierta representatividad, pues están
tomados más al azar.
Población
Muestra
Individuo
Aún así no hay un azar total, pues en la guía no figuran
por ejemplo individuos de clase baja (no tienen
teléfono), y si nos decidimos por una lista de
empadronamiento para votar, allí no figurarán los extranjeros residentes. Un procedimiento
bastante aleatorio, en cambio, consiste en elegir un individuo por cada manzana.
El tamaño elegido para la muestra es también importante, y variará de acuerdo a cada
investigación pudiendo ser el 5%, el 20%, etc., de la población total. Suele ser difícil elegir el
tamaño justo, ya que no se puede pecar por defecto (un solo individuo no representa a una ciudad,
aún tomándolo al azar) o por exceso (una muestra que sea el 80% de la población es altamente
confiable pero no económica, ya que con menos esfuerzo y dinero puede obtenerse una muestra
considerablemente más pequeña sin que varíe en forma significativa su grado de
representatividad).
El procedimiento por el cual seleccionamos una muestra se llama muestreo, y clásicamente se los
divide en probabilísticos y no probabilísticos. Lo esencial del muestreo probabilístico es que cada
individuo de la población total tiene la misma o aproximadamente la misma probabilidad de estar
incluído en la muestra. Si tomamos una muestra de los habitantes de Londres considerando uno
de cada 100 de un listado alfabético, la probabilidad que tiene de haber sido seleccionado el señor
Smith es la misma que tiene el señor Brown o cualquier otro (en este caso, la probabilidad del uno
por ciento).
Hay varias técnicas para realizar muestreos probabilísticos, y todas se basan en la selección de
individuos al azar ya que es éste quien presuntamente garantiza la equiprobabilidad. El muestreo
puede ser: a) simple: partiendo de toda la población se toman individuos al azar según diversos
procedimientos; b) estratificado: previamente se seleccionan en la población estratos (por ejemplo
clases sociales: alta, media y baja), y dentro de cada estrato se toman individuos al azar según el
muestreo simple; c) por áreas o conglomerados: se delimitan previamente áreas geográficas
(provincias, ciudades) y dentro de cada una de ellas se toman individuos al azar según el muestreo
simple o estratificado.
En el muestreo no probabilístico los individuos de la población no tienen todos la misma
probabilidad de aparecer en la muestra, ya que aquí no hacemos una estricta selección al azar
sino que tomamos casos típicos (que suponemos representativos de la media poblacional) o casos
en forma accidental (los que tenemos más a mano), etc.
U N
I V E R S
I D A D
D
E
A Q U
20
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
Una vez obtenida la muestra (preferiblemente mediante muestreo probabilístico), procedemos
ahora a hacer una descripción de la muestra, para lo cual usaremos ciertas medidas especiales
diferentes a las medidas que usamos para medir individuos. Si queremos describir sujetos
individuales usaremos una medida individual: Juancito tiene cociente intelectual 110, o Pedrito
tiene poco interés en política, etc. Pero, si queremos describir una muestra usaremos lo que se
llama una medida estadística. Por ejemplo, tal muestra se compone de sujetos cuyo promedio de
cocientes intelectuales es 120, o tal otra muestra tiene un 70% de sujetos con poco interés en
política, etc. Como vemos, estas medidas estadísticas son verdaderas síntesis o resúmenes de
muchas medidas individuales, y un ejemplo típico es la media aritmética, o sea, un simple
promedio.
Examinemos como ejemplo dos muestras diferentes, compuestas cada una por tres individuos, y
donde nos interesará describirlas considerando el factor cociente intelectual:
Muestra 1) -----------105------------110-------------115------------- (Promedio: 110)
Muestra 2) -----80--------------------110----------------------140---- (Promedio: 110)
Ambas muestras tienen el mismo promedio y sin embargo, son dos muestras diferentes! Por lo
tanto, solamente un promedio no basta para describir e identificar adecuadamente una muestra, y
deberemos usar una segunda medida estadística que nos permita conocer cuán lejos o cuán cerca
están los individuos del promedio, o sea, su grado de dispersión. En el ejemplo vemos que la
muestra 1 es menos dispersa ya que los diferentes valores obtenidos están muy próximos al
promedio, mientras que la muestra 2 es más dispersa.
Recién cuando se han tomado ambas medidas podemos afirmar que hemos descripto
adecuadamente las muestras, con lo cual no queda posibilidad de confundirlas con otras. Y aún
cuando dos muestras puedan ser distintas porque las componen diferentes individuos, si tienen la
misma media aritmética y la misma dispersión las consideraremos iguales a los efectos del análisis
estadístico.
El primer tipo de medida estadística se llama medida de posición (o de tendencia central), y nos
está indicando alrededor de qué valor giran todos los valores individuales. El segundo tipo se llama
medida de dispersión, y nos indica cuán próximos o alejados están los distintos valores del
promedio, o sea de la medida de posición, de lo cual se desprende que no podremos tomar una
medida de dispersión sin antes haber tomado la correspondiente medida de posición. Un ejemplo
de medida de dispersión es el desvío standard, que conceptualmente es un promedio de las
distancias de cada valor respecto de la media.
b) Pruebas de significación
Hasta aquí lo único que hicimos fue describir una muestra, pero lo que a la estadística le interesa
en última instancia es la población, con lo cual debemos resolver una segunda cuestión: la
representatividad de la muestra. Es decir, interesa saber hasta qué punto las medidas que
describieron la muestra describen igualmente bien la población de donde la muestra fue extraída.
Más concretamente: ¿el promedio 110 de la muestra podemos también adscribírselo con
confianza a la población? ¿Pasa lo mismo con la medida de dispersión? Naturalmente que
siempre habrá un margen de error, pues si nos animáramos a sacar el promedio de la población
entera seguramente no sería exactamente igual al promedio de la muestra. La cuestión entonces
no reside en eliminar esta diferencia, pues es imposible, sino en poder saber hasta qué punto
dicha diferencia se debe solamente al azar. De comprobar realmente esto, entonces la diferencia
no es importante y concluimos que la muestra sí es representativa. Para poder hacer estas
determinaciones nos bastará aquí con saber que la estadística ha diseñado ciertas pruebas
especiales, como por ejemplo las pruebas de significación. Son pruebas basadas en el cálculo de
probabilidades, ya que aquí lo que debemos verificar es si lo concluido respecto de la muestra vale
U N
I V E R S
I D A D
D
E
A Q U
21
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
también para la población y con qué grado de probabilidad (pues hay grados de probabilidad
aceptables y no aceptables).
Hay dos tipos de probabilidad: lógica e inductiva. a) Probabilidad lógica: si yo tengo un dado
perfectamente balanceado (o sea que las seis caras tienen la misma probabilidad de salir), no
necesitaré arrojarlo para saber qué probabilidad tiene de salir el número 3. Como ya sé que tiene
seis caras equiprobables, su probabilidad será de uno sobre seis (p=1/6). b) Probabilidad
inductiva: puede ocurrir, sin embargo, que el dado no esté balanceado, o que yo no sepa si el
número 3 figura en dos caras y el 5 en ninguna, etc., y sólo sé que tiene 6 caras. A priori, o sea
antes de arrojar los dados, en estos casos no puedo saber qué probabilidad tiene el 3 de salir,
debido a mi desconocimiento del dado. No obstante tengo un medio de saberlo: arrojo el dado una
gran cantidad de veces (cuantas más veces mejor) y voy anotando los números que aparecieron.
Si constato que el 3 salió en un 50% de los casos, entonces puedo concluír que la probabilidad
será de tres sobre seis (p=3/6=1/2). Este dato no me aclara definitivamente si el dado estaba
desbalanceado o si en realidad en tres de sus caras estaba el número 3; sólo me sugiere la
probabilidad de aparición del número en cuestión.
En suma: en la probabilidad lógica y debido a que conozco el dado, puedo calcular qué
probabilidad tiene de salir determinado número sin necesidad de hacer ninguna prueba. Es una
probabilidad deductiva, puesto que deduzco de los datos conocidos la probabilidad de cada
alternativa. En cambio en la probabilidad inductiva no conozco la naturaleza del dado, y entonces
sólo puedo concluir la probabilidad de aparición de un cierto número siguiendo un razonamiento
inductivo, vale decir, a partir de los casos observados que fui anotando.
Las mismas consideraciones que hicimos con las caras de un dado también podemos hacerlas
con los naipes de un mazo y con los individuos de una población. En estadística, puesto que
generalmente desconocemos la naturaleza de la población, el tipo de probabilidad empleado es el
inductivo.
En este contexto, ¿qué sería lo deseable? Sería que no hubiera diferencia significativa entre la
muestra y la población, y esta situación deseable es lo que suele llamarse “hipótesis nula”(“nula”
porque suponemos que no hay diferencia significativa entre ambas cosas, con lo cual la muestra
pasa a ser representativa de la población)
Naturalmente que, como toda hipótesis, es una mera suposición, y por lo tanto es algo que
debemos verificar mediante las mencionadas pruebas de significación. Al aplicar estas pruebas
podemos cometer dos tipos de errores, opuestos entre sí: a) Error Tipo I, o error del desconfiado, y
que consiste en creer que la muestra no es representativa cuando sí lo es (o sea rechazar la
hipótesis nula cuando en realidad es verdadera); y b) Error Tipo II, o error del ingenuo: creer que la
muestra es representativa cuando en rigor no lo es (o sea aceptar la hipótesis nula cuando en
realidad es falsa). Para evitar ambos errores tomamos las dos precauciones de las que habíamos
hablado: considerar un tamaño adecuado de la muestra, y tomar los individuos al azar.
No sabemos si en realidad existe o no el azar, pero sí podemos afirmar con bastante seguridad
que el hombre no puede producir azar absoluto. Si quisiéramos colocar en una serie números al
azar, tarde o temprano aparecería alguna regularidad que hemos incluido inadvertidamente. Si
pedimos a una persona que escriba una secuencia al azar de unos y ceros, “casi todos elegirán
una secuencia que alterna con demasiada regularidad. Aunque parezca paradójico, si los ceros y
los unos se mezclan con excesiva uniformidad, deja de ser azar”. Además, cuando pretendemos
armar una serie al azar generalmente partimos del prejuicio de que el azar tiene “memoria”, y
consideramos que si salió tres veces un cero, la probabilidad de que salga cero la cuarta vez
disminuye mucho (y entonces ponemos un uno). Pero esto es falso: una serie al azar puede incluir
muchos ceros seguidos. Es el prejuicio del jugador de quinielas que le juega al 7 porque
simplemente hace mucho que no sale, y no comprende que cualquier número en cualquier
momento tiene la misma probabilidad de salir que cualquier otro.
U N
I V E R S
I D A D
D
E
A Q U
22
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
Tampoco habría azar absoluto si quien arma la serie es una computadora, no sólo porque puede
fallar el software (al fin y al cabo es el hombre quien la programa), sino también el hardware (los
circuitos electrónicos pueden sufrir algún desgaste, con lo que empieza a aparecer alguna
regularidad en la serie).
Si bien el azar absoluto no existe, ni menos aún en estadística, su empleo resulta necesario pues
hace disminuir la probabilidad de la influencia de ciertas variables más que de otras, o sea, el azar
procura que ninguna variable esté ejerciendo influencia mucho más que cualquier otra. Si
tomamos una muestra de la población procuraremos siempre “aleatoria”, es decir, que los
individuos sean lo más heterogéneos en cuanto a edad, sexo, condición social, salud mental, etc.
No podría tomar una muestra de la población argentina si está constituida por 1000 mujeres
solteras entre 40 y 50 años y pretender, al mismo tiempo, que esa muestra sea representativa de
toda la población (salvo que la única población que nos interese sea el conjunto de todas las
mujeres argentinas solteras entre 40 y 50 años). El azar nos permite asegurar, entonces, hasta
cierto punto confiable, la equidad de los estudios estadísticos.
Por último, no siempre debemos oponer casualidad con causalidad: la casualidad (o azar) no
implica necesariamente la ausencia de causas (corrientemente, la expresión “ocurrió por
casualidad” suele significar “ocurrió sin ninguna causa o motivo”). Si partimos de una cosmovisión
causalista, cosmovisión en la cual se basa habitualmente la ciencia, cuando decimos que un
determinado acontecimiento ocurrió por azar queremos solamente decir que está influenciado por
una gran cantidad de factores causales, muchos de los cuales son desconocidos para nosotros y
sin que prevalezca ninguno en especial.
c) Etapas de la estadística
Podemos resumir todo lo dicho indicando cuáles son las dos etapas de la investigación estadística:
a) la estadística descriptiva, que busca seleccionar una muestra y luego describirla
adecuadamente mediante medidas de posición y dispersión; b) la estadística inductiva o
inferencial, que busca extender lícitamente nuestras conclusiones sobre la muestra a toda la
población. Obviamente, el problema central de esta segunda etapa será saber hasta qué punto las
medidas de la muestra describen también a la población. Si sabemos que la media de una muestra
es 110, ¿hasta qué punto esta media será también aplicable a la población?
La estadística descriptiva debe preocuparse de si la muestra está o no bien descripta a partir de
los datos de los individuos, mientras que la estadística inductiva se preocupará de establecer la
representatividad de la muestra respecto de la población. Más generalmente, la primera es
eminentemente descriptiva y no amplía mayormente nuestro conocimiento: más bien lo resume
mediante las medidas estadísticas. En cambio la segunda sí amplía nuestro conocimiento pues lo
extiende (con cierto margen de error) a toda la población. De aquí que tenga un carácter
predictivo, pues conociendo la muestra, puedo predecir hasta cierto punto confiable cómo habrá de
ser la población.
U N
I V E R S
I D A D
D
E
A Q U
23
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
PROGRAMA DE CONTROL DE LA CALIDAD
WORK PAPER # 6
UNIDAD O TEMA: 5. LA INVESTIGACION DESCRIPTIVA
TITULO: Hipótesis
FECHA DE ENTREGA:
Sabemos ya, por los resultados de la indagación exploratoria, qué aspectos son importantes o
relevantes y cuáles no respecto del tema estudiado. Tras haber aumentado así nuestro
conocimiento sobre la drogadicción, sabemos ahora que los aspectos relevantes son por ejemplo
la deserción escolar, la zona de residencia y la edad, y sabemos que son mucho menos
importantes la raza, la inteligencia y el sexo. Todo esto lo hemos llegado a saber en forma intuitiva
a partir de los datos que fuimos recolectando en el estudio exploratorio y, si tenemos la suficiente
confianza en nuestra intuición (pues a veces falla), podremos adoptar la decisión de considerar
unos factores y rechazar otros. Pero ante la duda, convendrá seguir manteniendo en nuestro plan
los factores sospechosos de ser irrelevantes: en todo caso la duda quedará aclarada en la
investigación descriptiva.
a) Hipótesis
Al comenzar el estudio descriptivo no sólo ya hemos aumentado nuestro conocimiento del tema
sino que además, y como consecuencia, hemos reducido o achicado el número de posibles
factores relacionados con la drogadicción. Por lo tanto, podemos empezar a dar forma aquí a
nuestra propia hipótesis sobre qué aspectos influyen sobre la adicción a las drogas.
Comenzaremos por establecer qué es una hipótesis, cómo debemos formularla, y cuáles son sus
elementos constitutivos.
En una primera aproximación intuitiva, diremos que una hipótesis no es una pregunta sino una
respuesta, una respuesta a un problema, un intento de explicación. Cotidianamente solemos
formular hipótesis sin ser científicos. Si alguien no llegó a la cita (problema) buscamos alguna
hipótesis para explicar esta situación (aunque se llame "excusa" si la explicación la da el
impuntual): había huelga de transportes, tuvo un accidente, se quedó dormido leyendo este libro,
etc. Son todas respuestas tentativas que después podrán verificarse o no, según nuestras ganas.
Pero el científico también inventa hipótesis; de hecho, su tarea central consiste en formularlas y
luego probarlas. Por ejemplo frente al problema de porqué existe el dolor, puede ocurrírsele la
hipótesis de que el dolor es un aviso natural de alguna enfermedad para alertar al sujeto y poder
combatirla. Así como las preguntas suscitan respuestas, así también los problemas suscitan
hipótesis.
En una segunda aproximación más técnica, una hipótesis es una proposición general, sintética y
verificable. Esta definición nos dice que ante todo una hipótesis es una proposición, o sea una
afirmación (o negación) acerca de algo. Cuando simplemente decimos “aprendizaje” no estamos
afirmando ni negando nada, pero cuando decimos que “el aprendizaje es estimulado con premios”
aquí sí ya estamos afirmando algo (2). Aunque también una negación es una proposición (“el
aprendizaje no es estimulado por premios”), lo habitual en la ciencia es la formulación de hipótesis
en forma positiva o afirmativa.
La proposición hipotética debe además ser general: suponemos y pretendemos que es aplicable a
todos los individuos (incluso a los que aún no conocemos, con lo que la hipótesis tiene también un
U N
I V E R S
I D A D
D
E
A Q U
24
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
carácter predictivo). El anterior ejemplo sobre el aprendizaje es una proposición general; en
cambio, "Juancito aprende más cuando es premiado" es singular, y en este sentido no es una
hipótesis. A lo sumo podrá ser una proposición deducible de una hipótesis ("el aprendizaje
aumenta con los premios") cuando no el resultado de una observación. El requisito de la
generalidad deriva de una exigencia del conocimiento científico que dice que tiene que ser general
pues esto no sólo aumenta nuestro saber sobre la realidad sino que además, al ser predictivo,
tiene una mayor utilidad práctica.
La hipótesis también debe ser una proposición sintética. De acuerdo con cierta clasificación de
inspiración kantiana (21), las proposiciones pueden ser analíticas, contradictorias y sintéticas.
Las proposiciones analíticas son siempre verdaderas: "lo que es, es", o "el triángulo tiene tres
ángulos", etc. Las proposiciones contradictorias son siempre falsas: "una empanada no es una
empanada", "un cuadrilátero tiene cinco lados", etc. Lo característico de estas proposiciones es
que sabemos su verdad o su falsedad simplemente por el examen de la misma proposición, con lo
que no necesitamos confrontarlas con la realidad: no necesitamos observar un triángulo para
saber que tiene tres ángulos, porque la misma expresión "triángulo" ya lo dice.
Si en las proposiciones analíticas (o contradictorias) tenemos siempre la certeza de su verdad (o
falsedad), en las proposiciones sintéticas no podemos saber de antemano (o "a priori", que es más
elegante) si son verdaderas o falsas. Por ejemplo "el lápiz es azul", o "la frustración genera
agresión". Puesto que no conocemos su verdad o falsedad, requerirán entonces ser verificadas
empíricamente, lo que constituye otra de las características de una hipótesis.
Pero para poder verificar una proposición sintética esta deberá ser, obviamente, verificable.
"Lucifer vive en el infierno" es una proposición sintética pues no sabemos de antemano si esto es
cierto o no, pero no es verificable pues no contamos con ninguna experiencia que pueda probarlo.
Recordemos que una hipótesis es una respuesta a un problema, y si queremos que éste sea
solucionable deberemos buscar una respuesta verificable. "La frustración genera agresión" sí es
verificable, por ejemplo dando a las personas ciertos problemas para resolver (que en realidad son
insolubles) y luego ver si nos tiran con el problema por la cabeza o no. Es entonces posible
administrar estímulos frustrantes y observar luego si aparecen o no respuestas agresivas.
Resumamos otras características de las hipótesis: a) Relevancia: la hipótesis procura dar
explicaciones "esperables" de acuerdo al contexto donde se trabaja. En un contexto científico no
puedo afirmar como hipótesis que "la neurosis se debe a que existe el universo". Indudablemente
esto no carece de sentido, porque si no habría universo no habría personas y por lo tanto tampoco
neuróticos, pero ésta no es la explicación esperable en un contexto psicológico. Del mismo modo,
en el contexto de la química sería irrelevante explicar un incendio diciendo que se debió a que se
quería cobrar el seguro. La explicación relevante en el mismo contexto es aportada por la teoría de
la combustión. b) Multiplicidad: habitualmente se proponen varias hipótesis para resolver un
problema, y luego se va haciendo una selección sobre la base de los elementos de juicio a favor o
en contra de cada una de ellas. Hempel (3) cita un ejemplo donde para resolver el problema de por
qué las mujeres parturientas contraían la fiebre puerperal, se habían propuesto seis hipótesis
alternativas. c) Simplicidad: dadas dos hipótesis alternativas que fueron ambas verificadas con la
misma fuerza, se tiende a preferir la más simple, o sea, aquella que con los mismos elementos
explica más, o aquella que muestra una realidad más armónica y uniforme, o hasta incluso aquella
que resulta psicológicamente más entendible. Tras la aparente complejidad de su indagación, el
científico trata de buscar la solución más sencilla.
Respecto del modo cómo deben formularse las hipótesis, tenemos basicamente dos variantes: las
hipótesis de correlación y las hipótesis causales. Las primeras tienen pocas pretensiones, pues se
limitan a afirmar que hay una cierta correlación entre dos o más factores, como cuando decimos
U N
I V E R S
I D A D
D
E
A Q U
25
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
que "a mayor cohesión grupal mayor eficacia laboral". Esta hipótesis me dice que cuanto más
unido es un grupo mejor trabaja, o sea me informa que los factores cohesión y eficacia están
altamente correlacionados: cuando aumenta uno también aumenta el otro. Pero cuidado: la
hipótesis no dice explícitamente que un factor sea la causa del otro (aunque podamos suponerlo
íntimamente o leerlo entre líneas), o sea que explícitamente no está formulada como hipótesis
causal. Hubiera sido así si hubiésemos dicho "la causa de la eficacia laboral es la cohesión
grupal", o "la cohesión grupal determina la eficacia laboral", donde la expresión "determina" ya
sugiere en forma explícita la idea de un vínculo causa-efecto. La correlación podrá ser directa
(ambos factores aumentan, o ambos disminuyen), o inversa (uno aumenta y el otro disminuye, o
viceversa).
Las hipótesis causales tienen mayores pretensiones: no solamente afirman que dos factores se
encuentran correlacionados sino que además arriesgan la idea que hay un vínculo causal entre
ellos, o sea uno es la presunta causa y el otro el efecto. Las hipótesis del tipo "la cohesión grupal
es la causa de la eficacia laboral"son claramente explicativas (explican la eficacia a partir de la
cohesión), mientras que las hipótesis de correlación son mas bien descriptivas, pues resumen las
observaciones realizadas sobre cierta cantidad de grupos donde se constató una cierta regularidad
entre la cohesión y la eficacia.
Normalmente, las hipótesis de correlación van surgiendo en el transcurso de una investigación
descriptiva, pero a medida que avanza esta descripción el investigador puede ir alimentando la
sospecha de que entre ciertos factores no sólo hay una correlación sino también una relación
causal. La investigación descriptiva, como veremos, termina con la formulación de una hipótesis
causal, que luego deberá ser probada mediante una investigación explicativa.
Puede también ocurrir que el científico alimente primero la sospecha de un vínculo causal, en cuyo
caso el paso posterior será hacer una investigación descriptiva para constatar si hay o no
correlación, así como su grado o fuerza, como paso previo para probar definitivamente el vínculo
causal en el estudio explicativo. De aquí que a veces se diga que en una investigación descriptiva
(y aún en una exploratoria) se puede o no partir de hipótesis previas.
b) Conceptos: constantes y variables
Examinaremos ahora los elementos constitutivos de una hipótesis, partiendo del siguiente ejemplo:
"En la provincia de Buenos Aires, a mayor densidad poblacional menor solidaridad entre los
habitantes". En esta hipótesis los elementos que la componen son tres: "área geográfica",
"densidad poblacional" y "solidaridad", y los llamamos conceptos.
Para lo que aquí nos interesa, los conceptos son ante todo propiedades o características de los
sujetos o las poblaciones que estamos estudiando (o sea, propiedades de las unidades de
análisis). Por ejemplo, tal sujeto o tal población tiene la propiedad de estar en tal zona geográfica,
con lo cual "zona geográfica" es un concepto. Del mismo modo también son propiedades de una
población su densidad o su grado de solidaridad.
Los conceptos tienen diferentes grados de abstracción: "sexo" o "raza" son propiedades
directamente observables, pero hay conceptos más abstractos como "aprendizaje", "personalidad"
o "inteligencia". Estos no son directamente observables (son hipotéticos o teóricos) salvo a través
de otras propiedades más empíricas o menos abstractas: "inteligencia" puede observarse
mediante otros conceptos como "aptitud para la suma aritmética" o "habilidad para armar
rompecabezas".
No debemos confundir el concepto con el término: el primero es una idea, mientras que el segundo
es una mera palabra. Muchas teorías utilizan el mismo término como por ejemplo, "transferencia",
pero cada una lo conceptualiza de diferente manera y entonces son conceptos diferentes: una
cosa es la transferencia en el psicoanálisis, otra en las teorías del aprendizaje, otra el ARN de
transferencia en biología, y aún fuera de un contexto científico también puede significar el trámite
U N
I V E R S
I D A D
D
E
A Q U
26
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
de cambio de titularidad de un vehículo. Otro tanto podemos decir del término "resistencia", que
puede apuntar a un concepto físico como a uno psicoanalítico.
Si bien utilizamos conceptos en la vida cotidiana ("golosina", "alegría"), y los hay también en la
filosofía ("ente", "alma"), los conceptos que aquí nos interesan son aquellos que pueden ser
tratados científicamente, para lo cual deben reunir dos requisitos: a) deben poder observarse y
medirse. Los conceptos abstractos no son directamente observables, pero si podemos traducirlos
a otros conceptos más empíricos entonces sí son científicos. Precisamente al poder observarlos
puedo también medirlos. Medimos "inteligencia" a través de la medición de la "habilidad para el
cálculo aritmético"en un test. Para poder transformar un concepto teórico en conceptos empíricos
hago una operacionalización, proceso que describiremos más adelante; b) deben estar vinculados
con otros conceptos a través de una hipótesis. "Solidaridad" como concepto aislado no es tratable
científicamente, salvo que lo relacionemos con "densidad poblacional", o con "raza", etc. La
hipótesis permite al investigador relacionar conceptos entre sí para determinar cómo varían unos
en función de otros y, de esta manera, ampliar y profundizar su comprensión de la realidad.
Para algunos autores (4), si un concepto reúne los dos requisitos apuntados entonces puede
usárselo en la investigación científica y recibe el nombre de "constructo".
Sin embargo, en una hipótesis no todos los conceptos funcionan de la misma manera, y así,
encontraremos básicamente dos tipos de conceptos, a los que se suele llamar constantes y
variables.
Una constante es todo concepto que no sometemos a variación en una determinada investigación:
precisamente lo mantenemos constante. En nuestro ejemplo anterior "área geográfica" es una
constante, ya que en la hipótesis queda claro que investigamos solamente poblaciones de Buenos
Aires, y no de Entre Ríos o Catamarca. Al mantenernos sólo en Buenos Aires mantenemos
constante el área geográfica. Constantes habituales en la investigación científica son las
constantes espaciales (como "área geográfica") y las temporales (como "año").
Lo que en una determinada hipótesis puede funcionar como constante, en otra hipótesis puede no
hacerlo. Consideremos estas dos hipótesis: "En 1988, el índice de drogadicción aumentó con la
deserción escolar", y "Los índices de drogadicción fueron aumentando en los últimos años". El
concepto "año" funciona como constante en la primera hipótesis, porque lo mantenemos en un
valor fijo (1988); pero en la segunda no es constante pues lo sometemos a variaciones (1986,
1987, 1988, etc.).
Precisamente llamaremos variable a todo concepto que esperamos que varíe a lo largo de una
investigación determinada. En nuestro primer ejemplo variables son la "densidad poblacional" y la
"solidaridad", ya que si sometemos a variación la densidad poblacional es esperable una variación
correlativa de la solidaridad. ¿Cómo sabemos que han variado? Porque las hemos medido, y esta
es la razón de la importancia de la medición en la investigación científica. Obviamente podemos
llevarnos una sorpresa: hemos variado la densidad poblacional pero resulta que no varió la
solidaridad. Esto no quiere decir que solidaridad deje de ser variable, pues lo esencial de una
variable es ser un concepto sobre el cual recae una expectativa de variación.
Si en la hipótesis anterior "densidad poblacional" funcionaba como variable, en otra hipótesis
puede funcionar como constante, como en el caso siguiente: "En zonas de igual densidad
poblacional, a mayor homogeneidad de razas mayor solidaridad", lo cual demuestra que un
concepto no es en sí mismo ni constante ni variable: esto lo habrá de decidir la hipótesis donde lo
incluimos, o sea, el propósito de nuestra investigación.
De entre las muchas clasificaciones de variables que existen hemos seleccionado cinco, de las
cuales la última será la más importante pues sobre ella basaremos gran parte del presente libro.
Clasificación de variables
U N
I V E R S
I D A D
D
E
A Q U
27
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
Según
complejidad
Según
manipulación
Según ubicación
Según medición
Según función
SALUD
Simples (manifiestas)
Complejas (latentes)
Activas
Asignadas
Organísmicas
Situacionales
Cualitativas
Cuantitativas (estas pueden ser discretas y continuas)
Relevantes: Dentro de las relevantes encontramos las
independientes (X), las dependientes (Y), y las adicionales (éstas
últimas pueden ser antecedentes, intervinientes y contextuales).
No relevantes
Según su grado de complejidad, las variables pueden ser simples y complejas. Las primeras
pueden observarse y medirse directamente, mientras que las segundas son más teóricas y sólo
pueden observarse y medirse indirectamente traduciendo sus términos abstractos a términos
empíricos. "Inteligencia" es variable compleja pues sólo puede medirse a través de sus indicadores
empíricos, como por ejemplo "aptitud para comprender refranes". Más adelante, al hablar del
proceso de operacionalización, volveremos a caracterizar variables complejas como aquellas
constituídas por varias dimensiones, y variables simples como las que no tienen dimensiones. De
acuerdo con otras nomenclaturas, las variables simples se llaman también manifiestas, y las
complejas latentes.
Según el grado de manipulación ejercido por el investigador sobre las variables, éstas podrán ser
activas o asignadas según que sean manipuladas o no, respectivamente, entendiendo por
manipulación la acción que realiza el investigador de cambiar sus valores a voluntad. La edad
suele ser una variable de fácil control, ya que el investigador puede agrupar personas de acuerdo
a su edad en forma sencilla. Pero si intenta agrupar personas con la misma motivación podrá tener
dificultades debido a su desconocimiento de las motivaciones de las diferentes personas para
estudiar, jugar, aprender, etc. "Motivación" es así una variable asignada o de difícil control, salvo
que el investigador pueda "despertar" la motivación y regularla sobre la base de premios o
castigos, en cuyo caso pasa a ser una variable activa. La distinción entre variables activas y
asignadas es importante por cuanto, como veremos, la gran tarea del investigador es la de
manipular variables.
No debe confundirse la manipulación con el control. La manipulación se ejerce sobre las variables
independientes, pues son éstas las que el investigador varía a voluntad para ver si se produce
alguna variación en la variable dependiente. Mientras tanto, las otras variables adicionales que
podrían estar también influyendo sobre ésta última deben ser ‘ controladas’, es decir, se intentará
evitar su influencia. En suma: las variables independientes se manipulan, la variables adicionales o
extrañas se controlan, y finalmente las variables dependientes se miden (para saber si sufrió
alguna variación por efecto de la variable independiente).
Según su ubicación, las variables pueden ser organísmicas y situacionales. Las primeras son
propias del sujeto (temperamento, tolerancia a la frustración, etc.), mientras que las segundas son
más propias del ambiente o la situación que rodea al sujeto (clima político, clima meteorológico,
tipo de tarea a realizar, etc.). Ciertas variables como "inteligencia" son lo suficientemente
complejas como para incluir aspectos organísmicos (factores genéticos, maduración nerviosa) y
aspectos situacionales (alimentación, estimulación recibida). No obstante, en cada teoría puede
predominar la concepción organísmica o la situacional de inteligencia: para el conductismo
ortodoxo, inteligencia es una variable eminentemente situacional en tanto considera que una
persona es más o menos inteligente según el ambiente y los estímulos que en él se generan.
Según el nivel de medición empleado para medir las variables, éstas pueden ser cualitativas o
cuantitativas. Toda variable tiene distintas posibilidades de variación: "religión" tiene como posibles
U N
I V E R S
I D A D
D
E
A Q U
28
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
variaciones "católico", "protestante", "judío", etc., y la variable edad admite variaciones como "10
años", "11 años", etc. Las primeras se denominan cualitativas y las segundas, al expresarse
numéricamente, son cuantitativas. Aquí los números no deben ser simples etiquetas, como los que
identifican a los jugadores de fútbol, sino que deben poder servir para realizar sumas, restas, etc.
Otras variables cualitativas son por ejemplo "partido político", "sexo", etc., y variables cuantitativas
son también "cantidad de hijos", "peso", etc.
Las variables cuantitativas pueden a su vez ser continuas y discretas, lo que en última instancia
dependerá de la decisión del investigador. Así, la variable "edad" será considerada discreta si sus
valores remiten sólo a números enteros: 20, 21, 22 años., etc., y será considerada continua si sus
valores pueden ser enteros y fraccionarios (edades en años, meses y días). En las variables
continuas es siempre posible agregar otro valor entre dos valores dados cualesquiera.
También depende de una decisión del investigador considerar una misma variable como cualitativa
o cuantitativa, según su criterio. Si considera para "altura" los valores "alta", "media" y "baja" la
estará tomando como cualitativa; no así si selecciona los valores "1,60", "1,70", etc. El importante
requisito de exactitud que debe regir toda investigación nos hará preferir siempre que se pueda el
nivel cuantitativo.
Llegamos ahora al criterio más importante y más utilizado para clasificar variables: según su
función en el contexto de la investigación. Si bien esta clasificación varía mucho de un autor a otro,
propondremos aquí una que nos parece lo suficientemente completa.
Primeramente encontramos variables relevantes y no relevantes. Estas últimas, que serán
descartadas por el investigador son aquellas que, a juicio de éste, no influyen en la investigación
que está realizando, o al menos existen razonables elementos de juicio como para eliminarlas.
Podemos pensar que la dureza de los minerales no influye para nada sobre el humor de las
personas, salvo que nos arrojen una piedra por la cabeza.
Las variables relevantes son aquellas que sí consideraremos en la investigación, sea porque son
las variables que queremos estudiar directamente (la independiente y la dependiente), sea porque
sospechamos que están ejerciendo algún tipo de influencia que deseamos medir para controlarlas
y eventualmente anularlas (variables adicionales). Así por ejemplo, si estamos indagando la
influencia del ruido sobre el estrés, podemos sospechar que también actúa una variable adicional,
el tipo de ocupación, que también influiría sobre el estrés. Para controlarla y anular su influencia
procuraremos que los sujetos sean lo más heterogéneos posible en cuanto a sus respectivas
ocupaciones.
Hipotéticamente, en el medio de nuestra investigación podemos empezar a darnos cuenta que el
ruido no tiene nada que ver con el estrés, sino la ocupación. Si entonces nos proponemos estudiar
la influencia de ésta última sobre el estrés, entonces la variable adicional pasará a ser una variable
independiente, y ruido de ser variable independiente pasará a ser una variable no relevante.
Llamaremos variable independiente a aquella que supuestamente actúa como causa (por ejemplo
el ruido). En cambio la variable dependiente es el efecto (el estrés). Si se la denomina dependiente
es sólo porque suponemos que "depende" de la independiente. Por convención universal a la
variable independiente se la designa X y a la dependiente Y, con lo cual la relación entre ambas
variables puede expresarse del siguiente modo:
X -----------> Y
Esta expresión, tan sencilla como fundamental, significa que X es la supuesta causa de Y
("supuesta" porque no necesariamente tuvo que haber sido probada, como ocurre en los
preliminares de la investigación). A la variable X se la suele llamar también variable experimental,
porque es aquella variable que manipulará o hará variar el investigador para ver si también varía Y.
Así por ejemplo el científico producirá diferentes intensidades de ruidos (varía X) para comprobar
si en la misma medida varía también el estrés (variación de Y). Observemos que no hace variar
U N
I V E R S
I D A D
D
E
A Q U
29
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
directamente Y, sino indirectamente actuando sobre X. En síntesis: el investigador actúa sobre X, y
X eventualmente actuará sobre Y.
Vale la reiteración por ser una relación importante: la variable dependiente es aquella que depende
de la independiente. En la hipótesis que dice que "nuestra impresión de las personas depende de
cómo hablan" se está considerando que la impresión es la variable dependiente y el modo de
hablar la variable independiente.
En el caso anterior es el mismo enunciado de la hipótesis el que nos está indicando explícitamente
qué variable depende de la otra. Puede ocurrir sin embargo que nos presenten dos variables
aisladas -no vinculadas mediante una hipótesis- como por ejemplo "edad" y "memoria". En estos
casos la mejor forma de saber cuál es cuál es hacernos interiormente la pregunta "¿cuál depende
de cuál?". Obviamente, tiene más sentido decir que la memoria depende de la edad, que decir que
la edad depende de la memoria. Esto último puede funcionar como chiste, como cuando a una
persona le preguntamos su edad y hace que no se acuerda.
La cuestión puede complicarse cuando nos dan estas otras dos variables: "clase social" e
"inteligencia". Aquí cualquiera de las dos puede funcionar como variable dependiente o
independiente, según qué sea lo que nos interese investigar. Tiene tanto sentido decir que la
inteligencia depende de la clase social (pues las clases más altas alimentan mejor y dan más
estimulación a sus niños, con lo que estos desarrollarán mayor inteligencia), como decir que la
clase social depende de la inteligencia (sujetos más inteligentes tienen mayores posibilidades de
escalar clases sociales). Otro tanto podemos decir con respecto a las variables "cantidad de
ensayos" y "número de errores".
El esquema simple X-------->Y nos sugiere la idea que los fenómenos obedecen a una única
causa. Al respecto, se pueden sustentar tres posiciones distintas:
a- Todo fenómeno tiene una sola causa.
b- Algunos fenómenos se deben a una sola causa, pero otros a varias.
c- Todo fenómeno responde a muchas causas.
El sentido común sostiene habitualmente la primera postura. En nuestra vida cotidiana solemos
basarnos en este supuesto cuando afirmamos o creemos en enunciados tales como "coma
manzanas y adelgazará", o "si estoy enojado se debe simplemente a que usted me hizo enojar",
etc., o bien "no aprobé el examen porque el profesor se ensañó conmigo". Si nos mantenemos en
esta ilusión de la única causa se debe probablemente a que, entre otras razones, en nuestra
fantasía podremos controlar la ocurrencia o la no ocurrencia de los acontecimientos controlando un
solo factor, o sea de la forma más sencilla. Si yo pienso que me resfrié simplemente porque me
desabrigué, podré supuestamente controlar el resfrío abrigándome bien.
La psicología conoce bien esta tendencia. De Vega refiere que “el hombre de la calle utiliza un
‘principio de parsimonia’ intuitivo cuando busca explicaciones causales a los fenómenos.
Tendemos a sobreestimar el valor de las atribuciones unicausales, a conformarnos con una sola
causa plausible, minimizando otras causas concurrentes” (23).
Sin embargo, cuando empezamos a advertir que las cosas no son tan sencillas empezamos a
sostener insensiblemente la segunda postura, pero la tercera posición ya es sustentada por la
actitud científica. Años de investigaciones enseñan que la realidad es bastante más compleja de lo
que se supone y que cualquier fenómeno, por simple y anodino que parezca, obedece a muchas
causas que actúan conjuntamente para producirlo. Uno podría pensar que la rotura de un vidrio
tiene una sola causa: la piedra que hemos arrojado contra él. Este acontecimiento obedece sin
embargo a muchas razones que intervienen simultáneamente: el arrojar la piedra, la dureza y la
trayectoria de la misma, su velocidad, la fragilidad del vidrio, nuestro propio instinto de agresión,
etc. etc. Conocí un niño que habiendo roto una ventana, se justificó diciendo "qué culpa tengo yo si
el vidrio es frágil". Podría también haber dicho, apelando a otra posible causa, "qué culpa tengo yo
si el vidrio se interpuso en la trayectoria de la piedra".
U N
I V E R S
I D A D
D
E
A Q U
30
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
Pero si el científico sostiene la tesis de la policausalidad, ¿por qué entonces se plantea
habitualmente el simple esquema X  Y? Podemos citar dos razones importantes: a) es imposible
poner a prueba simultáneamente todas las causas posibles (entre otras cosas porque las
desconocemos), por lo que el científico decide probar uno por uno cada factor causal en
investigaciones separadas e independientes sobre la base del esquema antes indicado; b) al
científico suelen interesarle, por razones prácticas, sólo ciertos factores que está en condiciones
de controlar. En la causación de la neurosis intervienen muchas causas, entre las que podemos
citar los factores constitucionales heredados y los conflictos sexuales no resueltos de la primera
infancia. Como por ahora, y dado el relativamente exiguo avance de la ingeniería genética no se
puede influir en los genes para evitar la neurosis, científicos como Freud se abocaron al estudio de
la causalidad sexual infantil, cosa que sí es posible controlar o influenciar mediante una educación
adecuada. Conciente de la necesidad de adoptar un punto de vista policausalista, el creador del
psicoanálisis se refirió también a los factores constitucionales, pero sólo se limitó a mencionarlos.
No obstante lo dicho, el simple esquema X  Y admite una complejización más. Si bien no se
pueden investigar simultáneamente todas las causas posibles, mediante diseños más complejos
podemos estudiar unas pocas causas al mismo tiempo, con lo cual resultan dos esquemas de
investigación:
X1
X
Esquema bivariado
Y
X2
Y
Esquema multivariado
X3
Las investigaciones más simples son bivariadas: consideran solamente la variable independiente X
(posible causa) y la variable dependiente Y (efecto). Tal es el caso del abordaje de hipótesis como
"la memoria depende de la edad", "ambientes con música aumentan el rendimiento laboral", etc., o
de aquellas otras que la divulgación científica suele expresar más literariamente como "el mal
humor es una hormona" y "la tristeza atrae a los virus" (5).
En cambio, ejemplos de investigaciones multivariadas son la indagación simultánea de la edad, el
sexo y la situación familiar como posibles causas de la drogadicción. O la música, el color de las
paredes y la temperatura ambiente como posibles factores que influyen sobre el rendimiento
laboral. Tanto en estos esquemas como en los simples bivariados, siempre la variable dependiente
es una sola, y lo que sí puede variar es el número de posibles causas o variables independientes
tomadas en consideración.
Por supuesto que teóricamente cabe también la posibilidad de investigar simultáneamente dos
variables dependientes (dos efectos) de una única causa, como sería el esquema:
Y1
X
Y2
U N
I V E R S
I D A D
D
E
A Q U
31
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
Tal es el caso del enunciado "el ruido produce estrés y también hipoacusia", pero en estas
situaciones deberemos desglosar el enunciado en dos hipótesis diferentes ("el ruido produce
estrés" y "el ruido produce hipoacusia") y emprender dos investigaciones diferentes y bivariadas,
con lo que volvemos al primer esquema simple. Y si bien es posible también desglosar una
investigación bivariada en varias bivariadas, si se prefiere la primera es porque ahorra tiempo y
esfuerzo o porque no es posible separar en la realidad la influencia de las otras posibles causas.
Veamos algunos ejemplos de relaciones X-Y, o sea de posibles vínculos causales:
Edad
Nivel económico
Memoria
Hábitos alimenticios
Incentivo
Nivel
socioeconómico
Cantidad de ensayos
del Deserción escolar
Rendimiento
Inteligencia
Area geográfica
Drogadicción
Número de errores
Método de enseñanza Rapidez
Drogadicción
aprendizaje
Proximidad
Voto decidido
Frustración
Agresión
elecciones
Padres separados
Deserción escolar
Drogadicción
Soledad
En los ejemplos de la segunda columna la relación causal puede darse en cualquiera de ambos
sentidos: si bien es cierto que el incentivo aumenta el rendimiento, un mejor rendimiento puede a
su vez funcionar como incentivo. O también la droga hace que un adolescente falte al colegio, y a
su vez la ausencia del colegio hace que vaya a otros lugares donde puede adquirir el hábito. En
última instancia cuál de los dos factores será considerado causa depende, lo dijimos, de la
decisión del investigador, lo cual viene a mostrarnos que fuera de todo contexto no podemos saber
si una variable dada es independiente o dependiente, y sólo lo sabremos viendo cómo está
relacionada con otra variable: si como causa o como efecto. El solo hecho de pensar que la
variable ´´conducta´´ en psicología es dependiente (pues pensamos que la psicología estudia las
causas de la conducta), no debe hacernos excluir la posibilidad de que, en este mismo ámbito,
pueda ser considerada a veces como independiente, en la medida que se pretenda investigar
cómo influye nuestro comportamiento sobre nuestra visión de nosotros mismos o en la
consideración de los demás.
En algunos de sus escritos Freud consideró al síntoma en su doble aspecto de causa y efecto. Lo
entendió como efecto cuando sugirió que un sentimiento de culpa o una intensa fijación anal
(causa) puede hacer que el paciente sea un maniático de la limpieza (síntoma-efecto); y lo
entendió como causa, cuando agregó que su manía por la limpieza (síntoma-causa) puede
tornarse tan insoportable para el mismo sujeto que se defienda de ella con una extrema suciedad
(efecto, o síntoma secundario).
El solo hecho de llevar a cabo una investigación bivariada no nos garantiza, sin embargo, que
sobre el efecto Y no estén actuando en la realidad los otros posibles factores causales. Se hace
necesario entonces controlar (en el sentido de neutralizar) la influencia de ellos porque si no nunca
podremos saber si Y se produjo debido a X (que es lo que nos interesa) o debido a los otros
factores. Ya quedó dicho que si no se puede aislar la influencia de éstos podremos optar por un
diseño multivariado.
Estas otras posibles causas que es necesario controlar o neutralizar se llaman variables
adicionales. A lgunos autores la designan con la letra "t" como Hyman (6), y otros con la letra "z"
como Blalock (7). También suele designárselas como variables de control, factores de prueba, etc.,
en alusión al uso que se les da en la investigación. E n lo que sigue adoptaremos la denominación
"z", con lo cual el esquema simple bivariado adquiere en realidad la siguiente forma:
U N
I V E R S
I D A D
D
E
A Q U
32
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
z1
X
Y
z22
Las líneas punteadas indican que los factores adicionales están supuestamente ejerciendo
influencia sobre Y, y entonces la debemos neutralizar. Tal es la esencia de un experimento: aislar
variables. O´neil (15) da una excelente definición de experimento cuando dice que es un modelo
particular de variación y constancia, con lo cual, entre otras cosas, está queriendo decir que en
todo experimento hacemos variar solamente X para ver cómo varía Y, mientras se mantienen
constantes todos los otros posibles factores z1, z2, etc. Muy genéricamente, entonces, una
variable adicional es aquella de la cual sospechamos que puede estar ejerciendo influencia causal
sobre Y, con lo cual resulta que nos es X el único factor causal pero sí el único que nos interesa.
En un esquema multivariado también habrá que controlar otros posibles factores z, mientras
investigamos sólo los que nos interesan en ese momento (X1, X2, X3, etc.).
Estas variables adicionales o extrañas pueden estar ejerciendo su influencia de tres maneras
distintas, de donde podemos decir que habrá tres tipos de variables adicionales (8).
z
z
X
X
z
X
Y
Y
Y
Variable antecedente
Variable interviniente
Variable contextual
Los esquemas nos muestran que z actúa como variable antecedente cuando ocurre
cronológicamente antes de X; que actúa como variable interviniente cuando ocurre después de X;
y que actúa como variable contextual cuando ocurre al mismo tiempo (simultáneamente) que X.
Examinemos un ejemplo de variable antecedente:
Tipo de ocupación
z
Tiempo ausencia hogar
U N
I V E R S
X
I D A D
Y
D
E
A Q U
33
Estrés
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
Tras haber realizado una investigación descriptiva podemos empezar a sospechar que X es causa
de Y debido a la alta correlación encontrada entre ambas variables: cuanto más tiempo alejada del
hogar aparecía una persona, mayor nivel de estrés constatábamos en ella. Pero luego
empezábamos a sospechar que este vínculo causal es sólo aparente, y que si afectivamente hay
una alta correlación se debe en realidad a que hay otro factor z que actúa simultánea e
independientemente sobre X y sobre Y. Efectivamente: el tipo de ocupación influye en forma
independiente y simultánea sobre el tiempo de ausencia del hogar y sobre el estrés. Por ejemplo:
los ejecutivos están mucho tiempo ausentes del hogar pero también las exigencias y
responsabilidades de su profesión les producen estrés.
Si comprobamos que efectivamente el estrés es producido por el tipo de ocupación y no por el
mayor o menor tiempo de ausencia del hogar, entonces la relación original X-Y deja de ser causal
y pasa a ser una relación "espúrea", o sea, el vínculo que primeramente nos parecía causal pero
luego constatamos que no lo es. Este tipo de constatación se llama prueba de espureidad, y la
veremos con mayor detalle en otro capítulo.
Otro ejemplo de variable antecedente son los factores genéticos. El hecho de que hayamos
encontrado una alta correlación entre la raza (X) y ciertos tipos de cáncer (Y) no prueba
necesariamente que la raza sea la causa de esas patologías: raza y cáncer dependen de factores
genéticos (Z), por ejemplo: si pensamos que entre X e Y hay una relación causal es porque vimos
alta correlación, pero ésta puede deberse simplemente a que raza y cáncer están determinados
por el mismo cromosoma, portador al mismo tiempo del gen del color de piel (raza) y del gen que
predispone al cáncer.
Otro investigador podrá sospechar otra cosa: que el cáncer se debe a la raza y que los factores
genéticos no influyen, si por ejemplo piensa que el color de piel hace que los rayos ultravioletas
solares penetren más profundamente en los tejidos y tengan más probabilidades de producirles
lesiones malignas. En estos casos la investigación estará encaminada a probar que X es causa de
Y, en lugar de intentar probar que no lo es por existir otro sospechoso más convincente (z).
Veamos ahora un ejemplo de variable interviniente. Originalmente, los datos de una investigación
descriptiva nos pueden hacer sospechar que el nivel de educación de las personas (X) es lo que
determina sus intenciones de voto (Y) o sea, sus intenciones por participar activamente del
sistema democrático, sea porque la educación enseña la importancia del voto, sea porque
simplemente hemos advertido una alta correlación entre ambos factores (personas poco instruidas
tienden a no votar, personas instruidas tienden a querer votar).
Podemos sin embargo suponer que en realidad entre X e Y se interpone una variable más: el
interés en política (z), de forma tal que el nivel de educación determina el interés en política y
recién éste es la causa directa de la intención de votar:
X
Nivel de educación
z
Y
Interés en política
Intención de voto
Podríamos aquí argumentar que en rigor el nivel educativo es también causa, aunque indirecta, de
la intención de votar. Esto es admisible, pero también es cierto que lo que al científico le interesa
es una causa mas bien directa para poder controlar mejor la aparición o la no aparición de Y. Es
U N
I V E R S
I D A D
D
E
A Q U
34
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
más difícil controlar la intención de votar a partir del nivel educativo pues puede ocurrir que cierto
tipo de educación no despierta interés en política. En cambio el interés político es más seguro para
controlar la intención de voto. Esta es sólo una razón práctica para elegir causas directas, pero hay
también una razón teórica: no aumenta en mucho nuestro conocimiento de un fenómeno
conociendo sus causas remotas. Efectivamente, cuanto más indirecta o remota sea la causa
menor interés tendrá para el científico: una causa remota de la drogadicción es por ejemplo la
existencia del sol, ya que si no hay sol no hay fotosíntesis, y por lo tanto no hay plantas, y por lo
tanto no habrá ni cocaína ni marihuana, con lo cual no habrá drogadicción. La explicación de la
adicción a las drogas por el sol resulta ser inatingente.
Examinemos, por último, la variable contextual. Una investigación descriptiva realizada en nuestro
país nos ha revelado que hay una alta correlación entre el sexo de los estudiantes y la carrera que
estos eligen, ya que por ejemplo los hombres se orientan sobre todo hacia la ingeniería y las
mujeres hacia la psicología:
País
z
Y
X
Sexo
Carrera
Suponiendo que nuestra investigación haya sido hecha a escala internacional, podríamos llegar a
advertir que la relación sexo-carrera sufre variaciones según el país considerado. Podríamos
quizás constatar que en los países socialistas aumenta la proporción de mujeres que estudian
ingeniería, etc. Sobre la original relación X-Y está entonces actuando una variable contextual
(país), la que obviamente no tendremos en cuenta si la investigación es sólo a nivel nacional, en
cuyo caso deja de ser variable adicional y pasa a ser una constante.
Por lo general las variables contextuales son espacio-temporales. La relación sexo-carrera no sólo
puede depender de la región o país, sino también de la época considerada: hace 60 o 70 años la
proporción de mujeres que estudiaban medicina era considerablemente menor.
Otras relaciones entre variables.- No siempre una investigación se ajusta al esquema simple X>Y.
Hay una cantidad enorme de esquemas diferentes, de los cuales los siguientes son apenas una
muestra.
U N
I V E R S
I D A D
D
E
A Q U
35
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
Esquemas
lineales
1
X
3
X
X
2
X
4
X
Xn
X
X
X
X
n
Xn
X
5
X
X
6
X
X
Xn
Xn
Xn
X
X
X
7
X
X
X
8
Xn
X
Xn
Esquemas
cibernéticos
9
X
10
X
11
X
X
X
X
X
X
Xn significa “una X o más”
X
Hemos clasificado estos diferentes esquemas en lineales y cibernéticos. Estos últimos estudian
específicamente procesos de feedback o retroalimentación: no es lo mismo estudiar como influye
la alimentación en la inteligencia (esquema lineal X  Y), que estudiar como ambas variables se
influyen mutuamente (X  Y).
El esquema 8, en particular, es citado por caso por Blalock (22) como ejemplo de complicación de
fuentes de espureidad: el vínculo entre religión (X superior) y preferencia política (Xn) puede
obedecer a dos causas comunes (X izquierda y X derecha): la religión y la región del país.
Porqué en la figura anterior no hemos indicado ninguna Y (variable dependiente)? En realidad en
cualquiera de estos esquemas se puede sustituír alguna X por Y, siempre y cuando a la Y ‘llegue’
una flecha y al mismo tiempo ‘no salga’ ninguna flecha de ella. Estas sustituciones, sin embargo,
carecerían de sentido en los esquemas cibernéticos, donde todas las variables son al mismo
tiempo independientes y dependientes, pues todas ellas influyen y son influídas.
U N
I V E R S
I D A D
D
E
A Q U
36
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
c) Categorización y operacionalización
Si bien las constantes son importantes como marco de referencia, lo que el investigador atiende
son fundamentalmente las variables porque éstas, al variar o no variar, le permitirán sacar
conclusiones sobre la aceptación o rechazo de su hipótesis. Este paso fundamental que es la
prueba de hipótesis no puede llevarse a cabo si antes no hemos sometido a todas las variables de
la hipótesis a un doble proceso: la categorización y la operacionalización.
La categorización es el proceso por el cual especificamos cuáles serán las categorías de la
variable que habrán de interesarnos. A su vez, las categorías o valores son las diferentes
posibilidades de variación que una variable puede tener. Qué posibilidades de variación tiene
“clase social”? Alta, media y baja, y por lo tanto estas tres serán sus categorías. Y si queremos ser
más sutiles podemos identificar cinco posibilidades: alta, media alta, media, media baja y baja, y si
acaso nuestro estudio se centra en un país donde sólo hay dos clases sociales netamente
diferenciadas, entonces sólo adoptaremos dos categorías, todo lo cual demuestra que las
categorías se seleccionan según los propósitos de cada investigación.
No obstante esta libertad para elegir, y sea cual fuese el sistema de categorías seleccionado, éste
debe reunir dos requisitos: a) las categorías deben ser mutuamente excluyentes. No podemos
decir que las categorías de la variable “religión” son “cristianos” y “católicos” porque hay una
superposición en las mismas; b) deben ser además exhaustivas, o sea deben agotar todas las
posibilidades de variación, con lo cual no podríamos decir que las categorías de la variable “raza”
son solamente “blanca” y “negra”. Hay veces en que son muchas las categorías que habría que
agregar para cumplir con este requisito, en cuyo caso podremos agruparlas a todas las restantes
bajo una categoría residual caratulada como “otras”.
Estos dos requisitos sirven en la medida en que permiten ubicar a cualquier sujeto en una y sólo
una categoría sin que surjan dudas. Si tengo que ubicar al Papa no sabré si ponerlo en “cristianos”
o “católicos”, de aquí que podamos también definir la exclusión mutua como la imposibilidad de
que un sujeto cualquiera pueda adquirir más de un valor de la variable. En el caso de la variable
“ocupación”, puede ocurrir que un individuo sea al mismo tiempo “médico” y “psicólogo”, en cuyo
caso se podrán abrir categorías mixtas (por ejemplo “médico y psicólogo”) con lo que queda
igualmente salvado el requisito de la mutua exclusión.
De idéntica forma y para el segundo requisito, si tengo que ubicar a un japonés y sólo cuento con
las categorías ”blanco” y “negro” no podré hacerlo, de aquí que también podamos definir la
exhaustividad como la imposibilidad de no poder categorizar a un sujeto cualquiera.
Las posibilidades de variación pueden llamarse categorías o valores. Se acostumbra a llamar
categorías a aquellas que no admiten un tratamiento cuantitativo por medio de cálculos, y por lo
tanto regularmente se expresan en palabras. Tales son las categorías de clase social, de raza, de
partido político, etc. En cambio suelen llamarse valores a las posiblidades de variación cuantitativa,
por lo que han de expresarse numéricamente. Es el caso de las variables cuantitativas peso,
altura, ingreso mensual, edad, número de hijos, cantidad de ingesta diaria de alcohol, etc.
Así como un concepto puede ser tratado como constante o como variable, así también una
variable puede ser tratada como cualitativa o cuantitativa, aunque ya hemos indicado que siempre
deben preferirse valores numéricos. La variable “participación social” puede asumir categorías
como “intensa”, “moderada”, “escasa” o “nula” (lo que nos da una idea cualitativa de la
participación de los sujetos en la sociedad), o puede asumir valores como “1”, “2”, “3”, etc.,
designando con estas cifras la cantidad de instituciones a las que el individuo está afiliado (lo que
nos da una idea cuantitativa de un grado de participación en el seno social).
U N
I V E R S
I D A D
D
E
A Q U
37
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
Pero a las variables no sólo hay que categorizarlas, sino también operacionalizarlas. Llamaremos
operacionalización al proceso por el cual transformamos o traducimos una variable teórica en
variables empíricas, directamente observables, con la finalidad de poder medirlas. Obviamente una
variable que ya es empírica no necesita ser operacionalizada, o, mejor, la operacionalización es
mucho más sencilla. Para explicar la operacionalización nos basaremos en el siguiente esquema,
que describe suscitamente el proceso:
Variable
D1
I1
Definición teórica
D2
I2
I3
D3
I4
I5
Definición real
Definición operacional
I6
D = Dimensiones
I = Indicadores
Indice
Desde un punto de vista más técnico, operacionalizar significa identificar cuál es la variable, cuáles
son sus dimensiones y cuáles los indicadores y el índice (o, lo que es lo mismo, definirla
teóricamente, realmente y operacionalmente), ya que todo ello nos permitirá traducir la variable
teórica en propiedades observables y medibles, descendiendo cada vez más desde lo general a lo
singular.
Habíamos dicho que una misma expresión podía referirse a conceptos diferentes: el término
inteligencia puede significar una institución (“Servicio de inteligencia”), una habilidad para resolver
situaciones nuevas (en la orientación de Claparede) o puede hacer alusión a habilidades verbales,
manuales y sociales (en la orientación de Weschler). El propósito de la definición teórica es
precisamente eliminar esta ambigüedad para estar seguros de cuál es el concepto que queremos
operacionalizar: sólo identificándolo de esta forma sabremos cuáles cuales pueden ser sus
correspondientes dimensiones e indicadores.
Cuando se trata de variables teóricas o complejas, debemos discernir en ellas varios aspectos o
facetas para describirlas adecuadamente. Este no es el caso de variables simples como “sexo”. Si
bien el sexo puede tener varios aspectos, habitualmente no necesitamos considerarlos a todos
para saber a qué sexo pertenece una persona: basta con mirar su aspectos general y, si esto no
resultare confiable, lo constatamos mediante el documento de identidad, o se lo preguntamos
directamente.
En cambio la variable inteligencia tiene muchos aspectos, y para describirla y medirla no basta
simplemente con decir que alguien tiene inteligencia porque tiene una “mirada” inteligente ya que
esto, además de subjetivo (otro observador puede estar en desacuerdo), es muy parcial (no es el
único aspecto).
Todas las facetas que nos permiten describir adecuadamente una variable compleja se llaman
dimensiones. Dimensiones de inteligencia son por ejemplo inteligencia verbal, manual y social.
Estas dimensiones nos acercan un poco más al plano empírico, a lo observable, o sea permiten
U N
I V E R S
I D A D
D
E
A Q U
38
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
concretizar más una variable que antes había sido definida sólo teóricamente. Si un profano nos
pregunta qué es la inteligencia y le damos una definición teórica, mucho no habrá entendido, pero
si le enumeramos sus dimensiones tendrá una mejor comprensión porque aludimos a
características o facetas más concretas: ser inteligente es saber usar las palabras, ser hábil con
las manos, y saberse manejar con las personas. Del mismo modo, dimensiones de la variable
clase social serán por ejemplo el prestigio ocupacional, el nivel económico, el nivel de educación
formal y modo de vida. Especificar las dimensiones de una variable es dar una definición real de la
misma.
Dar una definición teórica no es sólo importante porque nos permite inferir las dimensiones de la
variable definida (si tomamos la definición teórica de Weschler las dimensiones serán verbal,
manual y social), sino también para decidir acerca de si tiene o no dimensiones (o sea, si es
compleja o simple). En sociología, a la variable “sexo” se la considera simple, pero en medicina
puede considerársela compleja, de aquí que en este último contexto “sexo” tenga varias
dimensiones: sexo cromosómico, cromatínico, gonadal y fenotípico. Otro tanto podemos decir de la
variable “clase social”: en ciertos países y culturas las personas de distinta clase social se visten
inexorablemente en forma muy distinta, y basta este solo indicador para saber enseguida a qué
clase social pertenece una persona sin necesidad de investigar su nivel económico, el prestigio de
su ocupación, su nivel de educación, etc. En estos casos “clase social” pasa a ser una variable
simple.
Suele a veces confundirse categoría con dimensión, y una regla práctica nos ayudará a
distinguirlas. Una categoría es una especie de casillero donde podemos ubicar a un sujeto: “clase
media” es una categoría de la variable clase social porque puedo encasillar allí a un sujeto según
ciertas características que observé en él, características que surgen de las dimensiones. No tiene
sentido decir que ubicaremos un sujeto dentro de “ingresos” o dentro de “educación formal”, pues
estas son dimensiones: todo sujeto es ubicable en una determinada categoría pero contiene todas
las dimensiones, pues cualquier sujeto tiene un cierto ingreso, una cierta educación formal, etc., y
es gracias a este análisis que puedo ubicarlo en tal o cual categoría.
Si bien las dimensiones nos permiten acercarnos un poco más al plano empírico, todavía no nos
alcanzan para poder observar y medir conductas concretas. Así como cuando dábamos una
definición teórica el profano no entendía de qué hablábamos, con el mismo derecho cuando ahora
le especificamos dimensiones puede decirnos que eso de “inteligencia verbal” es aún algo
genérico y vago, con lo cual nos vemos obligados a descender aún más al nivel empírico. O sea, a
partir de las dimensiones buscaremos indicadores.
Precisamente se llaman “indicadores” porque nos indican qué cosas concretas y palpables debe
realizar un sujeto para poder decir si tiene o no inteligencia verbal, manual o social, y en qué
medida. Indicadores de la dimensión inteligencia verbal serán entonces qué amplitud de
vocabulario tiene, si puede o no completar frases, si puede encontrar absurdos en frases como
“qué lástima que el sol se ponga de noche porque ese es justo el momento donde más lo
necesitamos!” o “como llovía, Juan se sumergió en el río para no mojarse”.
Del mismo modo indicadores de la dimensión “educación formal” podrían ser si completó o no la
primaria, la secundaria o la universidad, e indicadores de la dimensión “nivel socioeconómico”
pueden ser el ingreso mensual por trabajo, si es o no propietario, cuántos coches tiene, nivel de
ingreso por rentas, si es o no socio de un country, si tiene o no tarjeta de crédito, etc.
Generalmente necesitamos varios indicadores, pues uno solo no suele ser suficiente para
caracterizar la correspondiente dimensión: si juzgáramos el nivel socioeconómico sólo a partir de si
es o no propietario podríamos equivocarnos pues una persona podría haber heredado una
propiedad hipotecada, estar desempleado o ganar apenas para su subsistencia.
Así entonces, un indicador es una propiedad manifiesta gracias a la cual podemos medir
directamente una propiedad latente que nos interesa (la variable teórica). La aptitud para armar
U N
I V E R S
I D A D
D
E
A Q U
39
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
rompecabezas es una característica manifiesta que me permite medir la inteligencia, que es una
característica latente. En última instancia los indicadores, así como las dimensiones, son también
variables sólo que más empíricas, pues también son susceptibles de variación: la aptitud para
armar rompecabezas es un indicador que puede adoptar distintos valores, como por ejemplo de 1
a 10, donde el número diez correspondería al armado perfecto en el tiempo mínimo para
determinada edad.
Una definición más precisa de indicador dice que es una propiedad observable que suponemos
ligada empíricamente (aunque no necesariamente en forma causal) a una propiedad latente que
nos interesa. Esto quiere decir que al seleccionar indicadores podemos optar en principio e
indistintamente por aquellos que solamente están altamente correlacionados con la variable, o por
aquellos otros que, además, suponemos que son efectos de la causa que es la variable teórica.
Un ejemplo de Lazarsfeld nos aclarará la cuestión. Al buscar indicadores de la variable
“antisemitismo” pueden seleccionarse dos tipos de indicadores, o una mezcla de ambos: a) “La
obediencia y el respeto a la autoridad son las virtudes más importantes que debe aprender un
niño”. Esta es una afirmación que figura en un cuestionario que mide antisemitismo y el sujeto
debe responder si está o no de acuerdo, es decir, es un indicador. Pero este indicador no expresa
directamente la variable “antisemitismo” sino “autoritarismo”, y si lo consideramos es solamente
porque sabemos que hay una alta correlación entre ambas variables. En rigor dicho indicador no
es manifestación o efecto directo de la variable que nos interesa, que son las inclinaciones
antisemitas; b) “La mayoría de la gente no se da cuenta hasta qué punto nuestras vidas están
regidas por las conspiraciones de los políticos”. Este indicador ya expresa directamente el
antisemitismo (basta pensar en el presunto fraude de los Protocolos de los Sabios de Sion), y está
en una relación de causa-efecto con el mismo: el grado de antisemitismo es la causa de que la
persona responda si está o no de acuerdo con dicha afirmación.
Lazarfeld (10) llama al primer tipo “indicador expresivo” y al segundo “indicador predictivo”, pues
sólo se puede predecir una respuesta con cierta seguridad sobre la base de un vínculo causal.
Como luego veremos, efectivamente, la simple correlación no prueba que haya causalidad, y tiene
menor potencia predictiva. En suma: el primero es un indicador de otra variable muy
correlacionada con la que nos interesa, mientras que el segundo mide directamente esta última
con la cual lo suponemos ligado causalmente.
Antes de referirnos a los índices, convendrá previamente distinguir entre otros tres conceptos que
suelen confundirse: indicador, ítem y dato. Cuando uno se propone diseñar un test de inteligencia,
busca crear varias pruebas concretas de diversa índole, o sea, deberá “bajar” al plano empírico.
Para ello, como vimos, deberá primero identificar las dimensiones y luego los indicadores de cada
dimensión. Uno de estos indicadores podrá ser por ejemplo “habilidad para el cálculo matemático”.
Consiguientemente, en el test deberá figurar una o varias pruebas para medir esta habilidad:
“hacer una suma”, “resolver una ecuación”, etc., pruebas que corresponden respectivamente a
habilidades para el cálculo aritmético y para el cálculo algebraico. Cada una de estas pruebas se
llama ítem y así, para un mismo indicador puede haber uno o varios ítems. Si en vez de un test se
trata de un simple cuestionario, los ítems serán cada una de las preguntas que el sujeto habrá de
responder. Por dar un ejemplo cualquiera, tres de estas preguntas podrán corresponder a un
indicador, o sólo dos, o sólo una, pero se supone que la totalidad de las preguntas (o de las
pruebas si es un test) habrán de cubrir todos los indicadores que hemos seleccionado y por ende,
también todas las dimensiones elegidas para la variable que queremos medir, pudiendo ocurrir a
veces que un ítem corresponda simultáneamente a dos indicadores de la misma dimensión o de
dimensiones diferentes. La pregunta sobre “si cursa o no estudios en una universidad privada”
corresponde simultáneamente a dos dimensiones: nivel económico (por lo de “privada”) y nivel
educacional (por lo de “universidad”).
U N
I V E R S
I D A D
D
E
A Q U
40
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
Mientras hemos diseñado el test sólo hemos construído los indicadores con sus respectivos ítems,
pero todavía no tenemos datos ya que aún no lo hemos administrado a ningún sujeto.
En tanto el ítem es una pregunta o una prueba, debe admitir varias alternativas de respuesta o de
ejecución. En el caso más simple de un cuestionario cerrado, el ítem “está de acuerdo con la
actual situación económica?” podría admitir como alternativas posibles “sí”, “no”, “más o menos”, y
“no sabe”. En el caso de un test, el ítem “arme un rompecabezas con las siguientes piezas” podría
tener como posibilidades de ejecución “buena”, “mala” y “regular”.
Una vez construído el test y previstas las distintas posibilidades de cada ítem, podemos ahora
administrarlo a un sujeto determinado. Una vez que éste resopondió las preguntas o hizo las
pruebas correspondientes ya estamos en posesión de los primeros datos, ya que el individuo
quedó ubicado en alguna de las alternativas posibles. Ejemplos de datos son “Juancito contestó
que sí a la pregunta número 15”, o “Pedrito cumplió sólo regularmente la prueba del
rompecabezas”, o “Fulanito se sacó 6 en la prueba de encontrar absurdos”.
Supongamos, más concretamente, que administramos nuestro test de inteligencia a una persona.
Cuando ésta hubo resuelto todas las pruebas o ítems, procedemos ahora a evaluarla
especificando para cada prueba en qué alternativa la ubicamos. Por ejemplo en la primera prueba
sacó 7 puntos, en la segunda 5, en la siguiente 6 y en las otras 7, 4, 5, 10, 8 y 2.
A los dos días nos visita esta persona con toda su familia y, ansiosa por saber si es un genio o tan
sólo muy inteligente, nos pregunta por el resultado del test. Nosotros entonces le decimos que su
inteligencia es 7, 5, 6, 7, 4, 5, 10, 8 y 2, o sea los distintos puntajes que obtuvo. Con esta
respuesta el sujeto quedará desorientado como Adán en el día de la madre, pero, y lo que es más
grave, también nosotros, porque nos resultará difícil apreciar rápidamente su grado de inteligencia
mediante una montaña de cifras diferentes.
Nos vemos entonces obligados a resumir esta información para hacerla más fácilmente
comprensible y para que, llegado el momento de hacer algún promedio aritmético sobre la
inteligencia de una muestra de sujetos, podamos disponer de una sola cifra para cada individuo.
Es aquí donde aparece la necesidad del índice. El índice será la cifra que razonablemente
represente a los 20 o 30 datos obtenidos, como por ejemplo un simple promedio de los mismos.
Tal índice suele definírselo como un indicador complejo, ya que reúne la información de todos los
indicadores y sus respectivos ítems.
Hay muchas formas de construír índices. Además del simple promedio aritmético está también el
promedio ponderado, donde asignamos mayor peso a ciertas pruebas a los efectos del conteo
final. Otras veces extraemos previamente sub-índices, uno para cada dimensión, para luego
resumirlos en el índice final, tal como puede verse en el test WISC de inteligencia.
La utilidad del índice no consiste sólo en resumir mucha información en una sola cifra,, sino
muchas veces también compensar estadísticamente la inestabilidad de las respuestas. Dicho en
castellano: factores como la falta de atención o el desinterés pueden malograr algunas respuestas
del test, pero no por ello juzgaremos al sujeto falto de inteligencia: en el índice pueden quedar
compensados esos pobres resultados con otras pruebas donde se puso mayor interés y
concentración, y donde se obtuvieron resultados óptimos.
Volviendo a nuestro ejemplo, si el promedio de todas las pruebas nos dio por caso 7, ahora sí el
sujeto y nosotros podremos darnos una idea de su inteligencia (siempre que conozcamos la media
poblacional). La ventaja de decir 7 en vez de un montón de cifras es entonces práctica, ya que
teóricamente ambas cosas expresan casi lo mismo: con un índice comprendemos mejor la
ubicación del sujeto respecto de la variable inteligencia.
Lo ideal es poder calificar las pruebas numéricamente porque el número se presta mejor al cálculo
a los efectos de obtener índices y, en general, al tratamiento estadístico. A veces no es posible
hacer esta cuantificación y en vez de decir “7” decimos “inteligencia regular”, lo cual es también un
índice en la medida que sintetiza o resume todos los resultados obtenidos en las pruebas. Un
U N
I V E R S
I D A D
D
E
A Q U
41
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
ejemplo típico de índice numérico de la variable inteligencia es la “edad mental” la cual, en
combinación con el indicador de la variable simple “edad cronológica” nos da un índice compuesto
llamado “cociente intelectual” que también constituye un dato, aunque derivado de los datos
originales que eran los puntajes de cada prueba. Como podemos apreciar, unos datos surgen a
partir de otros: las respuestas a los ítems nos dan datos derivados (los índices) y luego, sacando a
su vez promedios de estos índices obtenemos nuevos datos sobre muestras y poblaciones. Un
índice por ejemplo puede ser 110, y el promedio de una muestra puede ser 115, lo que indica que
el sujeto que se sacó 110 está por debajo de la media de la muestra. Si en cambio la media de la
poblaciójn se considera como 100, entonces estará por encima del promedio poblacional.
Podemos entonces ir sintetizando una definición de dato, diciendo que es el valor que adquiere
una variable en un determinado ítem, en un determinado sujeto perteneciente a cierta muestra y
población.
Los primeros datos que obtenemos entonces son los resultados de las distintas pruebas
individuales del test (o las respuestas a las distintas preguntas de un cuestionario). Estos datos se
resumen en un dato final para cierto sujeto, dado por el índice (“Fulano tiene un CI de 130”).
Podemos ir sintetizando los pasos dados hasta ahora de la siguiente manera:
1. Definir teóricamente la variable.
2. Especificar sus dimensiones (y sub-dimensiones, si las hubiere).Es lo que se llama dar una
definición real de la variable.
3. Especificar los indicadores de las dimensiones (definición operacional).
4. Seleccionar los ítems para cada indicador.
5. Especificar las alternativas posibles de respuesta en cada ítem asignándole a cada una de
ellas una cifra convencional (por ejemplo de 1 a 10). Este proceso, junto con el siguiente,
podemos llamarlo selección de un sistema de puntuación.
6. Especificar un procedimiento para obtener un índice.
7. Obtener o recolectar los datos administrando el test (o el cuestionario) a un sujeto.
8. Resumir los distintos datos en un índice, con lo cual cada sujeto tendrá su propio índice.
Estrictamente hablando, el proceso de operacionalización comprende todos estos pasos menos
los dos últimos, pues operacionalizar es preparar un esquema de dimensiones, indicadores e
índices para luego ser aplicado empíricamente a un sujeto determinado. La historia de un test tiene
tres etapas: primero lo inventamos, luego lo administramos y después lo evaluamos. Los seis
primeros pasos están en la primera etapa, el séptimo coincide con la segunda y el último forma
parte de la tercera etapa.
Esta compleja secuencia de pasos no se realiza –o se simplifica notablemente- cuando la variable
es simple por cuanto no hay que buscar ni dimensiones ni una pluralidad de indicadores. La
variable “edad” tiene un solo indicador, que puede ser la información que da el documento de
identidad, o también la simple pregunta “qué edad tiene?”. A nadie se le ocurriría hacerle un test
con varias pruebas a una persona para medir su edad cronológica. Lo ideal sería que todas las
variables fuesen así de sencillas, pero tal cosa no ocurre. Llevados por un ataque de simplicidad,
podríamos construir el test más simple de inteligencia el que, en vez de incluir varias pruebas
distintas constaría de una sola pregunta: “Es usted inteligente?” (lo cual mide más la inteligencia
del que lo inventó que de quien lo contesta). Si el sujeto responde “sí” entonces concluiríamos que
el inteligente, y si dice “no” concluimos que no lo es, pero lamentablemente este test, aunque
puede ser confiable, no es válido. Cabe pensar que es confiable porque un sujeto muy
probablemente contestará siempre la misma respuesta al hacércele varias veces la misma
pregunta, pero no es válido porque no está midiendo inteligencia sino por ejemplo autoestima,
necesidad de agradar, o, si es un test laboral, grado de interés por obtener un empleo.
Confiabilidad y validez son requisitos básicos de un test, y sobre ellos volveremos más adelante.
U N
I V E R S
I D A D
D
E
A Q U
42
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
Por lo demás, este hipotético test de inteligencia tampoco resulta cuantitativamente preciso, pues
la simple respuesta “sí” o “no” no nos informa sobre cuánto más inteligente es el sujeto con
respecto a otro que contestó lo mismo o con respecto a un promedio estadístico.
A través del siguiente esquema resumimos la notable diferencia que hay entre la
operacionalización de una variable simple, como “peso”, y de una variable compleja, como “clase
social”.
VARIABLE
Dimensione
s
Indicadores
PESO
Registro
balanza
CLASE SOCIAL
Nivel económico
Nivel educacional
Ingreso
mensual
Nivel
alcanzado
Es o no Tiene
dueño
vehículo
Es
o
no
autodidacta
Una vez que conocemos el índice de un determinado individuo, damos ahora el siguiente paso que
es la categorización de ese dato, y que viene a continuación del paso h) anterior.
No debemos confundir la categorización de la variable con la categorización del dato. Categorizar
la variable fue lo que hicimos al principio de todo cuando establecimos sus categorías o valores
como posibilidades de variación. Por ejemplo para la inteligencia pueden establecerse cuatro
categorías (menos de 90, 91 a 110, 111 a 130, y 131 o más). Conocidas las categorías de la
variable, podemos ahora categorizar el dato obtenido, que no es otra cosa que ubicar a éste en
alguna de las categorías establecidas. Como Fulano obtuvo 130, lo ubicaremos en el casillero 111
a 130, y lo mismo haremos con el resto de los sujetos de la muestra.
d) Organización de los datos
Una vez recolectados los datos, ahora deberemos cumplir las tres últimas etapas: la organización,
el análisis y la interpretación de los mismos.
Supongamos que la muestra de la que veníamos hablando en el párrafo anterior esté conformada
por 85 personas. Lo que ahora necesitamos hacer es empezar a resumir toda esta información de
forma tal que en vez de tener 85 tests tomados sobre nuestro escritorio tengamos solamente una
hoja donde volcamos todos los datos obtenidos, colocando una marca en cada categoría, como
vemos en la siguiente “matriz de datos”:
Categoría de CI
80
85
90
95
100
105
110
115
120
125
130
135
140
145
150
155
U N
I V E R S
I D A D
Cantidad de individuos
















D
E
A Q U
43
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
Así por ejemplo, la matriz me informa que dentro de la muestra encontramos tres personas que
obtuvieron un puntaje de 115, y así sucesivamente. Así como al principio habíamos resumido
todos los resultados de cada prueba o sujeto en un índice, ahora estamos resumiendo todos los
índices en una matriz de datos, y nuestro siguiente paso será a su vez sintetizar los datos de la
matriz en una tabla o cuadro, proceso llamado tabulación.
Lo que una tabla muestra son esencialmente frecuencias, o sea, cantidad de sujetos por cada
categoría o valor. La tabla siguiente condensa la información de la matriz de datos precedente, y
en dicha tabla la cifra 25 es una frecuencia, o sea una indicación que en la muestra hay 25 sujetos
que tienen 90 o menos de cociente intelectual. No debe pensarse, por ejemplo, que 25 significa
cociente intelectual. Esta tabla nos revela también que la frecuencia total o sumatoria de
frecuencias es 85, y ha de coincidir siempre con la cantidad de sujetos investigados, es decir, con
lo que habitualmente se llama “tamaño de la muestra”.
CI
menos de 90
91-110
111-130
más de 131
Total
f (frecuencia)
25
20
18
22
85
La información que nos suministra esta tabla podemos también representarla de otras maneras, de
acuerdo a qué nos interesa más saber. El siguiente esquema nos revela que podemos representar
los datos como frecuencias acumuladas (fac), como frecuencias porcentuales (f%), o como
frecuencias acumuladas porcentuales (fac%):
CI
menos de 90
91-110
111-130
más de 131
Total
f
25
20
18
22
85
fac
25
45
63
85
---
f%
29%
24%
21%
26%
100%
fac%
29%
53%
74%
100%
---
En la segunda columna fuimos acumulando (sumando) las frecuencias anteriores, y así la
frecuencia 63 corresponde matemáticamente a la suma de las anteriores frecuencias (25+20+18).
Pero el número 63, como toda frecuencia, además de tener un significado matemático tiene
también un significado empírico, importante a la hora de tener que analizar la tabla.
Empíricamente, el número 63 me dice que hay 63 sujetos que tienen 130 o menos de CI. Por otro
lado observemos que si los cálculos están bien hechos, la última frecuencia acumulada deberá
coincidir con el tamaño de la muestra (85).
Para obtener frecuencias porcentuales (f%) consideramos primeramente el total de casos (85)
como si fuera el 100%. A partir de aquí y por un simple algoritmo de regla de tres simple,
obtenemos por porcentajes parciales:
Si 85 ------------------------------ 100%
25 x 100
25 --------------------------------- x = ------------ = 29,41% = 29%
85
U N
I V E R S
I D A D
D
E
A Q U
44
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
Luego, si así lo deseamos, podemos obtener las frecuencias porcentuales acumuladas siguiendo
el mismo criterio que aplicamos al obtener las frecuencias acumuladas. Todas estas nuevas cifras
tienen también su significado empírico. Por ejemplo la cifra 24% significa que un 24% de la
muestra tiene CI entre 91 y 110, y la cifra 74% que ese porcentaje de la muestra tiene un CI por
debajo de 131.
Las tablas hasta aquí presentadas, como podemos darnos cuenta, resumen la información con
respecto a una sola variable (inteligencia). Dijimos sin embargo que lo que realmente suele
interesar al investigador no es la variable aislada sino su vínculo con otras variables, por lo que
nuestro interés recaerá ahora sobre tablas que puedan relacionar variables entre sí. Podemos,
entonces, discriminar tres tipos de tablas:
a. Univariadas o de simple entrada (informan sobre una sola variable).
b. Bivariadas o de doble entrada (relacionan dos variables).
c. Multivariadas o de múltiple entrada (relacionan tres o más variables).
A estas últimas nos referiremos en un próximo capítulo. Mientras tanto, nos centraremos en la
situación más habitual representada por la tabla o cuadro bivariado, donde una de las variables
será la independiente y la otra la dependiente. Comparemos una tabla univariada con otra
bivariada:
CI
f
CI
Alta
Media
Baja
Total
-90
140
-90
30
40
70
140
90-110
160
90-110
55
55
50
160
+110
150
+110
80
50
20
150
Total
450
Total
165
145
140
450
Tabla
univariada
Tabla
bivariada
La primera describe la situación de una sola variable, e informa que por ejemplo hay 140 sujetos
con CI inferior a 90, o que el total de la muestra era de 450 individuos. El cuadro bivariado
suministra más información pues entrecruza dos variables (inteligencia y clase social). En suma,
los elementos básicos de una tabla bivariada son los siguientes:
a. Las dos variables a relacionar.
b. Título, que en este caso puede ser “Inteligencia según clase social en adolescentes de la
Ciudad de Buenos Aires, año 1980”. Como se ve, están aquí especificadas las coordenadas
espacio-temporales (dónde y cuándo) pero también se especifica cuál es la variable
independiente y la dependiente (la expresión “según” nos lo sugiere).
c. Las categorías (o valores) de ambas variables. Por ejemplo de clase social hemos
consignado “alta”, “media” y “baja”. Un cuadro muestra siempre categorías, pudiendo o no
mostrar también dimensiones.
d. Las frecuencias, de las que diremos dos palabras.
Hay varios tipos de frecuencias. Por ejemplo la cifra 30, que significa que hay 30 sujetos de clase
alta con CI inferior a 90; o la cifra 145, indicadora que hay 145 adolescentes de clase media; o la
cifra 450, que indica el número total de casos de la muestra. Estos tres ejemplos corresponden,
U N
I V E R S
I D A D
D
E
A Q U
45
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
respectivamente, a las llamadas frecuencias condicionales, marginales y totales. La frecuencia
condicional corresponde al entrecruzamiento de dos categorías distintas, y la frecuencia marginal
sólo a una. Así, 20 es frecuencia condicional y 150 frecuencia marginal.
Podemos ver también que las frecuencias marginales resultan de la suma de las frecuencias
condicionales correspondientes, y pueden ser horizontales (como 140, resultado de sumar 30, 40 y
70) o verticales (como 145, que resulta de sumar 40, 55 y 50). La suma de las frecuencias
marginales horizontales debe ser igual a la suma de las frecuencias marginales verticales, y esa
cifra debe equivaler a la frecuencia total (tamaño de la muestra).
Un cuadro bivariado puede también incluír la misma información pero bajo la forma de frecuencias
acumuladas (horizontales o verticales), frecuencias porcentuales (horizontales o verticales) y
frecuencias porcentuales acumuladas (también horizontales o verticales). El esquema siguiente
ejemplifica estas alternativas:
Ejemplos de frecuencias
Alta
Media
Baja
Total
-90
30
40
70
140
90-110
55
55
50
160
+110
80
50
20
150
Total
165
145
140
450
Alta
Media
Baja
Total
1. frecuencias absolutas
Alta
Media
-90
30
70
140
-
-90
30
40
70
140
90-110
55
110
160
-
90-110
85
95
120
300
+110
80
130
150
-
+110
165
145
140
450
Baja
Total
Total
165
310
450
2. Frecuencias acumuladas horizontales
Alta
Media Baja
Total
Total
3. Frecuencias acumuladas verticales
Alta
Media Baja
Total
-90
21%
29%
50%
-90
18%
28%
50%
-
90-110
34% 34%
53%
33%
-
32%
90-110
33%
38%
36%
-
+110
49%
34%
14%
-
Total
100%
100%
100%
-
+110
Total
100
%
100
%
14%
100
%
4. Frecuencias porcentuales horizontales
U N
I V E R S
-
I D A D
D
E
5. Frecuencias porcentuales verticales
A Q U
46
I N
O
B O L
I V
I A
-
FACULTAD DE CIENCIAS DE LA
Alta
Media
Baja
Total
-90
21%
50%
100%
-
90-110
34%
68%
100%
+110
53%
86%
100%
SALUD
Alta
Media
Baja
Total
-90
18%
28%
50%
-
-
90-110
51%
66%
86%
-
-
+110
100%
100%
100%
-
Total
Total
6. Frecuencias porcentuales acumuladas 7.
Frecuencias
horizontales
verticales
porcentuales
acumuladas
Como podemos ver, la misma información del cuadro original 1 puede expresarse, según nuestras
necesidades, de seis maneras diferentes. Veamos algunos ejemplos de cómo han de leerse las
distintas posibilidades:
a) La cifra 110 del cuadro 2 indica que hay 110 individuos de clase media con 110 o menos de CI.
En cambio la cifra 95 del cuadro 3 indica que hay 95 sujetos con CI entre 90 y 110 y que además
pertenecen a las clases media y alta. En el primer caso la acumulación se hizo horizontalmente y
en el segundo verticalmente.
b) La cifra 53% del cuadro 4 indica que sobre el total de sujetos con CI superior a 110, el 53% son
de clase alta. En cambio la cifra 49% del cuadro 5 indica que sobre el total de sujetos de clase alta,
un 49% posee un CI superior a 110. También en ambas tablas los porcentajes se calcularon
hirozontal y verticalmente, en forma respectiva. Una importante utilidad que tienen los porcentajes
es que permiten igualar las frecuencia con respecto a una base común (el 100%):
Edad
Primaria
Secundaria
Total
Edad
Primaria
Secundaria
Total
30 años
12
142
154
30 años
20%
89%
-
40 años
18
18
36
40 años
30%
11%
-
50 años
30
-
30
50 años
50%
-
-
Total
60
160
220
Total
100%
100%
-
Tabla I – Frecuencias absolutas
Tabla II – Frecuencias porcentuales
En la Tabla I encontramos dos frecuencias absolutas iguales (18 y 18), pero ellas no tienen el
mismo significado estadístico, pues un 18 se tomó sobre un total de 60 personas (escolaridad
primaria) y el otro sobre un total de 160 (escolaridad secundaria). Si igualamos 60 y 160 en una
base común (100%) como en la Tabla II, vemos que en realidad uno de los 18 representa el 30%
del total y el otro tan sólo el 11% del otro total. Esto nos permite evaluar a simple vista qué
proporción de sujetos de 40 años hay en cada nivel de escolaridad: si bien la cantidad absoluta de
sujetos es la misma (18), hay mayor proporción de sujetos primarios que secundarios.
c) La cifra 50% del cuadro 6 indica que el 50% de los sujetos con CI inferior a 90 pertenecen a las
clases alta y media. La cifra 28% en cambio, en el cuadro 7, expresa que el 28% de los sujetos de
clase media tiene CI inferior a 90. Las acumulaciones de los porcentajes se realizaron en forma
horizontal y vertical, respectivamente. Obsérvese que la información del cuadro 6 no es la misma
que la del cuadro 7, pero es igualmente verdadera. La elección de una u otra información
dependerá de qué información nos interese más o, incluso, hay quienes utilizan esta posibilidad de
elegir con el propósito de convencer o persuadir. Por ejemplo, si quiero persuadir a alguien que el
U N
I V E R S
I D A D
D
E
A Q U
47
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
cigarrillo es pernicioso para la salud, preferiré decirle que el 90% de los cáncer de pulmón son
ocasionados por el cigarrillo a decirle que sólo el 10% de los fumadores mueren de cáncer de
pulmón, siendo que ambas afirmaciones son igualmente verdaderas.
Sin embargo, la tabulación no es la única forma de resumir y organizar la información. Existen
también otros dos recursos estadísticos, que son la graficación y las medidas estadísticas
descriptivas (tanto de posición como de dispersión). Ambas modalidades se construyen
habitualmente sobre la base de una tabla de distribución de frecuencias como las ya vistas. A
través del ejemplo siguiente veremos cómo la información que contiene una tabla puede también
presentarse bajo la forma de gráficos o medidas estadísticas:
Tabla
Edad
17
18
19
20
Total
f
70
110
140
160
480
Gráfico
f
160
150
140
130
120
110
100
090
080
070
17
18
19
20
Edad
edidas estadísticas
_
X = 18,8 años (Media aritmética)
 = 0,9 años (Desvío Standard)
_
X   = 18,8  0,9
En estos ejemplos se tomó una muestra de 480 jóvenes que cursaban primer año de la
universidad, y por algún motivo al investigador le interesó tener información sobre sus edades. La
tabla nos muestra que 70 de ellos tienen 17 años, 110 tienen 18 años, etc. El gráfico nos da la
misma información, con la diferencia que es más fácil visualizarla de un golpe de vista,
U N
I V E R S
I D A D
D
E
A Q U
48
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
especialmente para quien no está habituado a la estadística: la forma ascendente de la curva ya
nos dice que hay más jóvenes de mayor edad o, si se quiere, a edades más altas corresponden
mayores frecuencias. Este tipo de gráfico se llama polígono de frecuencias, pero hay otras
modalidades de gráficos.
Las medidas estadísticas, por su parte, permiten condensar todas las cifras de la tabla en dos, que
típicamente suelen ser la media aritmética y el desvío standard. Esta simplificación hace que una
parte de la información se pierda, pues las medidas obtenidas no me dicen por caso cuántos
jóvenes de 19 años hay. Esta desventaja (si así puede llamársela, pues hay información que no
tiene mayor utilidad) queda ampliamente compensada con el hecho de que conociendo las
medidas estadísticas, entre otras cosas puedo efectuar análisis de correlación y regresión (ver
más adelante) y pruebas de significación, es decir, seguir adelante con la investigación estadística
y consiguientemente con la investigación en general.
En el ejemplo considerado, la media aritmética me dice simplemente que 18,8 años es el promedio
de edades de alumnos de primer año de la universidad. Respecto del desvío standard, habíamos
ya señalado que se trata de un promedio de las distancias o desvíos de todos los valores respecto
de la media (18,8 años) e indica entonces cuán lejos o cerca de ella están todos los sujetos. La
cifra 0,9 obtenida es muy pequeña en comparación con la media 18,8 años, lo que significa que las
edades de los alumnos no son muy dispares entre sí, o sea, sus edades no difieren demasiado.
La media aritmética y el desvío standard son medidas estadísticas utilizables cuando las variables
son cuantitativas. Existen otras medidas, como el modo o la mediana, que sirven especialmente
para variables cualitativas. Por ejemplo, el modo es la categoría que más se repite, mientras que la
mediana es la categoría ubicada en el centro de la serie de las categorías obtenidas, ordenadas en
forma creciente o decreciente.
e) Análisis e interpretación de los datos
Obtener tablas, gráficos o medidas estadísticas como las indicadas no son más que pasos
preparatorios para llegar a la operación central de la investigación descriptiva: el análisis de los
datos.
Desde el punto de vista de la evolución de los datos en la investigación, el análisis de los datos es
la etapa posterior a la organización de datos, pero la etapa previa a la interpretación de los
mismos. En ésta última la información ya analizada es integrada en un contexto más amplio: con
otras teorías, con otras investigaciones, etc Por ejemplo interpretar puede significar explicar la
correlación constatada en el paso del análisis a la luz de una teoría. Una alta correlación entre
inteligencia y clase social será interpretada de manera muy distinta por una teoría ambientalista y
por una innatista: la primera insistirá en que la inteligencia en clases altas obedece a que los niños
están mas estimulados (hacen más viajes, tienen más juguetes, etc), mientras que la segunda
planteará la existencia de mejores genes en las personas de clase alta.
Las cuatro etapas en el procesamiento de los datos (recolección, organización, análisis e
interpretación), y que en mayor o menor medida aparecen en investigaciones exploratorias,
descriptivas y explicativas, se encuentran explicadas más en detalle en (11).
Los datos pueden analizarse tanto a partir de una tabla, como de un gráfico o de las medidas
estadísticas, pero aquí daremos una idea del modo de hacerlo según una tabla. Desde este punto
de vista, el análisis de los datos es el momento donde debemos hacer “hablar” a la tabla para
saber qué nuevo tipo de información nos dará. Esta nueva información consiste principalmente en
determinar si las variables están o no correlacionadas, qué tipo de correlación muestran (positiva o
negativa), y hasta qué punto mantienen una correlación. Para los dos primeros puntos suele bastar
con un simple examen visual del cuadro, y más concretamente de las frecuencias condicionales.
U N
I V E R S
I D A D
D
E
A Q U
49
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
Siguiendo con un ejemplo anterior donde relacionábamos inteligencia con clase social, las cifras
de la tabla nos están diciendo que comparativamente existen muchas personas de clase baja con
CI bajo (70 personas) y muchas de clase alta con CI alto (80 personas). Decir que 70 y 80 son
frecuencias “comparativamente” altas significa que lo son en comparación con las otras
frecuencias condicionales (y no por ejemplo en comparación con la frecuencia total, en cuyo caso
aparecerían como frecuencias bajas).
El cuadro también nos está diciendo que hay pocas personas de clase baja con CI alto (hay 30), y
pocas personas de clase alta con CI bajo (hay 20), donde 20 y 30 son frecuencias también
“comparativamente” bajas. Todos estos exámenes nos están revelando a simple vista que existe
una alta correlación entre ambas variables, pues vemos que a mayor nivel social le corresponde
mayor inteligencia, y a menor nivel, menor inteligencia. El cuadro siguiente representaría un
ejemplo completamente opuesto, donde no hay ningún tipo de correlación:
-90
90-110
+110
Total
Alta
50
50
50
150
Media
50
50
50
150
Baja
50
50
50
150
Total
150
150
150
450
Una vez que nos hemos asegurado que no hay correlación constatable, abandonamos este último
cuadro y continuamos la investigación examinando nuevas relaciones entre más variables hasta
encontrar correlaciones. Si no las encontramos no podremos seguir avanzando hacia la etapa de
la investigación explicativa.
Todo el proceso de la investigación descriptiva apunta a un propósito fundamental: buscar alguna
correlación entre las variables relevantes (con o sin hipótesis previas que orienten nuestra
selección de variables a correlacionar). Sin embargo, este análisis de correlación tampoco es un
fin en sí mismo, sino sólo un medio para continuar nuestra investigación por alguno de dos
caminos alternativos: el análisis de regresión o la inferencia de relaciones causales.
a) Una vez que hemos constatado mediante un análisis de correlación el grado de asociación
existente entre dos variables, podremos ahora hacer un análisis de regresión, o sea, podremos
predecir, dado un nuevo valor de la variable, qué valor de la otra variable le corresponderá. Por
ejemplo: si los datos ya conocidos me revelan que a mayor edad la memoria disminuye (análisis
de correlación), puedo entonces predecir que un nuevo sujeto al que no conocía y que es muy
anciano, tendrá mala memoria (análisis de regresión). Este tipo de análisis sirve entonces para,
conociendo una variable, predecir el comportamiento de la otra.
b) Una vez que hemos establecido que entre dos variables hay una correlación significativa,
podemos ahora decidirnos a sospechar que entre ellas hay algo más que un simple correlación:
una relación de causa-efecto. En otras palabras, pasamos de una hipótesis por correlación a una
hipótesis causal. Por ejemplo, la alta correlación observada entre clase social e inteligencia nos
sugiere la idea de que la clase social determina o causa el nivel de inteligencia de los sujetos.
Pero cuidado: la correlación no prueba ni garantiza por sí sola que haya una relación causal, y sólo
nos permite sospecharla. Si bien el análisis de correlación presupone bastante conocimiento
anterior (que ya había comenzado a incorporarse en la investigación exploratoria), no prueba
necesariamente la idea de que una variable es la causa y otra el efecto. Probar esta hipótesis
causal será la gran tarea de la investigación explicativa, cuestión que examinaremos en un
próximo capítulo.
Establezcamos, finalmente, una relación entre el análisis de regresión y la inferencia de relaciones
causales. Emprender la tarea de sospechar y luego probar un vínculo causal no es, dijimos, el
único camino posible aunque sí el deseable según y conforme la clásica idea de ciencia como
conocimiento por las causas. Pero si ampliamos esta idea de ciencia como posibilidad de predecir,
se torna posible hacer un análisis de regresión sin presuponer que haya ningún vínculo causal.
U N
I V E R S
I D A D
D
E
A Q U
50
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
Aunque las predicciones simplemente regresivas no son tan firmes como las derivadas de un
vínculo causal efectivamente probado, muchos las prefieren por su sencillez y practicidad y porque
tienen una concepción instrumentalista de la ciencia según la cual las teorías científicas no
explican sino que sirven para predecir. De lo dicho no debe inferirse que no podamos hacer
predicciones en base a explicaciones causales: de hecho, el análisis de regresión puede también
hacerse sobre la base de una conexión causal efectivamente verificada, en cuyo caso la predicción
será más confiable.
Antes de pasar a la investigación explicativa, haremos una somera referencia al problema de la
medición, fundamental en la actividad científica, no sin antes ir resumiendo los pasos de la
investigación descriptiva:
a. Formulación de una hipótesis. Cuando no tenemos una hipótesis previa describimos una
muestra empezando desde el el paso siguiente.
b. Identificación de las constantes y variables en juego.
c. Categorización de las variables.
d. Operacionalización de las variables.
e. Obtención de los datos hasta obtener índices.
f. Categorización de los datos obtenidos. Construcción de una matriz de datos.
g. Organización de los datos en tablas, gráficos o medidas estadísticas.
h. Análisis de los datos. Si se constata que hay correlación emprendemos directamente un
análisis de regresión, o bien dejamos planteada nuestra sospecha en la existencia de una
conexión causal. Como dijo alguien, investigar es ver lo que todos ven y pensar lo que nadie
piensa.
U N
I V E R S
I D A D
D
E
A Q U
51
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
PROGRAMA DE CONTROL DE LA CALIDAD
WORK PAPER # 7
UNIDAD O TEMA: 6. EL PAPEL DE LA MEDICION
TITULO: Medición
FECHA DE ENTREGA:
a) Medición
Por más simple que sea la investigación o por más primitiva que la medición sea, no es posible investigar sin
hacer mediciones. En sentido amplio, la medición es un procedimiento por el cual asignamos una
determinada categoría o valor a una variable, y para un determinado sujeto, muestra o población. Cuando a
Juancito (sujeto) le asignamos el valor 1,70 metros para la variable “estatura”, hemos hecho una medición.
También hacemos una medición cuando a Pedrito le asignamos la categoría “soltero” para la variable
“estado civil”, lo cual muestra que estamos tomando la idea de medición en sentido amplio, ya que no sólo
abarca mediciones cuantitativas (1,70 metros) sino también cualitativas (soltero). Esta ampliación del
concepto se hace especialmente importante en las ciencias sociales porque en este ámbito se manejan
mayor cantidad de variables cualitativas que en ciencias como la física o la química, donde prevalecen las
variables cuantitativas y de donde hemos sacado la creencia de que sólo se puede medir con reglas,
balanzas y decibelímetros.
Toda medición debe incluir una especificación de tiempo y lugar donde la medición tuvo efecto. Por ejemplo,
en tal fecha y lugar, en Pedrito la variable estado civil asume el valor “soltero”.
Las mediciones individuales recaen sobre sujetos, mientras que las mediciones estadísticas recaen sobre
muestras o poblaciones. Así por ejemplo decimos que medimos una muestra A cuando le asignamos la
media aritmética 120 respecto de la variable inteligencia. Obviamente, las medidas estadísticas se derivan
de las individuales pues no se puede obtener un promedio si desconocemos los valores individuales de los
sujetos de la muestra.
Para llevar a cabo una medición, necesitamos obligatoriamente tres cosas: a) un instrumento de medición, b)
un sistema de medición (o escala), ya que hay diferentes grados de precisión en la medición, y c) un
procedimiento para hacer la medición.
b) Instrumentos de medición
Un instrumento de medida es un artificio usado para medir. Una balanza es un instrumento para medir peso,
un test mide personalidad, inteligencia, aptitud vocacional, etc., un cuestionario mide conocimientos, etc.,
pero sea cual fuere el instrumento utilizado, para que sea eficaz debe reunir dos requisitos: confiabilidad y
validez. Si la misma balanza hoy me informa que peso 70 kg, mañana 80 kg y pasado 63 kg, es un
instrumento poco confiable. Un test puede también ser poco confiable si, respecto del mismo sujeto, arroja
resultados dispares en diferentes momentos de administración. Confiabilidad significa, entonces, estabilidad
o constancia de los resultados.
Esta constancia no es nunca perfecta. El hecho de que puedan existir ligeras variaciones debidas al azar no
compromete la confiabilidad del instrumento de medida, siempre que esas variaciones sean poco
significativas. También debemos tener en cuenta los cambios propios del sujeto cuya propiedad medimos. Si
el sujeto aumenta de peso o mejora su rendimiento intelectual por un efecto madurativo habrá una
variabilidad en los resultados, lo cual no implica necesariamente que el instrumento no sea confiable. En la
confiabilidad, como aquí la entendemos, la constancia o la variabilidad en los resultados depende de la
labilidad del instrumento mismo, no del sujeto. Por ejemplo si el instrumento tiene una consigna de
aplicación ambigua, podrá ser aplicado de manera distinta antes y después, y los resultados podrán ser
diferentes.
U N
I V E R S
I D A D
D
E
A Q U
52
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
Un test o cualquier otro instrumento puede ser confiable pero no válido: es válido cuando mide lo que
efectivamente pretende medir, lo cual puede parecer una perogrullada pero que no es tal si nos damos
cuenta de los casos de instrumentos que querían medir una propiedad y medían otra. Si con un determinado
test pretendemos medir memoria pero sólo medimos ansiedad, no es válido. La validez de un test puede
establecerse prospectivamente: nos percatamos que un test de aptitud para la ingeniería es válido cuando,
andando el tiempo, constatamos que quienes obtuvieron altos puntajes hoy son buenos ingenieros, y
quienes sacaron bajos puntajes no lo son.
c) Escalas de medición
Examinemos ahora las escalas de medición, o sea, los diferentes procedimientos que podemos usar para
medir según se trate de variables cualitativas o cuantitativas. Stevens distingue cuatro escalas o niveles de
medición:
1. Escala nominal
2. Escala ordinal
3. Escala de intervalos iguales
4. Escala de cocientes o razones
Para variables cualitativas
Para variables cuantitativas
El orden en que están expuestas las escalas es importante. Estos cuatro niveles son cada vez más precisos
y exactos, con lo cual aumenta la información que recibimos al hacer la medición. Somos más precisos y
decimos más si afirmamos que Juan tiene 52 años (escalas cuantitativas) que si decimos solamente que es
adulto (escalas cualitativas). De idéntica forma, la medición es más precisa si decimos que un objeto cae a
9,8 m/sg2 (escala de cocientes o razones), que si solamente decimos que ese objeto cae más velozmente
que otro (escala ordinal).
Cierto día un emperador, que debía invadir una fortaleza, reunión a cuatro de sus espías para que
ingresaran en ella y obtuviesen información. Luego de varios días se presentan los cuatro espías con sus
respectivos informes. El espía número 1 informa que adentro de la fortaleza hay un jefe. El espía número 2
informa que adentro de la fortaleza hay un jefe que es más alto que el hijo. El espía número 3 informa que
adentro de la fortaleza hay un jefe que es dos veces más alto que el hijo. El espía número 4 informa que
adentro de la fortaleza hay un jefe que mide 1,90 metros. Los cuatro espías utilizaron respectivamente los
cuatro niveles de medición: el primero informó realmente muy poco, en comparación con el último, que
proporcionó la información más precisa. De idéntica manera, no es lo mismo decir que ‘es de noche’, ‘es una
hora avanzada de la noche’ y ‘son las once de la noche’, siendo ésta última información más precisa que la
primera.
Esta precisión creciente es debida a que las propiedades de cada nivel son acumulativas: el nivel 4 tiene las
características de los tres anteriores, más alguna nueva. El nivel 3 tiene las características de los dos
anteriores, más otras nuevas que harán que ese nivel sea más exacto y por tanto, más informativo acerca de
la propiedad o variable a medir. En un sentido genérico, una escala es el conjunto de categorías (o valores)
de una variable, conjunto que, como quedó dicho, debe ser exhaustivo y mutuamente excluyente. Estas
categorías o valores podemos representarlas gráficamente mediante los puntos de una línea recta para una
mejor visualización.
Una escala nominal es simplemente un conjunto de dos o más categorías de una variable, sin que interese
el orden o la jerarquía entre ellas. La escala nominal de la variable “religión” son sus distintas categorías:
judío, católico, etc. El requisito fundamental que deben reunir es que sean distintas entre si de manera que
no puede haber dos categorías con el mismo nombre, ni dos categorías que se superpongan (como
“cristianos” y “católicos”). Obviamente, además las categorías deben ser homogéneas: todas deben referirse
a religiones y no a partidos políticos, oficios o lugares de nacimiento.
Ejemplos:
U N
I V E R S
I D A D
D
E
A Q U
53
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
FIGURA 1
Escala
nominal
Judío
Catól
Escala
ordinal
Diam
Hierro
Escala de
intervalos
-2°
Budi
Prot
Cartón
Cuer
-1°
0°
+1°
0m
Escala de
cocientes
1m
+2°
Ejemplo:
religión
Otro
Ejemplo:
dureza
Papel
Ejemplo:
temperatura
+3°
2m
3m
Ejemplo:
altura
Una escala nominal para la variable “profesión” puede representarse de cualquiera de las siguientes
maneras, entre otras:
FIGURA 2
Médico
Dentista
Dentista
Psicólogo
Veterin
Psicólogo
Veterin
Médico
Ingeniero
Arquitecto
Arquitecto
Ingeniero
Este ejemplo muestra que en una escala nominal no interesa ni el orden en que colocamos las categorías, ni
la distancia que hay entre ellas. Si la variable hubiese sido “prestigio de una profesión” aquí sí hubiera
importado el orden, pues hay profesiones más prestigiosas y menos prestigiosas. Tampoco la escala
nominal informa sobre las distancias entre las categorías: subjetivamente podemos pensar que la “distancia”
entre un médico y un dentista no es la misma que hay entre un ingeniero y un arquitecto, pero esta
información no nos es suministrada por la escala nominal.
Otro ejemplo de variable medible nominalmente es la numeración del 1 al 11 de los jugadores de un equipo
de fútbol. Aquí, puesto que las categorías son numéricas podríamos pensar que estamos ante una variable
cuantitativa y por tanto medible en los niveles 3 o 4, pero si pensamos así estaremos equivocados. Aquí los
números no funcionan como tales en el sentido que no podemos manipularlos aritméticamente sumándolos,
restándolos, etc., sino sólo como simples etiquetas: el “1” representa simplemente la palabra “arquero”, el
”10” delantero, etc. Nadie afirmaría que el jugador con el número 6 es dos veces más capaz que el jugador
número 3. Los números empiezan a funcionar como indicadores de cantidad recién en las escalas
cuantitativas.
En la escala ordinal, además de la homogeneidad y la diferenciabilidad entre categorías, importa el orden en
que ellas se disponen. Las variables “dureza de los materiales” y “prestigio de una profesión” son ordinales,
pues los materiales pueden ordenarse según su dureza y las profesiones de acuerdo a su prestigio. Una
escala ordinal para la variable “prestigio ocupacional” puede graficarse de cualquiera de las siguientes
formas, entre otras:
U N
I V E R S
I D A D
D
E
A Q U
54
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
FIGURA 3
Basurero
Zapatero
Ejecutivo
Basurero
Zapatero
Ejecutivo
Esto nos muestra que sea cual fuere la forma de representación, siempre ha de respetarse el orden. Este
tipo de escalas tiene una ventaja sobre las nominales, pero también tiene una limitación: la escala ordinal me
informa si un individuo tiene mayor o menor prestigio ocupacional que otro, pero no me dice “cuánto” en
forma objetiva. Esto último es importante porque “subjetivamente” uno podría pensar que un ejecutivo tiene
tres veces más prestigio que un zapatero, pero este criterio no sería compartido por otras personas, y una
escala ha de ser la misma para todos. Otros ejemplos de variables medibles ordinalmente son el grado de
mérito, el grado militar y la gradación de tonos de colores.
Según la escala nominal, decimos que hemos hecho una medición simplemente cuando afirmamos que
Fulano es médico, y según la escala ordinal cuando afirmamos que Fulano tiene una ocupación más
prestigiosa que Zutano, aunque no sepamos cuánto más prestigiosa es. Mientras una escala nominal
permite hacer identificaciones, o poner nombres (de allí la expresión “nominal”), la escala ordinal permite
hacer comparaciones cualitativas.
Las comparaciones cuantitativas, o sea la medición numérica, se hace posible recién con las escalas
cuantitativas. Si examinamos las escalas cualitativas (nominales y ordinales) veremos que los intervalos o
distancias entre las categorías (o sea las distancias entre los puntos de la recta) son irregulares y no
responden a ningún criterio objetivo, aunque sí a muchos subjetivos. En la figura 3 vemos que “zapatero”
puede estar más cerca de “basurero” según algunos, o más cerca de “ejecutivo” según otros. La escala
ordinal permite comparar profesiones en cuanto a prestigio, pero no permite comparar distancias entre
profesiones, o sea no es posible saber cuánto mayor es la distancia de basurero a zapatero respecto de la
distancia entre zapatero y ejecutivo.
En este sentido, las escalas cuantitativas son aún más informativas. A los requisitos de homogeneidad,
diferenciabilidad y orden se agrega uno nuevo: los intervalos deben ser regulares, y más específicamente
iguales. Las siguientes tres escalas representan todas ellas intervalos iguales, o sea que los intervalos o
distancias entre los puntos están determinados según un cierto criterio matemático:
FIGURA 4
1
2
1
1
3
4
2
2
5
3
4
6
7
8
4
9
10
5
8
16
En la primera vemos que los intervalos son iguales, pues la distancia que hay de 1 a 2 es igual a la distancia
que hay entre 2 y 3, etc., todo lo cual, dicho matemáticamente, equivale a afirmar que 1-2 = 2-3, etc. Por la
U N
I V E R S
I D A D
D
E
A Q U
55
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
misma razón en la segunda escala las distancias también son iguales aunque hayamos tomado intervalos
mayores. En la tercera ya parecería que los intervalos no son iguales pues van aumentando cada vez más
hacia la derecha, pero si consideramos que se trata de una escala logarítmica (y no lineal como las dos
anteriores), veremos que también sus intervalos son iguales según la siguiente serie de igualdades, donde
en vez de restar, dividimos:
1
2
4
8
------ = ------ = ------ = ------ = etc
2
4
8
16
Esta misma serie, expresada logarítmicamente, es log1-log2 = log2-log3, etc, o sea que en vez de restar
números como en la escala lineal restamos logaritmos, pero igualmente sigue cumpliéndose la condición de
igualdad de intervalos. Toda escala que tenga intervalos iguales se llama escala métrica, y a este nivel ya sí
tiene sentido definir medición más familiarmente como la operación por la cual comparamos una cierta
cantidad con otra tomada como Unidad. Por ejemplo, decimos que hemos medido el peso de Fulano cuando
hemos dicho que pesa 60 kg, o sea, su peso entra 60 veces en la unidad de medida de 1 kg.
Estas escalas métricas, típicas de los niveles cuantitativos de medición, siguen conservando las
características de diferenciabilidad (o identidad), y orden de la escala ordinal, pero se agregan otras nuevas:
no sólo me dice que los pesos 35 kg y 70 kg son distintos (identidad), y no sólo me dice que 70 es un peso
mayor que 35 (orden), sino que además me agrega nueva información al decirme: (a) que 70 kg es
cuantitativamente tan distinto de 35 kg como 35 kg lo es de 0 kg; y (b) que 70 kg es dos veces más pesado
que 35 kg, o sea, me informa acerca de cuánto más pesado es un objeto que otro. Las escalas de intervalos
iguales sólo nos pueden dar la información (a), mientras que la escala de cocientes o razones, además, nos
suministra la información (b), con lo cual esta última resulta ser más precisa o con mayor contenido
informativo.
Establezcamos más en detalle las diferencias entre ambas escalas cuantitativas, para lo cual comenzaremos
por distinguir las escalas absolutas y las relativas. Supongamos que tomamos cinco objetos cualesquiera y
medimos sus alturas, graficando del siguiente modo sus valores respectivos:
FIGURA 5
A
B
C
D
E
1m
2m
3m
4m
5m
Es indudable que estas alturas son reales: el objeto A mide efectivamente dos metros, el objeto B tres
metros, etc. A estas escalas cuyos números representan realmente el atributo físico las llamamos absolutas
y en ellas, obviamente, la cifra 0 corresponderá a la ausencia de altura. Pero supongamos ahora que
queremos considerar la altura A, que es dos metros, como altura 0 en forma arbitraria. La escala anterior y la
nueva quedarán entonces correlacionadas del siguiente modo:
FIGURA 6
A
B
C
D
E
2m
3m
4m
5m
6m
0m
1m
2m
3m
4m
Escala absoluta
Escala relativa
U N
I V E R S
I D A D
D
E
A Q U
56
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
En esta nueva escala el objeto B no tiene realmente un metro de altura: sólo nos dice que B es un metro
más alto que A, es decir marca su ubicación respecto de otro objeto. De la misma forma esta escala no dice
que A no tenga altura, sino que arbitrariamente le hemos asignado el valor 0 para que sirva de punto de
referencia de los demás valores: es una escala relativa o arbitraria. Obviamente, si disponemos de una
escala relativa y conocemos además la altura absoluta de uno cualquiera de los objetos, podremos calcular
la altura absoluta de los demás (también necesitamos una regla de transformación, pero de esto no nos
ocuparemos).
También podríamos haber asignado el valor cero no a 2 sino a la media aritmética, que en nuestro ejemplo
coincide con 4 metros. La nueva escala relativa quedaría entonces representada del siguiente modo:
FIGURA 7
A
B
C
D
2m
E
3m
Escala
absolu
ta
4m
Escala
5m
relativ
-2m
6m
a
-1m
0m
1m
Estrictamente
hablando no tiene sentido decir que algo mide “menos 2 metros” (-2), pues no hay alturas
2m
negativas, pero no obstante esa cifra aparecida en la nueva escala nos está diciendo algo: que el objeto A
es tan alto con respecto al objeto B como éste con respecto al C, que es la media, y el signo negativo nos
indica solamente que la altura de A está por debajo de la media aritmética. Del mismo modo la altura cero no
significa aquí ausencia de altura, error que cometió aquel tipo que, cuando le dijeron que hacía cero grado
de temperatura exclamó alborozado: “No hace ni frío ni calor!”. Galeno había sugerido como punto cero de
temperatura un “calor neutro” que no era ni frío ni calor, pero Galeno estaba en realidad proponiendo una
simple convención. Vemos así que la escala de temperatura es un típico ejemplo de escala relativa (con un
cero arbitrario).
En las escalas de intervalos iguales tenemos escalas relativas (o sea con un cero arbitrario) y en las escalas
de cocientes o razones tenemos escalas absolutas (con un cero absoluto o real). El cero arbitrario no
corresponde con la ausencia de la magnitud (cero grado no significa ausencia de temperatura), pero el cero
absoluto es real (cero metros significa ausencia de altura). Nótese que lo que interesa es la ausencia de la
variable, no del individuo. Tanto cero metros como cero cantidad de hijos significa ausencia de altura y
ausencia de hijos, y no interesa que el primer valor corresponda a un individuo inexistente y el segundo a
una pareja que sí podría existir.
Las escalas de cocientes o razones son muy difíciles de encontrar en psicología y en general en las ciencias
sociales: en estas disciplinas se manejan variables que, como motivación, inteligencia o aprendizaje, son
muy difíciles (o carecería de sentido) identificar su ausencia real, o sea asignarles un cero absoluto, y en
general sus valores se consiguen establecer por comparación con otros valores.
Pero, más exactamente, ¿porqué las variables psicológicas suelen medirse con escalas relativas y las
variables físicas con escalas absolutas? O, si se prefiere, ¿qué nos obliga a medir ciertas variables mediante
escalas relativas, cuando en rigor sería preferible usar escalas absolutas por ser más precisas y exactas?
Esta interesante cuestión tiene su complejidad, no obstante lo cual orientaremos una respuesta en algún
sentido que pueda interesarnos como investigadores en ciencias sociales. Para ello comparemos un físico
que debe medir la altura de 10.000 objetos, y un psicólogo que debe medir la inteligencia de 10.000 sujetos
de la misma edad. Una vez que hicieron sus respectivas mediciones, cada uno obtiene un promedio: el
promedio de alturas es 1,53 metros, y el promedio de inteligencias es 100.
Acto seguido, si ahora el psicólogo encuentra una persona y, tras medir su inteligencia encuentra que tiene
un valor 60, con justa razón puede decir que tiene una inteligencia inferior a lo normal; pero si el físico
U N
I V E R S
I D A D
D
E
A Q U
57
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
encuentra un objeto que mide apenas 0,42 metros no tendrá sentido que diga que su altura es inferior a lo
normal o que se trata de un objeto “retrasado” en cuanto a altura. No es este el tipo de comparación que le
interesa hacer al físico, pero sí al psicólogo. Este último desea saber si una persona está por encima o por
debajo de la media de su edad. Las escalas relativas como la inteligencia toman como punto de referencia
no un cero absoluto sino un promedio estadístico al cual puede asignársele tanto el valor 0 como el valor 100
o cualquier otro, y entonces estas escalas relativas son especialmente aptas para comparar la situación de
un individuo respecto de otros y ver así si tiene más o si tiene menos inteligencia que el resto. Más aún: si
quien mide altura no es un físico sino un médico o un psicólogo (por tanto ya estamos midiendo personas,
no objetos), empiezan a cobrar sentido las expresiones “altura normal” o “altura anormal”, por la misma
razón que tiene sentido hablar de “inteligencia normal” o “inteligencia anormal”.
Quienes construyeron los tests de inteligencia no empezaron eligiendo a un individuo con inteligencia “nula”
(o sea, un cero absoluto) y a partir de allí luego los demás valores (10, 20, 30, etc). Ellos comenzaron
eligiendo una gran cantidad de individuos y luego obtuvieron un promedio (supuestamente el promedio de
toda la población humana, si acaso la muestra fuese representativa). A dicho promedio le adscribieron
convencionalmente el valor 100 y así, si algún nuevo sujeto llegara a obtener cero según esta nueva escala,
no significará que no tiene inteligencia (cero absoluto), sino sólo que su capacidad intelectual está muy por
debajo de la media poblacional (cero relativo).
Hasta aquí puede quedar justificado el uso de escalas relativas en ciencias sociales, pero, entonces, porqué
ciertas magnitudes físicas como la temperatura se miden habitualmente en escalas relativas y no absolutas,
que ya dijimos serían preferibles? En el caso especial de la temperatura podemos invocar razones históricas
y prácticas. Tomemos con la mano un objeto cualquiera: inferimos que tiene una cierta temperatura a juzgar
por la sensación térmica que nos produce. Supongamos ahora que el cuerpo que sostenemos se empieza a
enfriar. Llegará un momento en que el frío es tan intenso que nuestros dedos se congelan y dejan de
funcionar nuestros termorreceptores, o sea, no experimentamos ya ninguna sensación y quedamos
anestesiados. Significa esto que el cuerpo no puede seguir enfriándose? No. Puede seguir haciéndolo
aunque ya no podamos darnos cuenta por el tacto, y entonces, para averiguarlo, decidimos tomar otro punto
de referencia, como por ejemplo su dureza. Podemos así saber si se sigue o no enfriando examinando si su
dureza aumenta o no, pero aquí también la dureza puede tener un límite, y el hecho de que el cuerpo haya
alcanzado una dureza máxima y no pueda enducererse más, ello no significa necesariamente que no pueda
seguir enfriándose. De hecho, podemos seguir eligiendo más criterios hasta el infinito, pero la termodinámica
ha venido a resolver este problema tomando como punto de referencia no la sensación térmica ni la dureza
del cuerpo, sino el movimiento de sus moléculas. Y así, cuando las moléculas cesan todo movimiento el
cuerpo ya no podrá seguir enfriándose alcanzando entonces lo que se llama su temperatura absoluta,
designada convencionalmente como el cero grado en la escala Kelvin, creada a tal efecto. Esta escala es
absoluta porque el cero grado corresponde realmente a la ausencia de temperatura. Podría argumentarse
que esto no es así que cero grado está indicando un frío intensísimo en lugar de ausencia de temperatura
pero no debemos olvidar que la termodinámica, al crear esta escala, equiparó temperatura a movimiento
molecular y no a sensación térmica y entonces el cero grado, al indicar ausencia de movimiento molecular,
indica también ausencia de temperatura. Si nuestros termorreceptores pudiesen hipotéticamente percibir la
sensación térmica a cero grado Kelvin sin quedar arruinados, seguramente retiraríamos violentamente la
mano y nadie podría convencernos de que allí no hay temperatura, pero esto es porque estamos habituados
a equiparar temperatura con sensación térmica y no con movimiento molecular. Por lo demás, se supone
que el cero absoluto es inalcanzable tanto técnicamente como en teoría, porque si cesara el movimiento
molecular la materia dejaría de existir.
La idea de equiparar temperatura con movimiento molecular deriva de la teoría cinética del calor del siglo
pasado, y sostiene que el movimiento genera calor. Entonces, si las moléculas comienzan a moverse cada
vez más rápidamente, el cuerpo empezará a aumentar su temperatura. Obviamente que esto no es más que
una teoría: el día de mañana puede aparecer otra que tome como referencia de temperatura no el
movimiento sino otro parámetro hoy desconocido, con lo cual se construirá una nueva escala con el cero
más alejado y donde el cuerpo podrá seguir enfriándose aún cuando haya cesado todo movimiento
molecular. Esto prueba que, en el fondo, el cero absoluto es paradójicamente relativo, pues todo dependerá
de qué significado le demos a “temperatura”: si sensación térmica, dureza, movimiento molecular o un
parámetro aún no descubierto.
U N
I V E R S
I D A D
D
E
A Q U
58
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
Históricamente, la primera escala de temperatura que se creó no fue la escala Kelvin, ya que no existía la
idea de vincular la temperatura con el movimiento molecular y construir, sobre esa base, una escala. Pero
los físicos necesitaban contar igualmente con alguna que pudiese medir esta magnitud, y fue así que se
crearon varias, como la escala centígrada (Celsius), la escala Farenheit y la escala Reamur. La escala
Celsius le adjudicó un poco arbitrariamente el cero al punto de congelamiento del agua y el 100 a su punto
de ebullición (todo a presión atmosférica normal), dividiéndose luego en 100 partes iguales la escala entre
uno y otro valor. Presumiblemente la practicidad de esta escala radica en el hecho de que la mayoría de los
objetos que manipulamos o los ambientes donde habitamos están entre 0 y 100 grados Celsius, utilizándose
la escala Kelvin sólo para objetos muy fríos. Haciendo las transformaciones necesarias (0 grado Kelvin
corresponden a -273 grados Celsius) podríamos usar también la escala Kelvin pero no lo hacemos, entre
otras razones, por una cuestión psicológica o de acostumbramiento a las mismas cifras de siempre. En otros
casos el desacostumbramiento puede ser menos difícil, y es cuando no hay que habituarse a nuevas cifras
sino simplemente a nuevas denominaciones. Tal es el caso del pasaje de los milibares a los hectopascales
(escala de presión atmosférica): aquí no se cambió de escala sino de nombre, ya que, por ejemplo, 1008
hectopascales siguen siendo 1008 milibares.
Además del hecho de que una tiene un cero arbitrario y la otra un cero absoluto, hay otra diferencia entre las
escalas relativas y absolutas, y que de alguna forma ya empezamos a adelantar. En las escalas de
intervalos iguales, que son relativas, no se puede decir que un sujeto con CI 160 tenga el doble de
inteligencia que otro de 80, del mismo modo que dos grados no es el doble de temperatura que un grado en
la escala Celsius. A lo sumo podemos llegar a decir que la diferencia de inteligencia que hay entre 120 y 140
es la misma que hay entre 100 y 120. En las escalas de cocientes, que son absolutas, podemos obtener en
cambio ambos tipos de información como ocurre con las escalas de peso, sonido, longitud o densidad.
Además de la inteligencia, otras escalas de intervalos iguales son la energía y las fechas del calendario: del
2 al 4 de junio hay el mismo intervalo temporal que hay entre 4 y 6 de junio, pero carecerá de sentido decir
que el 4 de junio es el doble del 2 de junio.
Observemos la figura 6. En la escala absoluta sí tiene sentido decir que 6 metros (altura del objeto E) es el
doble de 3 metros (la altura de B). O sea, se cumple la igualdad E = 2.B. Si intentamos trasladar esto mismo
a la escala relativa esta igualdad no se cumple, pues 4 no es el doble de 1. Para que la expresión E = 2.B
valga en la escala relativa debemos sumarle el número 2, que es la distancia que hay entre el cero arbitrario
y el absoluto (ya que aquí la escala relativa aparece “corrida” dos lugares). La nueva fórmula para esta
escala será E = 2.B + 2, y entonces sí se cumple que 4 = 2.1 + 2. Todo esto es bastante teórico, porque sólo
lo podemos hacer si conocemos el corrimiento de la escala relativa respecto de la absoluta, o sea, si
conocemos la distancia del cero arbitrario al cero absoluto, cosa que no siempre podemos hacerlo ni
tampoco necesitarlo. Desde este punto de vista, la escala absoluta pasa a ser un caso especial de la escala
relativa donde la distancia entre los ceros arbitrario y absoluto es nula.
Esta clasificación en cuatro niveles ya es clásica y corresponde a Stevens, pero no han faltado otras
variantes entre las que podemos mencionar la de Coombs, quien agrega dos niveles más:
a) Entre la nominal y la ordinal incluye la escala parcialmente ordenada (figura 8). Se trata en última
instancia de una variante de la escala ordinal donde en algunas categorías, como B y C, no se conoce la
relación de mayor o menor que tienen entre sí: A es mayor que B o que C, y por otro lado B o C son
mayores que D, pero se desconoce si B es mayor, menor o igual a C.
FIGURA 8
A > B > C > D > E
Escala ordinal
B
A >
> D > E
C
U N
Escala parcialmente ordenada
I V E R S
I D A D
D
E
A Q U
59
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
b) Entre la ordinal y la de intervalos iguales, Coombs agrega la escala métrica ordenada, una variante de la
escala de intervalos iguales donde en vez de ser estos iguales son distintos pero están ordenados creciente
o decrecientemente. A diferencia de la escala meramente ordinal, aquí no sólo se ordenan las categorías,
sino también los intervalos de acuerdo a su tamaño. Evidentemente informa más que la simple escala
ordinal pero menos que la de intervalos iguales propiamente dicha, pues no aclara cuánto mayor es un
intervalo que otro.
Siempre estamos haciendo mediciones. Por ejemplo, cuando decimos que tal o cual individuo es católico
(medición nominal), o que tal sujeto tiene más mérito que otro (medición ordinal), o cuando decimos que tal
otro sujeto tiene 30 años (medición intervalar). Pero la importancia de la medición no reside simplemente en
el hecho de que siempre estamos haciendo mediciones, sino en que el acto de medir nos permite conocer
cómo varían los fenómenos de la realidad tanto en cantidad como en calidad, lo cual a su vez es muy
importante porque es gracias a que existen unas variaciones que dependen causalmente de otras, que
podemos organizar nuestro conocimiento del mundo.
U N
I V E R S
I D A D
D
E
A Q U
60
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
PROGRAMA DE CONTROL DE LA CALIDAD
WORK PAPER # 8
UNIDAD O TEMA: 7. LA INVESTIGACION EXPLICATIVA
TITULO: El concepto de causa
FECHA DE ENTREGA:
Una vez que hemos constatado una alta correlación entre variables, y, como consecuencia de ello, pudimos
arriesgar una hipótesis causal (o a la inversa), llega ahora el momento crucial donde hay que probarla. Esta
verificación es la gran tarea de la investigación explicativa.
Cuando tal es la tarea que nos proponemos, la investigación explicativa puede denominarse, según Hyman,
teórica o experimental. Este autor parece considerar como sinónimos ambos términos, pero a nuestro criterio
cabe hacer una diferencia: en la investigación experimental buscamos confrontar una hipótesis con la
realidad, mientras que en la investigación teórica buscamos confrontar hipótesis entre sí, de allí que esta
última sea una investigación predominantemente bibliográfica.
Según el mismo autor (12), además del propósito teórico o experimental, una investigación explicativa puede
apuntar a objetivos más prácticos, de aquí que también existan, de acuerdo a denominaciones de Hyman,
estudios explicativos de diagnóstico, de predicción, y de evaluación o programáticos. En este texto
centraremos nuestra atención en la tarea principal: la prueba de la hipótesis causal.
En otro orden de cosas, si bien lo que caracteriza la investigación científica es la identificación de las causas
de los fenómenos, en nuestras investigaciones cotidianas –no científicas- muchas veces no nos tomamos
esta molestia. De hecho, podemos resolver muchos problemas sin conocer las causas que los ocasionan,
como por ejemplo: a) Golpeamos duramente el teléfono… y anda!!!; b) Reemplazamos un electrodoméstico
que no anda por otro que sí funciona; c) Si la PC anda mal muchos técnicos ni se preocupan por averiguar la
causa: directamente formatean el disco rígido y reinstalan todos los programas. Estas actitudes son también
observables en los ámbitos que suponemos científicos: la esquizofrenia o la epilepsia puede curarse con un
electroshock, lo que no presenta gran diferencia con arreglar un teléfono golpeándolo.
Dos tipos de sospechas pueden poner en marcha una investigación explicativa, y sobre ambas alternativas
organizaremos nuestra exposición: primero, podemos sospechar que cierto o ciertos factores son la causa
de un fenómeno; segundo, podemos sospechar que cierto factor NO es la causa de un fenómeno dado a
pesar de las apariencias (por ejemplo, a pesar de la alta correlación).
a) Si pensamos que uno o varios factores son causa de cierto efecto, deberemos efectuar una prueba de
confirmación, realizando un experimento bivariado (si es un solo factor causal) o multivariado (si son varios).
Una prueba de confirmación no es una prueba donde se confirma una hipótesis, ya que el resultado puede
confirmar o refutar la hipótesis (aceptación o rechazo), sino una prueba diseñada con la ‘intención’ de
confirmar nuestra sospecha de causalidad. Si una prueba de confirmación fuese una prueba donde se
confirma una hipótesis, ¿para qué la realizaríamos si ya conocemos el resultado?
Como consecuencia de haber aplicado una prueba de confirmación tenemos, entonces, dos posibilidades: o
confirmamos o rechazamos la hipótesis. En rigor, y lo demuestra la historia de la ciencia, ninguna de ambas
alternativas es definitiva, pues indagaciones posteriores pueden obligar a rechazar la hipótesis confirmada o
a confirmar la rechazada, lo que demuestra una vez más que lo único seguro del conocimiento científico es
su carácter probable.
b) Si pensamos, en cambio, que un cierto factor no es la causa de un fenómeno a pesar de la alta
correlación constatada entre ambas, entonces emprenderemos una prueba de refutación, como por ejemplo
la llamada prueba de espureidad (o prueba de falsedad, pues se busca probar que a pesar de parecer
verdadera, la “causa” no lo es). En general, las pruebas de espureidad se realizan mediante investigaciones
bivariadas.
U N
I V E R S
I D A D
D
E
A Q U
61
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
Una prueba de refutación no es, entonces, una prueba donde se refuta una hipótesis sino sólo donde se
intenta refutarla, y a partir de aquí se podrá o no tener éxito en dicho intento. La sospecha que pone en
marcha este tipo de investigación puede surgir antes, durante o después de una prueba de confirmación. A
veces en el curso de la investigación y antes de poder confirmar o rechazar nuestra hipótesis, puede surgir
en nosotros una fuerte sospecha de que X no es la causa de Y sino Z, o sea, una variable adicional. En este
punto podremos abandonar nuestros intentos originales por confirmar y emprender una prueba de
refutación, consistente en tratar de demostrar que X no es la causa sino Z.
a) El concepto de causa
Antes de explicar las pruebas de confirmación y refutación, comencemos por aclarar qué debemos entender
por causa en el contexto de una investigación explicativa. Ya habíamos indicado que ningún fenómeno,
estrictamente hablando, tiene una sola causa. Si pretendemos ser un poco objetivos, debemos admitir que la
realidad es compleja y aceptar que un fenómeno responde a una multiplicidad de causas que, actuando
conjuntamente, producirán el fenómeno en cuestión. Pero, debido a que tampoco conocemos todas las
causas que lo producen, sólo podremos decir que la intervención de las causas conocidas simplemente
aumentan mucho la probabilidad de que el fenómeno ocurra.
Partiremos entonces del supuesto de la policausalidad: un efecto es producido por varias causas. Las
causas que determinan que aprobemos un examen son varias: haber estudiado, no estar nervioso, un
profesor tolerante, etc. Esquemáticamente:
Haber estudiado
Tranquilidad
Aprobar
Profesor tolerante
Indudablemente que estudiar es una condición necesaria, pero aún no es suficiente para aprobar, pues
puede ocurrir que los nervios nos traicionen o el profesor sea muy exigente. Otro tanto podemos decir de los
otros factores: tener un profesor tolerante es condición necesaria pero no suficiente, pues además debemos
haber estudiado y no estar nerviosos. Del mismo modo, la sola intervención del factor tranquilidad, si bien
necesario, no alcanza a ser suficiente por los mismos motivos anteriores. Nuestra primera conclusión es
entonces esta: cada uno de los factores causales, considerados en forma independiente, son una condición
necesaria pero no suficiente.
Sin embargo, si ahora en vez de considerarlos independientemente los consideramos “conjuntamente”, las
cosas cambian, porque si todos esos factores se dan juntos entonces aprobamos el examen. Todos ellos
juntos son entonces una condición suficiente, lo que nos lleva a nuestra segunda conclusión: si
consideramos a los factores causales conjuntamente, funcionan como condición suficiente. De todo lo dicho
se desprende que una condición suficiente es el conjunto de todas las condiciones necesarias.
En general, por causa entenderemos toda condición necesaria y suficiente para que ocurra un fenómeno.
Condición necesaria es aquella que si no está, el efecto no se produce. Estudiar es condición necesaria
porque si no estudiamos, no aprobamos. Del mismo modo cierta capacidad mental es condición necesaria
para el aprendizaje (una piedra no puede aprender), y también es condición necesaria para ser drogadicto
haber tenido alguna experiencia con drogas.
En cambio una condición suficiente es aquella que si está, el fenómeno se produce. Condición suficiente es
la suma de estudiar, estar tranquilo y tener un profesor tolerante, pues si se dan estos tres factores
aprobamos. Podemos decir también que una condición suficiente para la ceguera es la destrucción del
nervio óptico, o que un conflicto grupal es condición suficiente para su bajo rendimiento.
Selltiz (13) dice que en la práctica es, sin embargo, muy difícil encontrar condiciones necesarias y
suficientes: la destrucción del nervio óptico no es la única condición necesaria y suficiente para la ceguera,
pues ésta puede existir aún cuando no se haya destruído dicho nervio, o sea, puede haber otras condiciones
distintas que produzcan este efecto. Por ello el científico debe buscar una constelación de otras posibles
U N
I V E R S
I D A D
D
E
A Q U
62
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
causas (además de la necesaria y suficiente), y que suelen clasificarse como condiciones contribuyentes,
contingentes y alternativas. Veamos un ejemplo, tomado del mismo autor.
Es condición necesaria y suficiente de la drogadicción el hecho de no poder el sujeto suspender
voluntariamente el consumo de drogas: si no puede suspender este consumo el sujeto es drogadicto, pero
nadie que investigue sobre las causas de la drogadicción se puede conformar con esta única explicación.
Buscará entonces causas contribuyentes (ausencia de padre), contingentes (el habitual consumo de drogas
en el barrio), y alternativas (presencia de un padre hostil).
Condición contribuyente es aquella que aumenta las probabilidades de ocurrencia del fenómeno, pero no lo
hace seguro. La ausencia de padre aumenta las probabilidades que el adolescente sea drogadicto.
Sin embargo, esta condición contribuyente podrá funcionar efectivamente como causa siempre y cuando en
el barrio el consumo de droga sea habitual (condición contingente). Y así, una condición contingente es una
situación especial en la cual la condición contribuyente puede realmente actuar como causa. En suma: en
las vecindades donde el uso de drogas está generalizado (condición contingente), la ausencia del padre del
adolescente (condición contribuyente), contribuye o ayuda a aumentar las probabilidades de que el
muchacho sea drogadicto. Decimos que ‘aumenta’ su probabilidad pero no lo hace 100% seguro, porque
además el sujeto debe no poder desprenderse voluntariamente de su hábito (condición suficiente).
La condición contribuyente (ausencia del padre) tiene una condición alternativa (presencia de un padre que
trata en forma hostil o indiferente al sujeto). En rigor esta última es también una condición contribuyente en
tanto también aumenta la probabilidad que el hijo sea drogadicto. Lo que interesa entonces destacar acá,
según nuestro parecer, es que si una condición contribuyente tiene alguna condición alternativa que es
también capaz de producir el fenómeno, entonces aumentan aún más las probabilidades de que este ocurra
pues ambas condiciones cubrieron todo o casi tod el espectro de posibilidades de la situación del padre.
b) Requisitos de causalidad
Sea una prueba de confirmación o una de refutación, en toda investigación explicativa lo que se hace es una
prueba de causalidad, y para poder probar que ralamente la relación X-Y es causal deben cumplirse
obligatoriamente tres condiciones, que podemos llamar requisitos de causalidad.
1) Variación concomitante (correlación).- X e Y deben variar conjunta o concomitantemente en la forma
prevista por nuestra hipótesis. Sin embargo, hemos dicho ya que una simple correlación de este tipo no
prueba necesariamente que haya una relación causa-efecto, pues puede ocurrir que X e Y varíen en el
mismo sentido sólo porque son ambas efectos de una causa desconocida Z (véase más adelante Pruebas
de espureidad).
Puede ocurrir que X e Y no aparezcan en un primer momento correlacionadas, pero ello no significa que no
estén conectadas causalmente, ya que otras variables que no podemos controlar en ese momento pueden
estar distorsionando la correlación subyacente (como por ejemplo errores de medición). Estas situaciones
especiales no deben hacernos pensar que puede haber causalidad sin correlación: allí donde hay causalidad
siempre ha de haber correlación, aunque ésta pueda aparecer encubierta.
La existencia de una correlación (encubierta o no) es condición necesaria para que hay un vínculo causal,
pero aún no suficiente, porque además deben cumplirse los restantes dos requisitos.
2) Ordenamiento temporal.- Para que X sea causa de Y es preciso que la causa X ocurra cronológicamente
antes que el efecto Y, o por lo menos simultáneamente con él. No se rompe primero el vidrio y después
tiramos la piedra. Robert Koch, bacteriólogo alemán, bromeaba con que había un solo caso donde la causa
sigue al efecto, y es cuando el médico va detrás del féretro de su paciente.
3) Eliminación de otros posibles factores causales.- Si la tarea de establecer la correlación era propia de una
investigación descriptiva, el trabajo de eliminar la influencia de otros posibles factores causales es ya lo más
característico de una investigación explicativa. De aquí en más, entonces, nos ocuparemos de este
problema.
Cuando intentamos averiguar si X es la causa de Y casi siempre existe la sospecha de que hay otras
variables adicionales o ajenas al experimento en sí que pueden estar ejerciendo también influencia sobre Y,
y entonces podrá ocurrir que Y varía por influencia de esas otras variables ajenas y no por X. Por lo tanto,
debemos ‘anular’ al máximo estas influencias externas para saber si realmente la variación de Y se debe o
no a X. Si nuestro interés está en averiguar la influencia causal de la educación (X) sobre la inteligencia (Y),
procuraremos anular la influencia de variables extrañas como por ejemplo la alimentación, pues tenemos la
U N
I V E R S
I D A D
D
E
A Q U
63
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
sospecha que la inteligencia también depende de ella. Notemos que se trata de una simple anulación
metodológica pues no estamos anulando la condición causal de la alimentación como tal, sino sólo su
influencia (de hecho, el niño con el que experimentamos continúa alimentándose).
Hay muchas variables adicionales que pueden estar ejerciendo influencia sobre la variable dependiente Y,
además de X, pero podemos agruparlas en dos categorías.
a) Variables organísmicas: o factores que dependen del sujeto mismo, tales como sus experiencias pasadas
y los cambios debidos a la maduración o al desarrollo. Si queremos indagar la influencia de los premios o
castigos (X) sobre el aprendizaje (Y), puede ocurrir que el sujeto aprenda mejor debido a sus cambios
madurativos (variable adicional) y no a los refuerzos, sobre todo si el experimento implica un seguimiento de
niños muy pequeños a lo largo de varios meses. Del mismo modo, si queremos conocer la influencia del
ruido (X) sobre el estrés (Y), puede ocurrir que ciertos sujetos sean hipersensibles a los ruidos por alguna
experiencia traumática o simplemente por factores constitucionales, y entonces revelen mayor nivel de
estrés debido a su hipersensibilidad (variable adicional).
b) Variables situacionales: o factores que dependen del ambiente. Al investigar cómo influye el ruido sobre el
estrés, puede ocurrir que los sujetos elegidos para el experimento habiten en un país económicamente
inestable, con lo cual el estrés se verá influenciado también por esta condición (variable adicional), con lo
que correremos el riesgo de no saber si el estrés se debe al ruido o a la inestabilidad económica.
Un caso muy especial de variable situacional son las variables derivadas del experimento, ya que muchas
veces ocurre que es el mismo experimento quien influye sobre Y. Al investigar el vínculo ruido-estrés puede
ocurrir que el sujeto, al sentirse como una especie de ‘conejillo de Indias’ al que investigan crudamente, por
ese solo hecho aumente su nivel de estrés. Quizás estamos usando una amenazadora máquina para medir
su estrés y el individuo se estresa con sólo mirarla, con lo cual no podremos saber si tal estrés se debe al
experimento mismo o a los ruidos. Esta influencia que puede ejercer la misma situación experimental es
llamada ‘acción retroactiva’ por O’neil, ‘influencia de la pre-medida’ por Selltiz, ‘efectos de las mediciones
previas’ según Blalock, etc., pero todas esas denominaciones apuntan a la misma idea.
Un conocido ejemplo de influencia del experimento y que preocupó durante mucho tiempo a los médicos fue
la llamada ‘hipertensión del guardapolvo blanco’. Cuando el médico intentaba tomarle la presión a una
persona, la sola presencia del galeno munido de un tensiómetro bastaba para que la presión subiera
espontáneamente, con lo cual el médico nunca podía saber si la hipertensión era un signo patológico o
simplemente un momentáneo aumento de la presión ante la visión del guardapolvo blanco y el instrumento
de medición.
Otro ejemplo aparece en Blalock (14). Un grupo de obreras aumentó su rendimiento laboral pero no debido a
que había mayor iluminación y horarios de descanso, como se pensaba, pues cuando estos factores se
suprimieron, el rendimiento no decayó. Este se debía en realidad a que fueron separadas y aisladas para
realizar el experimento: esto las halagó pues creían estar siendo objeto de un trato preferencial, y entonces
aumentaron su rendimiento.
Los factores debidos al experimento mismo no se ven sólo en el ámbito de las ciencias sociales: pueden
detectarse también en experimentos de microfísica cuando se trata de averiguar la causa de ciertas
características de las partículas subatómicas. Una de las interpretaciones del principio de incertidumbre de
Heisenberg dice que, cuando el físico quiere observar la trayectoria de una partícula subatómica, su sola
presencia material hace que esa trayectoria se modifique, con lo cual nunca puede saber hasta qué punto
depende de su presencia física o de otro factor que en ese momento resulte importante investigar.
c) Control de variables adicionales
Sea que se trate de variables organísmicas o situacionales, lo que el científico buscará hacer con estas
variables adicionales es controlarlas y conocer su grado de influencia, por lo menos mientras el experimento
dura. Para esto dispone de dos recursos fundamentales: la aleatorización y los grupos de control.
1) Aleatorización.- Los experimentos suelen hacerse con una muestra, y los individuos deben ser
preferiblemente elegidos al azar (aleatorización). Esta selección al azar permite controlar la influencia de las
variables adicionales y así por ejemplo, si queremos estudiar la influencia del ruido sobre el estrés, los
sujetos elegidos no podrán ser ‘todos’ ellos veteranos de guerra o bien ‘todos’ ejecutivos, porque entonces
las variables extrañas ‘experiencias traumáticas’ y ‘tipo de ocupación’ estarán también influyendo sobre los
niveles de estrés. En cambio si tomo los sujetos al azar (donde entrarán verosímilmente veteranos y no
veteranos, ejecutivos y no ejecutivos), esto se supone que garantizará la heterogeneidad del grupo en
U N
I V E R S
I D A D
D
E
A Q U
64
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
cuanto a experiencias traumáticas y ocupaciones, con lo que la influencia de éstas se reducirá
considerablemente hasta un nivel aceptable donde su intervención no resulta significativa.
En este punto podríamos preguntarnos lo siguiente: para qué recurrir a la aleatorización, si podemos
controlar las variables adicionales manteniéndolas constantes? Sería como decir que al estudiar el vínculo
ruido-estrés seleccionamos solamente a veteranos de guerra (es decir mantenemos constante la variable
extraña ‘experiencias traumáticas pasadas’) y entonces, cualquier variación en el grado de estrés entre los
que recibieron ruidos y los que no, se deberá solamente al factor ruido ya que ambos grupos, al ser todos
veteranos de guerra, están en igualdad de condiciones.
Esta solución sería viable si fuese solamente una la variable extraña que hay que controlar, pero
habitualmente son varias y realmente resulta muy difícil, cuando no imposible, mantenerlas constantes a
todas, o sea, reunir un grupo homogéneo respecto de todas las variables adicionales. De hecho, ya poder
seleccionar un grupo donde todos sean veteranos de guerra y al mismo tiempo todos ejecutivos es bastante
engorroso. Elegimos entonces el procedimiento de la aleatorización, por su mayor sencillez. El azar, como la
muerte, es el gran nivelador, y por sí solo es capaz de colocar en igualdad de condiciones a todos los
sujetos de un experimento.
2) Grupos de control.- Cuando es necesario aumentar nuestro control de las variables adicionales,
utilizaremos también grupos de control, un recurso bastante habitual. Una vez extraída una muestra de una
población, dentro de la misma seleccionamos dos grupos: el grupo experimental y el grupo de control.
Llamamos grupo experimental al que sometemos a la influencia del posible factor causal que nos interesa
(X), o sea a la influencia de la variable independiente o experimental, y llamamos grupo de control a
cualquier otro grupo usado como referencia para hacer comparaciones. Habitualmente los grupos de control
son aquellos a los que no sometemos a la influencia del posible factor causal. Ejemplo: a los efectos de
investigar el estrés, el grupo experimental es aquel al que sometemos a distintas intensidades de ruidos, y el
grupo de control no. Obviamente que los individuos de ambos grupos deben haber sido elegidos al azar:
nuestro experimento fracasaría si ponemos en el grupo experimental a todos los veteranos de guerra y en el
de control a sujetos sin experiencias traumáticas pasadas.
El grupo de control es un adecuado procedimiento para neutralizar la influencia de las variables adicionales
porque, al quedar minimizada su influencia por la aleatorización, se puede notar con mayor claridad la
influencia de la única variable no aleatorizada, o sea X. Si los sujetos son muy distintos en cuanto a
ocupación, experiencias pasadas, raza, estado civil, sexo, edad, etc., pero a todos los sometemos (o no) a
los mismos ruidos, entonces se aprecia mejor la influencia de estos sobre el estrés.
Consignemos, finalmente, porqué en las investigaciones explicativas se suele utilizar un grupo y no una
persona única, cuando este último recurso podría ser más sencillo. Al respecto, se considera que un solo
caso puede ejemplificar un vínculo causal, pero no tiene poder probatorio. Es más seguro concluir que la
psicoterapia cura la depresión cuando hemos analizado 50 casos que cuando hemos analizado un único
caso, y ello es así en gran parte debido a que en un grupo es posible aleatorizar, es decir, controlar muchas
otras variables que también podrían haber ocasionado la cura.
d) El diseño experimental
Una vez que hemos tomado la precaución de elegir los sujetos al azar, estamos ahora en condiciones de
elegir un plan para hacer el experimento que probará si hay o no causalidad entre X e Y. Este plan se llama
diseño experimental, y podemos definirlo con O’neil (15) como un modelo particular de variación y
constancia. Es particular porque se aplica a una muestra concreta, no a toda la población, con lo cual luego
deberá resolverse si las conclusiones obtenidas para la muestra son igualmente aplicables a toda la
población, tarea que competerá a la estadística inferencial.
También es un modelo de variación, porque nuestro experimento consiste en hacer variar la variable
independiente X para ver si también varía la variable dependiente Y. Es también un modelo de constancia
porque al mismo tiempo que hacemos variar las variables principales debemos controlar la influencia de las
variables extrañas, lo que podemos hacer manteniéndolas en valores constantes. Dijimos que teóricamente
esto sería lo ideal, pero como no se pueden mantener constantes tantas variables extrañas al mismo tiempo,
podemos lograr el mismo control mediante la aleatorización, situación en la cual si bien no se mantienen
constantes sus valores, sus fluctuaciones quedan razonablemente neutralizadas. En ciertos casos, no
U N
I V E R S
I D A D
D
E
A Q U
65
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
obstante, ciertas variables adicionales pueden mantenerse constantes, como por ejemplo cuando queremos
estudiar la relación entre volumen y temperatura de un gas, a presión ‘constante’.
No debe confundirse el diseño experimental con el experimento: el diseño experimental es un plan general
para hacer un experimento, de la misma manera que el plano de una casa es un plan para construirla. La
definición de O’neil antes indicada es una definición de experimento, pero en lo esencial la juzgamos
igualmente aplicable al diseño experimental.
Un experimento implica siempre en mayor o menor medida crear una situación controlada, donde
mantenemos constantes ciertos factores y hacemos variar otros. Pero a veces, para probar una hipótesis, no
podemos recrear una tal situación, y debemos esperar a que ocurra espontáneamente. Esto se aplicaría por
ejemplo en el caso de querer verificar la hipótesis de la periodicidad de las manchas solares o de los
eclipses, en cuyo caso no tenemos otro remedio que esperar una determinada fecha para ver si se producen
o no, y para colmo tampoco podemos mantener constantes todos los otros posibles factores edicionales.
En cambio si lo que quiero verificar es la temperatura de ebullición del agua, aquí sí puedo crear una
situación en la cual pongo a hervir agua y compruebo con un termómetro a qué temperatura se transformará
el vapor, manteniendo al mismo tiempo constantes otros factores como presión atmosférica, cantidad de
solutos disueltos, etc. Esta última es, dijimos, una investigación claramente experimental, mientras que el
caso anterior del eclipse corresponde a una investigación no experimental. En suma: un experimento es una
situación provocada y controlada.
Realizar experimentos en ciencias sociales presenta algunas dificultades especiales: a) experimentar con
seres humanos suele tener una limitación ética. La alternativa podría ser encarnizarse con animales no
humanos, pero aquí surge otra dificultad: podemos desconocer hasta qué punto las conclusiones obtenidas
sobre animales son extensibles a los seres humanos. De hecho este problema se presenta aún en ciencias
biológicas, cuando se investigan nuevas drogas para curar enfermedades; b) el ser humano es
particularmente complejo, y por lo tanto un experimento implicará controlar una mayor cantidad de variables
adicionales, lo cual hace que debamos complejizar nuestro diseño experimental bivariado o, incluso, pasar a
uno multivariado.
U N
I V E R S
I D A D
D
E
A Q U
66
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
PROGRAMA DE CONTROL DE LA CALIDAD
WORK PAPER # 9
UNIDAD O TEMA: 8. PRUEBAS DE CONFIRMACION
TITULO: Diseños experimentales
FECHA DE ENTREGA:
Al intentar confirmar nuestra hipótesis, podremos optar por un diseño experimental bivariado o por uno
múltiple, según nuestras necesidades o posibilidades. Comencemos con el primero.
a) Diseños experimentales bivariados
Dentro de los diseños experimentales bivariados hay varios tipos, pero el objetivo es aquí siempre probar la
relación X-Y como causal. Los iremos describiendo en orden de complejidad creciente basándonos en la
versión Selltiz – Jahoda – Deutsch – Cook (13). Cuando sospechamos que realmente hay pocas variables
extrañas utilizaremos un diseño más simple, pero cuando no es así nos vemos obligados a tomar más
recaudos mediante un diseño más complejo. Los diseños que veremos son seis y no son los únicos
posibles, pero bastarán para que el paciente lector se forme una idea sobre cómo están hechos y cómo
pueden aplicarse.
En el esquema siguiente se resumen los distintos tipos de diseños experimentales bivariados, desde el más
sencillo al más complejo. Todos los grupos fueron tomados al azar, y se supone además que están
ejerciendo influencia variables adicionales o extrañas al experimento: de otro modo no tendría sentido usar
estos diseños, cuyo propósito es precisamente controlarlas.
Diseños experimentales bivariados (Versión ligeramente modificada por el autor de Selltiz-Jahoda-DeutschCook)
Tipo de diseño
(19)
1. Solo después
Grupos
Y antes
X
Experimental
Control
-------
X
---
2. Antes y después
con un grupo
Experimental
Y1
3. Antes y después
con
grupos
intercambiables
Experimental
Control
4. Antes y después
con un grupo de
control
5. Antes y después
con dos grupos de
U N
Y
después
Y2
Y’2
Cambio
(d)
d = Y2Y’2
Interacción
(I)
----
X
Y2
d = Y2Y1
----
---Y’1
X
---
Y2
----
d = Y2Y’1
----
Experimental
Control
Y1
Y’1
X
---
Y2
Y’2
d = Y2Y1
d’ = Y’2Y’1
----
Experimental
Control I
Y1
Y’1
X
---
Y2
Y’2
d = Y2Y1
I = d – (d’+d’’)
I V E R S
I D A D
D
E
A Q U
67
I N
O
B O L
I V
I A
Ejemplos
X = Proyección
de un film de
guerra
Y = Opinión
sobre la guerra
X = Frustración
Y
=
Constructividad
lúdica
X = Campaña
publicitaria
Y =Efectividad de
la campaña
X = Proyección
de un film de
guerra
Y = Opinión
sobre la guerra
X = Curso de
entrenamiento en
FACULTAD DE CIENCIAS DE LA
SALUD
control
Control II
(Y’’1)
X
Y’’2
d’ = Y’2Y’1
d’’ = Y’’2Y’’1
6. Antes y después
con tres grupos de
control
Experimental
Control I
Control II
Control III
Y1
Y’1
(Y’’1)
(Y’’’1)
X
--X
---
Y2
Y’2
Y’’2
Y’’’2
d = Y2Y1
d’ = Y’2Y’1
d’’ = Y’’2Y’’1
d’’’
=
Y’’’2-Y’’’1
I = d – (d’+d’’d’’’)
relaciones
humanas
Y = Opinión
sobre
las
relaciones
humanas
-----
En este esquema observamos las expresiones “Y antes”, “X” e “Y después”. Si retomamos el ejemplo de la
relación ruido-estrés, “Y antes” significa la medición del estrés antes de aplicar el ruido (o premedida de Y),
“X” significa aplicación del estímulo sonoro, e “Y después” indica la medición del estrés después de haber
aplicado dicho estímulo (posmedida de Y). Esta última medición debe realizarse para constatar si hubo o no
alguna diferencia.
En función de lo dicho encontraremos dos tipos de diseño bivariado: a) de sólo después, donde no tomamos
la premedida, sino solamente aplicamos el ruido y luego medimos el estrés; y b) de antes y después, donde
tomamos tanto la premedida como la posmedida. Se trata de diseños más complejos y, como se ve en el
esquema, admiten cinco variantes.
1) Diseño de sólo después.- Es un diseño sencillo donde trabajamos con un grupo experimental y otro de
control, sin haber tomado a ninguno la premedida. Lo que hacemos es someter a estímulos sonoros (X) al
grupo experimental, y luego averiguamos las posmedidas de estrés en ambos grupos (Y2 e Y’2). Si hay
diferencia significativa entre ambas medidas de estrés, cabe pensar entonces que X es la causa de Y. En
otras palabras, la diferencia “d” (ver columna de ‘cambio’) debe ser distinta a cero. En principio, cuanto más
diferente de cero sea “d”, tanto más probable es la influencia de X como factor causal. Si “d” da cero o
valores muy próximos a cero no hubo cambio, o sea el nivel de estrés en ambos grupos es igual, de donde
pensamos que el factor ruido no tuvo influencia causal. Supongamos un ejemplo numérico:
Grupo
Experimental
Control
Y antes
-------
X
X
----
Y después
20
15
Cambio
d = 20-15 = 5
En este experimento imaginario el nivel de estrés de quienes sufrieron ruidos es 20 (por ejemplo 20 ml de
adrenalina en sangre), y el nivel de los que no sufrieron los ruidos es 15. Aparece una diferencia
significativa, que es 5, y por lo tanto concluimos que el ruido ejerce influencia causal.
Cuando aplicamos este diseño, estamos suponiendo que los niveles de estrés antes del ruido (premedidas)
son aproximadamente iguales en ambos grupos y que tienen en este caso el mismo valor 15, pues ambos
grupos fueron extraídos de la misma muestra, se suponen homogéneos entre sí y los sujetos fueron elegidos
al azar. De esta forma el grupo de control, al no haber sido expuesto a ruidos, seguirá manteniendo el valor
15 de estrés, pero no así el grupo experimental. Esquemáticamente, la situación sería así:
Grupo
Experimental
Control
Y antes
(15)
(15)
X
X
----
Y después
20
15
Cambio
d = 20-15 = 5
El valor 15 entre paréntesis indica que sólo suponemos dicho valor para ambos grupos antes de aplicar el
ruido, pues en realidad en este tipo de diseño no hemos tomado efectivamente las premedidas. Si tenemos
fuertes razones para suponer que las premedidas son iguales, no nos molestaremos en tomarlas, pero
puede ocurrir que tengamos alguna duda y, al medirlas, comprobamos que en realidad son bastante
distintas, como sería en el siguiente ejemplo hipotético:
U N
I V E R S
I D A D
D
E
A Q U
68
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
Grupo
Experimental
Control
Y antes
(20)
(15)
X
X
----
Y después
20
15
SALUD
Cambio
d = 20-15 = 5
Si las cosas ocurren así, entonces nos hemos equivocado al suponer que el ruido causa el estrés, ya que en
el grupo experimental el nivel de estrés antes y después del ruido es igual. Por lo tanto, cuando tenemos
suficientes razones para sospechar que las premedidas son distintas, debemos tomarnos la molestia de
medirlas, y entonces ya no estaremos utilizando el diseño de sólo después, sino cualquiera de los diseños
de antes y después.
En esta clase de diseños sí habrá de interesarnos tomar las premedidas y, cuando lo hacemos, pueden
suceder dos cosas: a) que las premedidas sean iguales, situación que es la más deseable porque de
entrada pone en el mismo nivel a todos los grupos respecto de la variable Y (estrés). Fueron grupos bien
elegidos y proseguimos el experimento con ellos sin cambiarlos; b) que las premedidas sean distintas entre
sí, en cuyo caso volveremos a seleccionar otros grupos que sean homogéneos respecto de sus premedidas,
a efectos de nivelarlos. Otra posibilidad sería continuar con los grupos originales desiguales, pero en esta
situación habremos de tener en cuenta sus diferencias al momento de la evaluación de los resultados
finales.
Antes de examinar los diseños de antes y después, demos un ejemplo de diseño de sólo después (Selltiz).
El problema que generó la investigación fue saber hasta qué punto la proyección de un film de guerra (X)
influía sobre la opinión de las personas sobre los temas bélicos (Y). Antes de la proyección del film al grupo
experimental, se partió de la base de que las personas de ambos grupos (experimental y de control) tenían
más o menos las mismas opiniones sobre la guerra, con lo cual no era necesario tomar las premedidas de Y.
Acto seguido se proyectaron varios films de guerra sólo al grupo experimental, y después se hicieron
encuestas sobre opiniones de temas bélicos a ambos grupos: si había diferencia significativa entre estas
opiniones, entonces se comprobaba la influencia causal de la proyección del film, y si no, no.
2) Diseño de antes y después con un grupo.- Es el diseño más sencillo en cuanto utilizamos un solo grupo:
el experimental. En él, medimos el estrés antes del estímulo sonoro (Y1), aplicamos este estímulo (X), y
voolvemos a medir el estrés después (Y2). Si hay diferencia significativa entre Y2 e Y1, entonces el ruido es
factor causal del estrés.
Selltiz da un ejemplo para el tipo de diseño 2. Se puede averiguar qué influencia tiene la frustración (X)
sobre la constructividad en el juego en los niños, para lo cual se ubican infantes con juguetes en una
habitación donde el investigador puede observarlos a ellos pero no estos a él. Los niños comenzarán a
jugar, y se evalúa luego de cierto tiempo el grado de constructividad que despliegan. Luego se los somete a
estímulos frustrantes (ocultarles los juguetes, mostrales juguetes más nuevos pero que no pueden tocar,
etc.) y se mide después nuevamente el grado de constructividad cuando sigan jugando para saber si hubo o
no alguna variación significativa. Este experimento resulta también útil para evaluar el grado de sadismo del
investigador.
La simplicidad de este diseño radica en que el investigador que lo utiliza supone que las distintas variables
extrañas que pueden actuar sobre el estrés están razonablemente controladas o anuladas por la simple
aleatorización, y no es necesario entonces el empleo de grupos de control. Sin embargo, si sospechamos
que esas variables sí están ejerciendo su influencia, entonces deberemos usar diseños más complejos, que
enseguida veremos. Entre estas variables extrañas hay dos que son particularmente importantes: la
influencia de la premedida y la interacción. Si creemos que la variable que interviene es solamente la
premedida, optaremos por realizar un experimento según el diseño de antes y después con grupos
intercambiables.
3) Diseño de antes y después con grupos intercambiables.- Se trata de un diseo especial para el control de
la influencia de la premedida de Y. el sólo hecho de tomar una premedida del estrés puede hacer aumentar
el estrés de la persona (por ejemplo por sentirse investigada). Por lo tanto habrá aquí dos factores
concurrentes que producen estrés: la premedida y el ruido. Si queremos eliminar la influencia de la
premedida recurrimos a un expediente muy simple: sencillamente no la tomamos. En el esquema general de
U N
I V E R S
I D A D
D
E
A Q U
69
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
los diseños experimentales bivariados se aprecia, efectivamente, que el grupo experimental no es
premedido: solamente es expuesto a X y luego posmedido.
Sin embargo, necesitamos conocer el valor de la premedida del grupo experimental, y entonces recurrimos a
un procedimiento también sencillo: le tomamos la premedida a otro grupo (grupo de control), el cual, por
haber sido tomado de la misma muestra que el grupo experimental, existe suficiente seguridad estadística
de que ambos grupos tendrán aproximadamente las mismas premedidas, o sea, el mismo nivel previo de
estrés. Por lo tanto el valor de la premedida del grupo de control (Y’1) podremos considerarlo como si fuese
el valor de la premedida del grupo experimental, con lo cual sólo nos resta comparar si ésta última y la
posmedida son o no iguales: si la diferencia se aproxima a cero, entonces el ruido no influye como causa, y
en caso contrario, sí. La única utilidad que entonces tiene aquí el grupo de control es la de proveernos de un
datos premedido.
Notemos también que en este tipo de diseño la diferencia ‘d’ se obtiene comparando una premedida con una
posmedida, en contraste con el diseño de sólo después donde comparábamos dos posmedidas.
Supongamos que queremos hacer una campaña publicitaria para vender relojes que funcionen con energía
solar. Si queremos saber si fue o no efectiva podemos hacer una encuesta antes de la campaña
preguntándoles a las personas sus preferencias en materia de relojes de distinto tipo, y luego otra encuesta
después de la campaña para ver si las preferencias cambiaron o no como consecuencia de la misma.
Pero, el sólo hecho de hacer una encuesta antes puede estar ya influenciando (influencia de la premedida)
en el sentido que las personas podrán poner mayor interés en la campaña posterior, con lo cual ésta ya no
será la campaña original (o bien la opinión previa puede influír en la opinión posterior por cierta tendencia de
las personas a responder siempre lo mismo). Para evitar esa influencia, la encuesta previa la hacemos con
personas de la misma población pero que vivan fuera del alcance de la campaña publicitaria, con lo cual la
encuesta posterior (posmedida) reflejará en el grupo experimental solamente la efectividad de la campaña,
sin la influencia de la encuesta previa. Este experimento es entonces un ejemplo de aplicación del diseño de
antes y después con grupos intercambiables.
4) Diseño de antes y después con un grupo de control.- Es muy similar al esquema de sólo después, con la
única diferencia que aquí hemos tomado las premedidas para asegurarnos de la igualdad de condiciones de
ambos grupos. Para que con este nuevo diseño podamos probar que X es causa de Y, deberán verificarse
simultáneamente dos condiciones: que d sea distinto de cero, y que d’ sea igual o muy próximo a cero.
Ejemplo:
Grupo
Experimental
Control
Y antes
15
15
X
X
----
Y después
20
15
Cambio
d = 20-15 = 5
d’ = 15-15 = 0
Este diseño nos sirve especialmente, entonces, para averiguar cómo son las premedidas entre sí de ambos
grupos, pero no permite controlar si hay o no influencia de la interacción, influencia de la premedida, u otras
influencias. Por lo tanto, lo aplicaremos cuando tenemos fuertes razones para pensar que todas estas
variables extrañas no están ejerciendo influencia significativa.
5) Diseño de antes y después con dos grupos de control.- El propósito central de este tipo de diseño es el de
controlar la influencia de la interacción, y entonces lo aplicamos cuando sospechamos su existencia. El
diseño puede medir también la influencia de la premedida; efectivamente, notemos que aquí la situación de
los grupos de control II y I es igual a la situación de los dos grupos del diseño 3, el cual servía precisamente
para el control de esta variable extraña.
Aclaremos el concepto de interacción. Supongamos que el hambre (X) produce agresividad (Y), como
pueden sugerirlo los saqueos a los supermercados en épocas de crisis. Si pudiésemos disponer de un
‘agresivómetro’, supongamos que el hambre produce una agresividad de 3. Por otro lado, otras
observaciones nos pueden sugerir que también la fatiga produce agresividad: si la película es muy larga el
público se puede enojar. Supongamos que aquí la fatiga produce agresividad 1. El sentido común puede
sugerirnos que, si los factores hambre y fatiga actúan conjuntamente, el sujeto responderá con una
agresividad 4 (3 por hambre y 1 por fatiga). Esquemáticamente:
U N
I V E R S
I D A D
D
E
A Q U
70
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
X
Hambre
Fatiga
Hambre + fatiga
SALUD
Y
Agresividad 3
Agresividad 1
Agresividad 4
Sin embargo, puede ocurrir que estos efectos no sean aditivos. Si un individuo está hambriento y encima
fatigado, probablemente no le quede mucha energía para ser agresivo, y entonces en estos casos podemos
obtener un valor 0.5 para su agresividad. Qué ha ocurrido? Las variables hambre y fatiga han interactuado, o
sea produjeron un efecto inesperado, no aditivo: la agresividad resultante fue mucho menor a la esperada,
aunque en otros casos los efectos pueden ser mayores que la simple suma, vale decir que al interactuar, las
variables potencien sus efectos como en el caso del consumo simultáneo de alcohol y drogas. El primero
produce daño cerebral 7 (una cifra cualquiera) y las segundas daño cerebral 9; pero, si ambos factores
actúan juntos, el daño cerebral no será 16 sino 30.
Definiremos entonces interacción como toda situación en la cual dos o más variables, por el solo hecho de
actuar conjuntamente sobre un efecto, producen una influencia no aditiva sobre éste, sea reduciéndolo, sea
potenciándolo. Se trata entonces de efectos combinados que van más allá de los simples efectos aditivos.
Otros autores dan definiciones similares. Una de ellas, por caso, afirma que entre dos variables ocurre
interacción cuando el efecto que ejerce una de ellas en la variable dependiente ‘cambia’ conforme los
valores que adquiere la otra, es decir, cuando la acción de una de las variables depende de cómo actúa una
segunda.
La consideración de la interacción puede tener gran importancia práctica. Piénsese, por ejemplo, en la
posibilidad de que dos tratamientos combinados (psicoterapia y farmacoterapia) puedan producir efectos
curativos que van más allá de la simple suma de los efectos curativos de cada tratamiento.
Blalock cita un ejemplo para comparar los efectos aditivos (que este autor y otros varios llaman ‘efectos
principales’) con los efectos de interacción. Las variables educación, sexo y raza determinan aditivamente el
ingreso mensual: 2000 dólares por tener título secundario, más 2000 dólares por ser varón, más 2000
dólares por ser blanco.
Sin embargo esta aditividad puede distorsionarse, o sea pueden aparecer efectos de interacción, como por
ejemplo cuando la diferencia de ingresos entre blancos y negros es pequeña para un bajo nivel educacional,
pero mayor en los altos niveles de educación. Así, si un blanco posee solamente título primario, su sueldo
por ser blanco se acercará más al sueldo de un negro con primaria y ganará en tal concepto sólo 500
dólares más (y no 2000). Están aquí interactuando las variables educación y raza produciendo un efecto no
aditivo sobre el ingreso mensual.
Traslademos ahora el concepto de interacción al diseño 5. En este caso lo que queremos averiguar es si hay
o no interacción entre la premedida (Y1) y la variable experimental (X), es decir, si producen o no un efecto
no aditivo sobre la posmedida (Y2). Por lo tanto, la sospecha estará recayendo solamente en el grupo
experimental, único grupo donde ambos factores actúan conjuntamente.
Para saber si existe o no interacción, primero averiguaremos los efectos que producen independientemente
Y1 y X, o sea, cuando actúan solos, lo que podemos saber mediante los grupos de control I y II
respectivamente. Vemos así que el diseño 5 hace posible la separación de la influencia de la variable
experimental de la influencia de la premedida, aún cuando haya interacción entre ellas. Aclaremos que en el
grupo de control II la premedida no fue efectivamente tomada (pues sólo nos interesa la influencia de X),
pero como necesitamos igualmente conocer su valor, simplemente la inferimos a partir de las premedidas de
los otros dos grupos, pudiendo ser un simple promedio de ellas. En el esquema general de diseños
experimentales bivariados, los paréntesis significan que se trata de una premedida inferida. Comparemos
ahora los siguientes dos ejemplos: uno donde no hay interacción y otro donde sí la hay.
U N
I V E R S
I D A D
D
E
A Q U
71
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
Cuadro A (sin interacción)
Grupo
Experimental
Control I
Control II
Y antes
15
15
(15)
X
X
---X
Y después
40
15
40
Cambio
d = 25
d’ = 0
d’’ = 25
Interacción
Y antes
15
15
(15)
X
X
---X
Y después
40
15
20
Cambio
d = 25
d’ = 0
d’’ = 5
Interacción
I = d – (d’ + d’’)
I = 25 – (0 + 25) = 0
Cuadro B (con interacción)
Grupo
Experimental
Control I
Control II
I = d – (d’ + d’’)
I = 25 – (0 + 5) = 20
El grupo de control I detecta si hay o no influencia de la premedida (pues allí no se aplica ruido y mucho
menos interviene la interacción entre premedida y ruido). Si comprobamos que efectivamente no existe esta
influencia (como en los cuadros A y B), cualquier diferencia entre las posmedidas del grupo de control II y el
grupo experimental será debida a la interacción (tal como ocurre en el cuadro B). En el caso de constatarse
la existencia de interacción, el experimento deberá complejizarse para poder ponderar su influencia según
qué valores asuman las variables interactuantes (pues puede ocurrir que para determinados valores la
interacción quede anulada, para otros potencie sus efectos y para otros los reduzca por debajo de lo
aditivamente esperable).
A partir de lo dicho fácil es darse cuenta que puede haber influencia de la premedida sin que haya
interacción (caso donde la premedida y X dan efectos simplemente aditivos), pero no puede haber
interacción sin influencia de la premedida (pues en estos diseños precisamente la interacción se establece
entre la premedida y X). En los cuadros A y B, observando los valores del grupo de control I nos damos
cuenta que no hubo influencia de la premedida, lo cual no significa que ésta pueda empezar a ejercer
influencia a propósito de su acción conjunta con X en el grupo experimental.
Muchas veces con sólo mirar los valores de los cuadros podemos saber intuitivamente si hubo o no
interacción, pero si queremos conocer cuantitativamente su valor preciso aplicaremos la fórmula de la
interacción (ubicada a la derecha de los cuadros A y B): a medida que el resultado se aproxime a cero, la
interacción será cada vez menor. Cuando el valor obtenido es cero, no la hay.
Selltiz cita un ejemplo de diseño 5, donde los investigadores trataron de averiguar si los cursos de
entrenamiento en relaciones humanas (X) influían o no sobre la información y opinión sobre temas de
relaciones humanas en las personas que hicieron dichos cursos. Se supuso que podía haber interacción
entre la premedida (encuesta previa al curso) y la variable experimental (curso), y entonces se utilizaron
otros dos grupos: uno hizo directamente el curso sin encuesta previa (grupo de control II), y el otro fue
sometido a esta encuesta previa sn hacer el curso (grupo de control I), con lo cual pudieron medirse esas
influencias en forma independiente.
6) Diseño de antes y después con tres grupos de control.- Además de medir la influencia de la interacción y
de la premedida, este diseño tiene la ventaja adicional de poder controlar la influencia de otras variables
extrañas desconocidas, tanto organísmicas (cambios madurativos, etc.) como situacionales (clima, etc) que
eventualmente puedan también estar ejerciendo su influencia.
Este sexto diseño es igual al anterior excepto que tiene agregado un grupo de control III, que es
precisamente el que nos permite averiguar si influyen o no las otras variables adicionales. En él volvemos a
encontrar una premedida inferida, o sea un premedida no tomada pero cuyo valor se supone similar a las
premedidas tomadas en los otros grupos. La necesidad de contar con este valor deriva del hecho que
necesitamos compararlo con la posmedida correspondiente para ver si existe o no una diferencia d’’’.
El razonamiento que debemos hacer entonces es el siguiente: sobre la posmedida del grupo de control III
nunca podrá ejercer su influencia ni la premedida ni la variable experimental, pues no fueron aplicadas, ni
U N
I V E R S
I D A D
D
E
A Q U
72
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
mucho menos la interacción entre ellas. Por lo tanto, cualquier diferencia que aparezca entre la premedida
inferida Y’’’1 y la posmedida Y’’’2 será debida a la influencia de las otras variables adicionales, lo cual nos
permite entonces detectar sus intervenciones.
En síntesis: los tipos de diseño experimental aquí examinados están destinados a probar si X es factor
causal de Y mediante el control de las variables adicionales. Estas últimas son fundamentalmente la
influencia de la premedida, la interacción, y otras posibles variables que pueda haber.
Cuando consideramos que las variables adicionales ya están controladas de antemano y suponemos que las
premedidas son iguales o controlables, aplicamos el diseño 1. Cuando no conocemos las premedidas y
creemos que son distintas, nos sacaremos la duda aplicando los diseños de antes y después 2 y 4. Cuando
sospechamos que además puede ejercer influencia la premedida, aplicamos el diseño 3. Cuando pensamos
que interviene la interacción, aplicamos el diseño 5 y finalmente, cuando creemos que además de la
premedida y la interacción intervienen otros factores que es preciso también controlar, nos decidiremos por
el diseño 6.
Cómo averiguar qué tipo de diseño fue aplicado en un experimento dado? Para saberlo podemos contar con
una regla práctica: si en el experimento no se tomaron premedidas, se aplicó el diseño 1, y si efectivamente
fueron tomadas, quedan los diseños 2 al 6. Si se trabajó con un solo grupo se usó el diseño 2, con tres
grupos el diseño 5 y con cuatro grupos el diseño 6. Restan los diseños 3 y 4, ambos con dos grupos.
Reconocemos la aplicación del diseño 3 si se tomó una sola premedida (al grupo de control), y fue usado el
diseño 4 si se tomaron las premedidas en ambos grupos.
b) Diseños experimentales multivariados
Además de estos diseños experimentales bivariados existen también los diseños experimentales
multivariados, también llamados múltiples o factoriales. En ellos, la variable dependiente Y sigue siendo una
sola, y lo único que aumenta es el número de variables independientes o experimentales (X1, X2, X3, etc),
pues lo que se busca investigar son varios posibles factores causales al mismo tiempo, con el objeto de
probar cuál o cuáles de ellos influyen como causa y en qué medida lo hacen.
Tales diseños multivariados se justifican por ejemplo cuando: a) no podemos aislar y controlar en la realidad
las distintas variables independientes, con lo que no nos queda otro remedio que considerarlas
conjuntamente mediante un diseño múltiple; b) cuando resulta menos costoso en tiempo y dinero tratar
conjuntamente todas las variables en lugar de hacer varios diseños bivariados separados (como X1-Y, X2-Y,
etc). Ejemplos de diseños multivariados son los siguientes:
Variables
independientes
experimentales
Variable
dependiente
o
Ejemplo 1
X1 = Número de
palabras a recordar
X2 = Nivel de ansiedad
Ejemplo 2
X1 = Variedad vegetal
X2 = Tipo de suelo
X3 = Clima
Y = Memoria
Y = Velocidad
crecimiento
de
Ejemplo 3
X1
=
Método
de
enseñanza
X2
=
Personalidad
profesor
X3
=
Proximidad
exámenes
Y = Rendimiento escolar
Estos diseños se complicarían si suponemos que existe interacción entre las variables experimentales
consideradas, pero no examinaremos aquí esa posibilidad.
Tomemos el ejemplo 3, en el cual queremos averiguar cómo influyen sobre el rendimiento escolar el método
de enseñanza, la personalidad del profesor y la proximidad de los exámenes. Para examinar todas estas
variables a la vez hay varias técnicas, de las cuales citaremos a modo de ejemplo la técnica del cuadrado
latino.
Antes de ser utilizado en la investigación experimental, el cuadrado latino era un simple entretenimiento que
en la época medieval reemplazaba a la televisión, sólo que hacía pensar. Consistía en disponer en una tabla
U N
I V E R S
I D A D
D
E
A Q U
73
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
cuadrada letras de tal forma que ninguna de ellas podía repetirse en ninguna columna –vertical- ni hilera –
horizontal-. Por ejemplo, si las letras eran A, B y C, el cuadrado latino se solucionaba del siguiente modo:
A
C
B
B
A
C
C
B
A
Aquí la letra A aparece sólo una vez en cualquier columna o hilera, y lo mismo sucede con las letras B y C.
Una vez resuelto, se intentarían luego pruebas más difíciles utilizando por ejemplo cuatro columnas, cuatro
hileras y cuatro letras, y así sucesivamente.
Con el cuadrado latino se investigan cuatro variables (tres independientes y una dependiente), y el número
de columnas o hileras guarda relación no con el número de variables sino con el número de categorías de
las mismas. Si queremos estudiar la influencia de tres variables independientes (método de enseñanza,
personalidad del profesor y proximidad de los exámenes) sobre la variable dependiente (rendimiento
escolar), y tomar tres categorías para cada una de esas variables, organizaremos el experimento sobre la
base del siguiente cuadrado:
Profesor A
Profesor B
Profesor C
Examen lejano
M1
M2
M3
Examen intermedio
M2
M3
M1
Examen próximo
M3
M1
M2
En este cuadrado quedaron formados nueve casilleros. En la práctica, esto significa que hemos tomado
nueve grupos de alumnos, y así por ejemplo el primer grupo está formado por alumnos que tienen el
profesor A, cuyos exámenes están lejanos, y con los cuales se utilizó el método de enseñanza M1, y así
sucesivamente con los demás grupos. Observemos que los números 1, 2 y 3, las tres categorías de la
variable método de enseñanza, han sido dispuestas de acuerdo al criterio del cuadrado latino: no se repite
ninguna cifra ni por hilera ni por columna. Esto resulta muy importante porque ‘mezcla’ todas las variables y
categorías lo suficiente como para que no haya predominio de ninguna en especial en el conjunto de los
nueve grupos. Así por ejemplo, si en lugar de haber puesto en la primera hilera horizontal M1, M2 y M3
hubiésemos puesto M1, M1 y M1, en esa hilera habría un neto predominio del método de enseñanza 1 y del
profesor A. En cambio, con la disposición del cuadrado latino se procura que no aparezcan estos
predominios.
Obviamente el cuadrado no contempla todas las posibilidades de combinación, pues faltan por ejemplo los
grupos con profesor A, cercanía de exámenes y método de enseñanza 1. Esta y otras posibilidades fueron
anuladas para evitar el predominio anteriormente citado, y los nueve grupos seleccionados bastan para
poder emprender la investigación con ellos sin considerar los 27 posibles, con el consiguiente ahorro de
esfuerzo, tiempo y dinero.
El hecho de que no aparezcan los predominios indicados tiene un motivo fundamental. Siguiendo con el
ejemplo anterior, si en la primera hilera aparecen predominando el profesor A y el método de enseñanza 1,
un muy alto rendimiento escolar en esos tres grupos no sabríamos si atribuirlo al profesor o al método de
enseñanza, con lo cual habríamos desvirtuado el propósito del experimento, a saber, conocer el grado de
influencia causal de cada uno de los factores considerados.
Una vez que hemos seguido durante meses la evolución de los nueve grupos formados, hipotéticamente
podemos haber obtenido los siguientes valores de rendimiento escolar:
Profesor A
Profesor B
Profesor C
U N
Examen lejano
9
6
3
I V E R S
I D A D
Examen intermedio
5
1
8
D
E
A Q U
74
I N
O
B O L
Examen próximo
2
8
4
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
Estos valores no son frecuencias sino índices de rendimiento escolar, que pueden resultar por ejemplo del
promedio de calificaciones de los alumnos de cada grupo. Por ejemplo, 9 fue el promedio de calificaciones
obtenidos por el grupo con profesor A, examen lejano y método de enseñanza 1.
Cómo analizamos esta información? El primer lugar podemos comenzar observando dónde están las
calificaciones más altas (8-8-9), y vemos que coinciden justamente con los grupos donde se aplicó el método
de enseñanza 1. En segundo lugar podemos observar dónde están las calificaciones más bajas (1-2-3), que
aparecen en los grupos donde se usó el método de enseñanza 3. Ambas observaciones nos sugieren que el
factor método de enseñanza es muy importante para el rendimiento escolar, y además que las otras dos
variables tienen escasa influencia, ya que por ejemplo tanto en los grupos con bajas calificaciones como en
los de altas calificaciones, existieron diversos profesores y diversos grados de proximidad temporal al
examen. Además, por ejemplo, cada profesor tuvo alumnos con rendimientos muy disímiles en sus
respectivos tres grupos.
Los resultados de la investigación también podrían haber sido estos otros:
5
4
4
5
9
4
Caso A
1
1
2
6
5
7
6
5
6
Caso B
6
5
6
En el caso A podemos sacar dos conclusiones importantes: primero, que el rendimiento escolar aumenta
notablemente con la feliz combinación del profesor C que imparte el método de enseñanza 3 lejos de los
exámenes (promedio de calificaciones 9), con lo cual pueden organizarse las clases en un colegio con estos
criterios; y segundo, que la proximidad de los exámenes disminuye notablemente el rendimiento escolar,
pues allí las calificaciones fueron bajas (1-1-2) en comparación con las calificaciones de los otros grupos.
En el caso B el análisis de los datos nos revela que ninguno de los tres factores es más importante que el
otro, ejerciendo todos ellos una influencia más o menos igual, que hasta incluso podría ser nula. En el
análisis de los datos es tan importante darse cuenta qué nos dicen como qué no nos dicen, y así, el caso B
no nos informa acerca del porqué de las calificaciones regulares (5-6-7), lo cual puede atribuírse a alguna
variable contextual como por ejemplo la edad de los alumnos: en la adolescencia, se piensa en cualquier
cosa menos en estudiar.
U N
I V E R S
I D A D
D
E
A Q U
75
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
PROGRAMA DE CONTROL DE LA CALIDAD
WORK PAPER # 10
UNIDAD O TEMA: 9. PRUEBAS DE ESPUREIDAD
TITULO: Pruebas
FECHA DE ENTREGA:
Tanto los diseños experimentales bivariados como los múltiples examinados precedentemente estaban
destinados a probar que uno o varios factores eran causa de Y. Podemos llamar a estos diseños, entonces,
pruebas de confirmación, ya que con ellos el científico busca confirmar su sospecha de la existencia de
causalidad, lo cual no significa que siempre lo consiga.
Pero otras veces lo que el científico sospecha es que cierto factor X en realidad ‘no’ es factor causal de Y, y
entonces deberá emprender una prueba de refutación. Las pruebas de espureidad son de este tipo y buscan
demostrar que, a pesar de las apariencias, X no es causa de Y por existir otro factor que podría ser la
verdadera causa. La prueba de espureidad tiene la estructura de un experimento crucial, donde se busca
decidir entre dos hipótesis alternativas y donde una de ellas debe quedar refutada. La diferencia está en que
en el experimento crucial se comparan dos hipótesis mutuamente excluyentes (esto es, lógicamente
contradictorias), cosa que no es indispensable en una prueba de espureidad donde eventualmente puede
ocurrir que ambas hipótesis queden refutadas.
Podemos entender una prueba de espureidad como un diseño multivariado, puesto que en ellas debemos
considerar la influencia sobre Y de al menos dos variables que funcionan como independientes: la variable
de la cual sospechamos que no es causa, y la variable de la cual sospechamos que sí lo es. Esta última se
la considera frecuentemente variable adicional mientras no se pruebe fehacientemente el vínculo causal, y
entonces la prueba de espureidad sería bivariada. De cualquier manera que se la conciba, la cuestión no
resulta relevante a los efectos de comprender su esencia.
Tres ejemplos nos ilustrarán sobre algunas formas en que pueden presentarse las pruebas de espureidad.
a) Ejemplo 1.- Una investigación descriptiva nos reveló que existía una alta correlación entre el estrés y el
tiempo en que las personas estaban fuera del hogar. En un primer momento se sospechó que el estrés se
debía a esas prolongadas ausencias, pero por uno u otro motivo fue creciendo en el investigador la
sospecha de que el tiempo de alejamiento (variable independiente) no era la causa del estrés (variable
dependiente) sino el tipo de ocupación de la persona (variable adicional), y que si las dos primeras estaban
altamente correlacionadas era porque sobre ellas actuaba independiente y simultáneamente el tipo de
ocupación (o sea, el tipo de ocupación influye tanto sobre el estrés como sobre el tiempo de alejamiento del
hogar). Esquemáticamente:
Tipo de ocupación
z
Tiempo de ausencia
U N
I V E R S
X
I D A D
Estrés
Y
D
E
A Q U
76
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
En este esquema las dos flechas llenas indican que efectivamente Z es causa de X y de Y, y la flecha
punteada indica que la relación X-Y es espúrea, es decir, aparenta ser un vínculo causal pero no lo es.
Examinemos ahora cómo se ha procedido para llegar a esas conclusiones.
La alta correlación existente entre X e Y, que había hecho suponer al investigador que existía un vínculo
causal, surgió originalmente a partir de la lectura del cuadro siguiente:
% de estresados
80%
60%
Más tiempo fuera del hogar
Menos tiempo fuera del hogar
Una vez que se afianzó la creencia de que este vínculo sólo tiene apariencia de causal pero en realidad no
lo es (relación espúrea), y de que la causa parecía ser en realidad el tipo de ocupación, el investigador
procedió a recoger los datos en un segundo cuadro pero, esta vez, incluyendo la variable adicional Z para
ver si se producía algún cambio:
Ejecutivos
No ejecutivos
% de estresados
Más tiempo fuera del hogar
81%
62%
Menos tiempo fuera del hogar
78%
61%
Este nuevo cuadro –trivariado- confirma la espureidad del vínculo original X-Y. En efecto, aquí se aprecia
que la diferencia en el porcentaje de estresados entre los que están más tiempo y menos tiempo fuera del
hogar (81% y 78%, o bien 62% y 61%), no es significativa si la comparamos con la diferencia en el
porcentaje de estresados entre los ejecutivos y los no ejecutivos (81% y 62%, o bien 78% y 61%), todo lo
cual indica que el estrés no es debido al mayor o menor tiempo fuera del hogar sino al tipo de ocupación.
Más concretamente, vemos que la diferencia en cuanto a porcentaje de estresados entre ejecutivos y no
ejecutivos es del 19% (que resulta de restar 81% y 62%), diferencia que es grande en comparación con la
diferencia en el porcentaje de estresados entre los que están más tiempo y menos tiempo alejados del
hogar, que es apenas del 3% (resultado de restar 81% y 78%).
b) Ejemplo 2.- Blalock (17) cita un ejemplo donde se constató una alta correlación entre la religión y la
preferencia política, lo que llevó a pensar que era la religión no que determinaba a ésta última. No obstante,
se sospechó que en realidad la influencia provenía del tipo de ocupación, o sea de si las personas eran
empleados u obreros. El esquema correspondiente es:
Tipo de ocupación
z
Religión
X
Preferencia política
Y
Los datos que llevaron a la suposición de un vínculo causal entre X e Y habían surgido del cuadro siguiente,
donde figuran por igual obreros y empleados sin discriminar, ya que aún no se sospechaba la influencia del
tipo de ocupación:
Protestantes
62%
38%
Republicanos
Demócratas
U N
I V E R S
I D A D
D
E
A Q U
77
Católicos
38%
62%
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
Cuando se empezó a pensar en la espureidad de este vínculo entre religión y preferencia política se
construyeron dos nuevos cuadros con la misma muestra de sujetos que había servido para el primero: uno
con empleados solamente y otro con sólo obreros, siendo los resultados los siguientes.
Empleados
Republicanos
Demócratas
Protestantes
56%
14%
Católicos
24%
6%
Obreros
Republicanos
Demócratas
Protestantes
6%
24%
Católicos
14%
56%
Estos datos muestran que efectivamente el vínculo X-Y es espúreo, y además agrega elementos de juicio
favorables a la hipótesis del tipo de ocupación como factor causal. Este segundo ejemplo nos muestra
además que el cuadro trivariado del primer ejemplo puede ser desglosado en dos cuadros bivariados, uno
para cada categoría de la variable adicional.
Las pruebas de espureidad pueden establecer inequívocamente que la relación X-Y no es causal, pero
algunas veces no alcanzan para probar simultáneamente que Z sea la causa real de Y, con lo cual nos
vemos obligados a recurrir a algún tipo de diseño experimental bivariado para llevar a cabo esta última
prueba de confirmación, o bien a realizar una nueva prueba de espureidad si sospechamos de una nueva
variable adicional Z’, como factor causal real.
c) Ejemplo 3.- Hyman (18) propone un ejemplo donde la variable adicional no es una variable antecedente,
como en los dos ejemplos anteriores, sino una variable interviniente. Es decir:
X
Nivel de educación
z
Y
Interés en política
Intención de voto
Realizando la lectura igual que en el primer ejemplo, el cuadro I fue el que originalmente sugirió que el nivel
de educación es causa de la intención de votar, mientras que el cuadro II mostró finalmente la existencia de
un factor causal más directo, que fue el interés en política:
Cuadro I
Secundario
Primario
Cuadro II
Mucho interés
Moderado interés
Poco interés
Intención de voto
92%
82%
Intención de voto
Secundario
99%
93%
56%
Primario
98%
90%
59%
Podríamos aquí argumentar que en realidad no estamos refutando X ya que, si bien indirecta, la causa sigue
siendo la causa de Y. Sin embargo se puede considerar por simple convención que la causalidad indirecta
es irrelevante y, por tanto, una prueba de espureidad considerará la refutación en un sentido muy amplio, es
decir no sólo implicará declarar falsa una hipótesis sino también no relevante.
U N
I V E R S
I D A D
D
E
A Q U
78
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
Correlación y causalidad.- La importancia que tienen las pruebas de espureidad, sea cual fuere la forma que
adopten, radica en que hay muchas situaciones donde dos variables aparecen estadísticamente
correlacionadas, pero que sin embargo, carecen de todo vínculo causal.
Evidentemente puede haber una alta correlación entre el hecho de que un profesor comience una clase a las
20 horas y otro, en la misma aula, lo haga a las 22 horas, pero ello no significa que la primera situación sea
la causa de la otra. En estos casos, ambas variables dependen de una tercera, que es la organización
horaria de la universidad.
De la misma manera, hay una alta correlación entre los hechos “amanece en Buenos Aires” y “amanece en
Chile”, ya que cada vez que amanece en Buenos Aires, poco después también amanece en Chile. Sin
embargo, nadie se animaría a decir que lo primero es la causa de lo segundo. La tercera variable de la cual
dependen ambas es, en este caso, la rotación de la tierra.
Existe cierta tendencia muy humana a considerar que las simples correlaciones estadísticas indican una
relación causal. Antiguamente, se pensaba que cuando ocurrían ciertos fenómenos como un viento que
soplaba del este, el resultado era que a los nueve meses se producía el nacimiento de un hijo, ya que se
había atendido a la correlación viento-nacimiento. Obviamente se trata este de un caso de correlación sin
causalidad, ya que el viento, si bien podía estar asociado por un nacimiento, nadie hoy en día diría que el
viento es la causa del mismo. Y es que a nadie se le había ocurrido por entonces relacionar el coito con el
nacimiento: hoy sabemos que la relación coito-nacimiento no sólo es una correlación sino que además
también es un vínculo causal. Después de todo, dicen algunos chistosos, el Día del Padre se cumple nueve
meses antes que el Día de la Madre.
U N
I V E R S
I D A D
D
E
A Q U
79
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
PROGRAMA DE CONTROL DE LA CALIDAD
WORK PAPER # 11
UNIDAD O TEMA: 10. EL INFORME DE INVESTIGACION
TITULO: Pruebas
FECHA DE ENTREGA:
Como toda palabra que termina en ‘ción’, el término ’investigación’ puede designar la acción o el efecto de
esa acción. Por lo tanto, la investigación puede referirse a la acción de investigar, o al efecto de esa acción,
es decir, a la investigación ya realizada. En el primer caso la investigación es concebida como un proceso o
actividad, y en el segundo caso como un resultado.
En nuestros capítulos anteriores hemos descripto la investigación como proceso, mientras que ahora
abordaremos la cuestión de cómo llegar a la investigación como resultado. Así como la investigación como
proceso se materializa en una serie de acciones concretas de los investigadores (administrar encuestas,
hacer cálculos, buscar bibliografía, manipular estímulos para ratas, etc.), la investigación como resultado se
materializa en un discurso verbal, como por ejemplo, típicamente, una comunicación científica (papel,
monografía, informe de investigación, artículo, libro, etc.).
En efecto, una vez que el investigador llevó a cabo su estudio exploratorio, descriptivo y/o explicativo, puede
tener interés en comunicar sus resultados a la comunidad científica nacional o internacional, y entonces
emprende la última tarea, la redacción del informe final, que habitualmente aparecerá en las revistas
especializadas como un artículo científico, o será leído en algún congreso, o, si es ampliado y profundizado,
tomará la forma de un libro.
El intercambio de información entre los científicos es importante porque cualquiera de ellos puede saber qué
se investigó y qué no se investigó sobre tal o cual tema en el mundo, lo que a su vez permite evitar repetir
experimentos, inventar hipótesis ya inventadas, o disponer de nuevas fuentes de inspiración para continuar
investigaciones o plantear nuevos problemas e hipótesis.
Todo informe final contiene tres partes esenciales: el título, el abstract y el informe propiamente dicho. Este
último se resume en el abstract y el abstract, a su vez, queda resumido en el título. El título es tan importante
para el informe como el nombre y apellido puede serlo para identificar a una persona, sólo que el nombre y
el apellido nos dicen poco sobre ella.
Aclaremos la diferencia entre el resumen del informe, y las conclusiones que suelen figurar al final del
mismo.
a) La conclusión hace referencia a las consecuencias más importantes de la investigación realizada, sea que
consistan en los nuevos problemas que plantea, en las soluciones prácticas que pueda ofrecer, en su
repercusión para la ampliación, la reconsideración o la refutación de las teorías científicas establecidas que
sirvieron de marco de referencia a la investigación, etc. b) Mientras una conclusión adelanta consecuencias,
un resumen comprime información. El resumen es un texto que reduce el artículo a las ideas principales
dejando de lado las secundarias, y permite al lector darse una idea de su contenido en un tiempo bastante
más breve. Un resumen es una síntesis analítica, una conclusión es una síntesis dialéctica. A veces se
emplea también la palabra ‘abstract’, aunque generalmente ésta se aplica a un resumen algo más lacónico y
ubicado al comienzo del artículo.
Esta organización del informe en tres partes facilita enormemente su búsqueda en el inmenso océano de
información que circula en Internet o en las bibliotecas. Así, si lo que buscamos es por ejemplo información
sobre las relaciones entre familia y drogadicción, no nos veremos obligados a leer todos los informes en su
U N
I V E R S
I D A D
D
E
A Q U
80
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
totalidad, sino solamente sus títulos. Sobre 3000 títulos seleccionados se podrán elegir 300, de los cuales
leeremos solamente los abstracts. Una nueva selección en función de estos últimos finalmente, podrá
conducirnos a la selección de 30 informes, que sí podremos leer con mayor detenimiento.
El informe propiamente dicho no necesita obligatoriamente explicar todas las vicisitudes, marchas y
contramarchas de la investigación, siendo suficiente explicar en forma clara pero rigurosa los objetivos de la
investigación emprendida, las conclusiones obtenidas, los elementos de juicio que las avalan y las técnicas
empleadas en la investigación, el tipo de diseño, las características de los instrumentos de medición
utilizados, etc. Incluso la exposición puede ser amena sin que por ello el informe deba transformarse en un
artículo de divulgación científica, más destinado a al público general que al público especializado. Además,
un texto científico tiene ciertas características que no tiene un texto literario como una novela o una poesía,
ya que su finalidad primaria no es la de expresar estéticamente sentimientos o dar rienda suelta a la
fantasía, sino la de comunicar información.
En este sentido, consignemos finalmente algunas cuestiones acerca del estilo. La comunicación de los
resultados de una investigación científica puede adoptar dos formas: oral o escrita, las que determinarán dos
estilos diferentes.
El estilo oral es más coloquial e informal, y el discurso no suele estar tan organizado como en un material
escrito, donde generalmente se ha cuidado de utilizar un lenguaje más riguroso y de estructurar las ideas en
forma más coherente, como por ejemplo mediante el empleo de títulos.
El estilo oral está estructurado temporalmente, porque las palabras pronunciadas tienen duración, de aquí la
utilización de muletillas del tipo "ahora veremos..." o "si nos queda tiempo...", etc. En cambio, el estilo escrito
está organizado espacialmente, porque las palabras escritas ocupan un lugar físico (en el papel o en la
pantalla de la computadora). Por ello, las muletillas típicas son, por ejemplo, "más arriba dijimos", o "aquí
veremos...", etc.
Ejemplo típico de empleo del estilo oral son las clases. Con el tiempo, estas clases podrán transformarse en
discurso escrito: apuntes impresos, artículos científicos, libros, etc. Para ello, suelen antes pasar por una
etapa intermedia: la clase desgrabada, que, si bien es escrita, mantiene la estructura temporal, el lenguaje
poco riguroso y la organización informal.
Los estilos escritos pueden adoptar, por su parte, dos formas, según sus destinatarios naturales. Por un lado
encontramos el estilo académico, presente en informes en simposios, artículos de revistas especializadas,
etc, y están destinados a otros científicos o colegas. Por otro lado, como quedó dicho, encontramos el estilo
periodístico, tal como puede aparecer en diarios o revistas de interés general o de divulgación científica. Sus
destinatarios son el público profano, y por ello el lenguaje empleado no es tan riguroso y, con frecuencia,
más llamativo e impactante.
U N
I V E R S
I D A D
D
E
A Q U
81
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
PROGRAMA DE CONTROL DE LA CALIDAD
WORK PAPER # 12
UNIDAD O TEMA: 11.
TITULO: RESUMEN
FECHA DE ENTREGA:
La tarea central de la investigación científica consiste en proponer explicaciones acerca de la realidad
(hipótesis), y luego probar sus consecuencias empíricamente. El presente texto trata acerca de los pasos
concretos que habitualmente da el científico cuando realiza una investigación en ciencias sociales.
Esta tarea comienza con un problema solucionable que se plantea el científico. Para poder resolverlo, se
traza un plan llamado esquema de investigación, consistente en recolectar, organizar y analizar datos
combinándolos entre sí, con la intención de hallar una respuesta al problema original. Hay varios tipos de
esquemas: experimentales, no experimentales, de laboratorio, de campo, etc, aunque los más relevantes a
los efectos de la organización de este texto son aquellos que coinciden con las tres etapas de la
investigación científica: los esquemas exploratorio, descriptivo y explicativo.
En el estudio exploratorio el científico buscará información para compensar su desconocimiento del tema y
familiarizarse con él. La actitud deseable es la flexibilidad en la selección de la información, y la tarea central
es la recolección de datos mediante observación, cuestionarios, entrevistas, etc. La exploración culmina con
la selección de una serie de factores o variables ahora considerados relevantes. Antes o después del estudio
exploratorio el científico podrá o no haber formulado alguna hipótesis preliminar para comenzar a dar
respuesta al problema que originó la investigación.
En la investigación descriptiva se comienza a trabajar con las variables seleccionadas en la etapa anterior.
Cada una de ellas se categoriza y operacionaliza, y luego se procede a obtener datos de una muestra
seleccionada, organizando la información en tablas, medidas estadísticas o gráficos. A continuación se
procede al análisis de los datos o análisis de correlación, con el fin de determinar si hay o no asociación
estadística entre las variables consideradas. A partir de aquí el investigador culmina su estudio descriptivo
en cualquiera de dos caminos: o bien emprende un análisis de regresión (con el único fin de poder predecir
acontecimientos sobre la base de la correlación constatada), o bien deja planteada la posibilidad de que
dicha correlación implique un vínculo causal (es decir, esboza una hipótesis causal), o también que, a pesar
de esa correlación, no hay tal vínculo.
En la etapa explicativa, el científico intentará probar o bien que el vínculo causal existe (prueba de
confirmación), o bien que no existe (prueba de refutación). Para las pruebas de confirmación se suelen
utilizar diseños experimentales bivariados (de los cuales explicamos seis tipos) o multivariados (de los
cuales explicamos el cuadrado latino). Respecto de las pruebas de refutación, hemos mencionado algunos
ejemplos de pruebas de espureidad.
Cuando el investigador concluye su tarea en cualquiera de las tres etapas, suele confeccionar un informe
para dar a conocer su indagación a la comunidad científica con el fin de evitar repeticiones, trazar
comparaciones y servir como fuente de inspiración de nuevos trabajos.
Para quienes estén interesados en entender cuáles son concretamente los pasos que sigue una
investigación típica en ciencias sociales, hemos también incluido en este texto un plan orientativo que
describe, mediante un ejemplo, las etapas de la misma.
Finalmente, hemos también incluido una introducción a la estadística y a la medición, dos herramientas
indispensables de la investigación. La estadística nos permite en una primera etapa organizar y analizar una
U N
I V E R S
I D A D
D
E
A Q U
82
I N
O
B O L
I V
I A
FACULTAD DE CIENCIAS DE LA
SALUD
gran cantidad de información (estadística descriptiva), y luego extender estas conclusiones más allá del
restringido ámbito de los datos ya conocidos (estadística inferencial). Por su parte, la medición es un
procedimiento que nos permite conocer cómo varían los fenómenos en el mundo real tanto en calidad como
en cantidad, lo cual es muy importante porque es gracias a que existen variaciones que dependen de otras
variaciones, que podemos organizar nuestro conocimiento del mundo.
U N
I V E R S
I D A D
D
E
A Q U
83
I N
O
B O L
I V
I A
Descargar