INSTITUTO VERACRUZANO DE EDUCACION SUPERIOR SEDE: NOGALES

Anuncio
INSTITUTO VERACRUZANO DE
EDUCACION SUPERIOR
SEDE: NOGALES
LICENCIATURA EN EDUCACION
DEPORTIVA
PARADIGMAS DE LA
INVESTIGACION
L.E.P. MARTHA ELENA HERNANDEZ
GOMEZ
PARADIGMAS DE LA INVESTIGACION
INTRODUCCION
La asignatura en el mapa curricular de la Licenciatura en Educación Deportiva, se
ubica en el eje de formación investigativo, justificando su presencia la necesidad
permanente de actualización y adquisición de herramientas que permitan mejorar el
desempeño docente. Esto constituye en la actualidad un tópico que ninguna institución
de Educación Superior puede soslayar, ya que debe ofrecer a los futuros profesionales
conocimientos que respondan a las necesidades e intereses en el ámbito educativo.
ENFOQUE
Desde que el hombre ha tomado conciencia del mundo el conocimiento se generó
brindando las herramientas necesarias para desarrollar sistemas que controlaran las
fuerzas ciegas de la naturaleza para su beneficio, a lo largo del tiempo el conocimiento
ha evolucionado fundamentado en la concepción objetiva del mundo, por tanto tantas
escuelas de pensamiento han surgido y otras han decaído, sin embargo hoy en día es
menester alejarse del eclecticismo y escolasticismo que mayormente confunde y
enreda la conciencia de los hombres por construir su devenir. Es en este sentido que
la construcción del conocimiento no puede bajo ningún momento alejarse de la
dialéctica de la naturaleza, si bien la revisión de los diferentes paradigmas de
investigación es importante revisar sólo es para perfeccionar la metodología científica
de la construcción de nuevos conocimientos que eleven el nivel de instrucción del
especialista en educación deportiva.
Objetivo General
Analizar los diferentes métodos de investigación bajo diferentes paradigmas
filosóficos, la metodología empleada en la construcción de conocimiento y su
vinculación con el deporte y la actividad física.
Unidad I: “Aproximación de los métodos de investigación”
Identificar las generalidades de los métodos de la investigación científica en función de
diferentes paradigmas filosóficos.
TEMARIO UNIDAD I
1.1 Carácter científico general y la especificidad del método filosófico
1.2 Métodos de la investigación científica
1.3 Métodos axiomáticos, matemáticos, cibernéticos y semióticos del conocimiento
científico
OBJETIVOS ESPECIFICOS
1
2
3
Señalar el carácter científico y la especificidad del método filosófico como
paradigma de creación de conocimiento.
Reflexionar sobre la fundamentación general de los métodos de investigación
científica.
Comprender las generalidades de los métodos matemáticos, cibernéticos y
semióticos del conocimiento
Unidad II: “La metodología de la investigación”
Distinguir la metodología de la investigación como herramienta fundamental en la
construcción de conocimiento científico.
TEMARIO UNIDAD II
2.1 Planteamiento del problema y marco teórico
2.2 La hipótesis de trabajo.
OBJETIVOS ESPECIFICOS
1
2
3
Advertir el procedimiento de la estructuración del planteamiento del problema y
marco teórico como fases iniciales del proceso investigativo.
Dirigir la estructuración adecuada del diseño de la hipótesis y estructura de la
muestra en un proceso investigativo.
Advertir la estructura de la recolección de datos, análisis e interpretación de los
datos como etapas finales del proceso investigativo.
Unidad III: “La investigación en la educación deportiva”
Establecer la relación fundamental de la investigación para la creación de
conocimientos especializados en actividad física y deporte.
TEMARIO UNIDAD III
3.1 La investigación en el deporte y la actividad física
3.2 Los ejes de investigación de la educación deportiva
3.3 Estructuración de investigaciones en la educación deportiva
OBJETIVOS ESPECIFICOS
1
Señalar la relación fundamental del deporte y la actividad física fundamentada en
los principios científicos técnicos.
Criterios de Evaluación
Evidencia (s) de
Criterios de
desempeño
desempeño
Ensayo al término
Plasma las
de cada unidad
reflexiones de un
determinado tema,
utilizando sus
propias palabras
Ámbito (s) de
aplicación
Extra clase
Porcentaje
15%
Participaciones
Explica sus
opiniones y defiende
sus argumentos
Aula
10%
Examen escrito
Evaluación al
término de cada
unidad
Aula
50%
Extra Clase
25%
Antología Individual Plasmar los
(Trabajo Final)
contenidos
temáticos de la
asignatura
Para la acreditación de esta asignatura se necesita como mínimo 85 % de asistencias
a las sesiones presenciales, y con el 75 % de los trabajos e indicadores requeridos en
clase y extraclase.
ANTOLOGIA
Unidad I: “Aproximación de los métodos de investigación”
Identificar las generalidades de los métodos de la investigación científica en función de
diferentes paradigmas filosóficos.
TEMARIO UNIDAD I
1.1 Carácter científico general y la especificidad del método filosófico
1.2 Métodos de la investigación científica
1.3 Métodos axiomáticos, matemáticos, cibernéticos y semióticos del conocimiento
científico
1.1Carácter científico general y la especificidad del método filosófico
Método
Se tiene un método cuando se sigue un cierto camino con el objetivo de alcanzar
un cierto fin, propuesto de antemano como tal. Este fin puede ser el conocimiento o
puede ser también un fin humano o vital, como por ejemplo, la felicidad.
Durante un tiempo se consideraba que los problemas relativos al método eran
exclusivos de la metodología, como parte de la lógica que consideraba las formas
particulares del pensamiento. Hoy día ya no se acepta esta posición, pues las
cuestiones relativas al método rozan no sólo problemas lógicos, sino también
epistemológicos y hasta metafísicos.
Una de las cuestiones más generales con respecto al método es la relación que
cabe establecer entre el método y la realidad que se trata de conocer. Es frecuente
estimar que el tipo de realidad que se aspira a conocer determina la estructura del
método a seguir. Por otro lado, ha sido aspiración muy frecuente la de hallar un
método universal aplicable a todas las ramas del saber y en todos los casos posibles.
Descartes, en su Discurso del método indica que las reglas metódicas propuestas eran
reglas de invención o de descubrimiento que no dependen de la particular capacidad
intelectual del que la usa.
Puede hablarse de métodos más generales, como el análisis, la síntesis, la deducción,
la inducción, etc.; y de métodos más especiales, esto es, los determinados por el tipo
de objeto a investigar o la clase de proposiciones a descubrir. También se puede
hablar de métodos racionales en contraposición con métodos intuitivos.
La filosofía se ocupa no sólo de cuestiones relativas a la naturaleza del método,
sino que también se pregunta si hay o no algún método más adecuado que otros para
el propio filosofar. Hay tres métodos filosóficos fundamentales, que dan origen a un
tipo peculiar de filosofía: método dialéctico (Platón, Hegel...) que consiste en suprimir
las contradicciones; método logístico (Demócrito, Descartes, Leibniz, Locke) que
consiste en afirmar la existencia de principios y en deducir a partir de ellos el resto; y
método de indagación (Aristóteles, Bacon...), que consiste en usar una pluralidad de
métodos, cada uno de ellos adecuado a su objeto.
Método hipotético-deductivo
El método más amplio y general de todas las ciencias que proceden
inductivamente, es decir, que van de lo particular a lo general, es el método hipotéticodeductivo, instaurado por Galileo y perfeccionado por Newton, mediante una síntesis
de los procedimientos de Bacon y Galileo.
Hay que precisar antes de describir la fases principales de este método que un
empirismo radical, pura experiencia sin marco teórico de referencia, sin una previa
hipótesis anticipatoria de lo que se espera que ocurra, no puede considerarse hoy día
una metodología científica. Además hay que advertir que la ciencia es una aventura,
una búsqueda que abre caminos incluso más allá de lo previsto. Esta característica es
lo que se denomina predictibilidad y consiste en el hecho de que gracias a la
utilización del método científico, las teorías nuevas producen predicciones no hechas
antes. Sin un supuesto previo (hipótesis) no se puede buscar (investigar); es a partir
de éstas como se generan caminos, predicciones, que siendo coherentes con dichas
teorías no se esperaban.
Las fases principales del método hipotético-deductivo son la observación, la
construcción de hipótesis, deducción de consecuencias a partir de la hipótesis,
contrastación empírica de los enunciados y formulación de leyes científicas.
La primera fase del método hipotético-deductivo es la observación. Con la
observación se trata de partir de la experiencia de los sentidos, de la observación
sensible de los hechos. La observación consiste en la simple apreciación de un hecho
u objeto cualquiera que aporta datos directos acerca de un hecho natural o de un
aspecto cualquiera de la realidad.
La observación puede ser de un doble tipo: espontánea o controlada. La
observación es espontánea cuando recoge los datos que se producen de un modo
espontáneo en la naturaleza, aunque ateniéndose a unos cánones de exactitud,
completitud y fiabilidad. La observación es controlada cuando se funda en resultados
experimentales cuyas variables se controlan en el experimento. En todo caso, la
observación absolutamente neutral es imposible ya que tanto la observación como la
experimentación requieren instrumentos y operaciones de medición, que condicionan
inevitablemente los resultados. Se ha dicho muchas veces que no existen hechos
puros sino que toda constatación de hechos se hace desde un marco teórico, es decir,
se trata de algo así como unas gafas con cristales de color que hacen que la
observación esté teñida por la coloración del cristal. Pero a pesar de todo la ciencia
debe proceder a partir de esta observación, espontánea o controlada, para tener datos
previos que le sirvan de punto de partida, es decir, la observación están en la base de
todo conocimiento que pretenda ser científico ya que el científico formula su hipótesis
en base a explicar los hechos observados.
La segunda fase del método hipotético deductivo es la construcción de hipótesis
explicativas. La palabra hipótesis deriva etimológicamente de lo puesto (thésis) por
debajo, en la base (upó) significando que se establece una suposición para la
resolución de un problema, es decir, la hipótesis es un enunciado que, si se cumpliera,
permitiría entender el evento real problemático y la resolución del problema plantado.
Es a partir de las observaciones realizadas como se pueden elaborar hipótesis que
expliquen los datos de una manera unitaria y sistemática. Se trata de buscar una
regularidad sencilla que explique los fenómenos observados. Las hipótesis operan
como explicaciones provisionales que se confirmarán en mayor o menor grado, pero
que aún aceptadas como leyes, no pueden considerarse como verificadas puesto que
es imposible probar todos los casos posibles.
La diferencia entre la hipótesis y la ley es que, aunque ambas expresan lo mismo,
entre la primera y la segunda median un cúmulo de confirmaciones, un altísimo
número de ocasiones en que la predicción se ha cumplido. Por muy alto que sea el
número de casos confirmados siempre será mayor el número de casos posibles, de
modo que nunca podrán decirse siempre que o todos los casos, sino que se deberán
reconocer que hasta el momento ha sucedido que, lo que significa que no podremos
nunca obtener enunciados universalmente válidos. Las hipótesis son construcciones
explicativas de cómo ocurren ciertos fenómenos, es decir, supuestos sobre cómo se
comporta la naturaleza, o si se quiere, tests que se hacen a la naturaleza y a los que
ella, en ocasiones responde afirmativamente.
La construcción de las hipótesis con arreglo al método científico debe regirse por
varios criterios. En primer lugar una hipótesis científica debe atenerse a los hechos
observados y tratar de explicarlos. El problema es que hechos aparentemente
asépticos están en realidad contaminados de teoría. Galileo en Diálogo entre los
sistemas del mundo, afirmaba: "es mejor dejar de lado la apariencia, en la que todos
estamos de acuerdo y usar el poder de la razón para confirmar la realidad o la falacia".
Cualquier observador desinteresado puede sentarse al amanecer a la puerta de su
casa y estarse allí hasta el atardecer; verá así cómo el sol se desplaza a lo largo del
día, mientras que él no se ha movido de su silla. Pero la percepción ingenua del
hombre que estando quieto ve pasar el sol están en realidad contaminada por los
criterios científicos de la época, en la que se consideraba que la tierra era un plato que
flotaba en el río Océano y que constituía el centro del sistema solar formado por siete
círculos concéntricos, siendo el tercero de estos ocupado por el sol. El hombre de la
época tenia tal creencia y desde ella, con esas gafas puestas se sentaba a la puerta
de su casa para confirmar en la experiencia su hipótesis. La creencia de que nuestros
sentidos nos proporcionan evidencias y de que los movimientos aparentes son
absolutos no se formulan explícitamente, pero se esconden detrás de los términos
observacionales.
En segundo lugar las hipótesis deben tener la propiedad de la verificabilidad, es
decir, las hipótesis aunque sean difícilmente aceptables a primera vista deben sugerir
algún tipo de experimentación que permita confirmarlas en la experiencia, puesto que
el objetivo de toda hipótesis es convertirse en ley.
Un criterio de verificación, llamado criterio blando, es el de la teoría probabilística.
La teoría probabilística admite que la verificación en sentido estricto es lógicamente
imposible. La probabilidad se extiende en una línea que va de 0 a 1; la probabilidad
cero indicaría la imposibilidad de confirmar, ni siquiera una vez, la hipótesis explicativa.
La probabilidad uno significaría que la hipótesis se cumpliría en cualquier caso, es
decir, en todos y cada uno de los casos.
Otro criterio de verificación es el propuesto por Popper en 1934 al formular su
criterio de falsabilidad, que consiste en encontrar un experimento crucial que permita
echar por tierra una teoría o un hecho supuestamente bien establecidos. Para Popper
la metodología científica no debía encaminarse a la verificación, sino a la falsación, ya
que es posible probar la falsedad de una hipótesis, pero no hacerla verdadera. Popper
recomienda encontrar experimentos cruciales que muestren la falsedad de las teorías
que hasta el presente se tenían por verdaderas. Según Popper el método científico
tiene dos características fundamentales: proceder por ensayo-error y ser una
convención intersubjetiva, es decir, que lo científico es solamente aquello que
está enunciado de tal manera que puede ser falsado en la experiencia, tal como
ocurriría con la afirmación y que puede ser objeto de una valoración
intersubjetiva dentro de la comunidad científica. A la objetividad científica
solamente se llega cuando la teoría está en un cierto estadio de madurez y mediante
la crítica intersubjetiva, que culmina en un convenio de la comunidad científica. Esto
habría que entenderlo al modo en que se pactan las leyes en los parlamentos. Por
tratarse de un terreno sumamente especializado, los pactos o convenios sobre cuales
son las explicaciones científicas correctas, quedan restringidos al campo de la
comunidad científica.
En tercer lugar las hipótesis deben tener la propiedad de la coherencia según la
cual las hipótesis no deben entrar en contradicción con leyes ya establecidas por la
propia teoría o por teorías afines. No obstante en la teoría de la ciencia actual esta
propiedad debe ser matizada a partir de la teoría anarquista del conocimiento de
Feyerabend.
Feyerabend, que subtituló su obra principal Contra el método como Esquema de
una teoría anarquista, aboga por el fomento de la creatividad que implica tolerar un
cierto grado de incoherencia, es decir, atreverse a formular contrainducciones. El
principio de contrainducción consiste en formular hipótesis incoherentes con las
teorías y con los hechos que en ese momento se consideran bien establecidos. Galileo
al invertir los términos e ir en contra de la observación, asegurando que la tierra se
mueve alrededor del sol, operó contrainductivamente. Aceptó una teoría alternativa e
incoherente con la anterior afirmando que la tierra se movía e intentando reinterpretar
los hechos. Para ello Galileo intentó descubrir y desenmascarar las interpretaciones
naturales, los prejuicios acerca de la fiabilidad de los sentidos, que aún siendo
gratuitos estaban fuertemente arraigados. Una vez desenmascaradas las
percepciones ingenuas, que subyacían a la interpretación ptolemaica se pudo ver que
la teoría copernicana, defendida por Galileo, estaba de acuerdo con los hechos. La
diferencia estaba en que consideraba los mismos hechos desde una perspectiva o
hipótesis incoherente.El otro principio de la teoría anarquista del conocimiento de
Feyerabend es el de proliferación de hipótesis consistente en la exigencia de formular
simultáneamente varias hipótesis incompatibles (incoherentes) ya que la necesidad de
cribar, de seleccionar entre diversas hipótesis incoherentes impulsa el ritmo de
creación y promoción científicas.
En cuarto lugar las hipótesis deben ser sencillas y predecibles. Este principio,
llamado principio de economía, fue enunciado ya en el siglo XIV por Guillermo de
Ockam bajo la fórmula de que "no hay que multiplicar los entes sin necesidad" por lo
que desde entonces se denominó "la navaja de Ockam". Ha sido denominado también
"principio de parsimonia" significando que una hipótesis es tanto mejor cuanto más
explica con menos elementos teóricos.
La tercera fase del método hipotético-deductivo es la deducción de
consecuencias desde la hipótesis. La hipótesis es un enunciado provisional de
carácter universal que predice lo que sucederá entre los objetos de la clase a que se
refiere. Pero la hipótesis misma no se puede comprobar directamente sino ciertas
consecuencias que se derivan lógicamente de ella. Si la experiencia comprueba que
las consecuencias deducidas de la hipótesis se cumplen efectivamente, la hipótesis
quedará confirmada o reforzada. Si, por el contrario, las consecuencias no se cumplen
realmente, la hipótesis habrá de ser abandonada y sustituida por otra de la que se
deducirán nuevamente consecuencias a comprobar. La deducción se utiliza por parte
de las ciencias experimentales con una función precisa: proporcionar al científico una
serie de enunciados acerca de hechos de una clase par que queda experimentar si lo
que en ellos predice sucede en realidad o no.
El hecho de abrir nuevos caminos a la investigación es lo que determina el
carácter heurístico de la hipótesis o, dicho de otro modo, su carácter de predictibilidad
. La deducción constituye el aspecto formal, lógico, del método científico, que
interactúa con el inductivo que constituye su aspecto experimental, empírico. Así, el
razonamiento, coherente con las reglas lógicas, concluye consecuencias que deben
confirmarse en la experiencia.
La cuarta fase del método hipotético-deductivo es la de contrastación empírica de
los enunciados consecuentes de la formulación de la hipótesis, es decir, tratar de
comprobar experimentalmente si las consecuencias derivadas de la hipótesis se
cumplen efectivamente o no. La experimentación es distinta de la simple observación
que se hacía en el primer momento del punto de partida ya que la simple observación
carece de precisión cuantitativa y no altera las circunstancias en las que normalmente
suceden los hechos. Un experimento consiste en la reproducción de determinados
hechos provocando las circunstancias deseadas dentro de las cuales el científico
quiere hacer la observación.
La quinta fase es la formulación de leyes científicas. Aunque deba aceptarse su
carácter de provisionalidad, supone el último eslabón de la laboriosa actividad de la
comunidad científica. Las leyes son enunciados que expresan el modo regular, estable
y constante con el que suceden ciertos eventos reales con carácter de universalidad y
necesidad. Esta universidad y necesidad de las leyes hay que entenderlas del modo
siguiente: la interpretación humana de los hechos de observación y del conjunto de
interpretaciones de ella ellos derivadas parece ser que los eventos reales sucederán
necesariamente como la ley formula, pero teniendo en cuenta que las interpretaciones
humanas están abiertas a renovarse y corregirse en el futuro. Desde una perspectiva
epistemológica, por tanto, hoy se tiende a acentuar el carácter hipotético de las leyes
científicas tendiendo a considerarlas como meras hipótesis sobre la regularidad
funcional de los eventos reales. Por eso Mario Bunge ha explicado el concepto de ley
científica del modo siguiente: "Una ley científica es una hipótesis científica confirmada
(convalidada) que afirma la relación constante entre dos o más variables, cada una de
las cuales representa una propiedad de sistemas concretos".
CARACTERÍSTICA
S
Y SUPUESTOS.
Etiquetas
asociadas con el
POSPOSITIVISM
O.
CONSTRUCTIVIST
A.
TRANSFORMATIV
O
PRAGMÁTIC
O.
• Experimental
• Cuantitativo
• Causal
• Naturalista
• Fenomenológico
• Hermenéutico
• Interaccionista
simbólico
(interactivo)
• Etnográfico
• Teoría crítica
• Neo-marxista
• Feminista
• Participativo
• Métodos y
modelos
mixtos o
paradigma
• Comparativo
Supuesto
realidad
Supuesto del
conocimiento y
relación entre el
investigador y
el fenómeno
de
Una
realidad
conocida
en
términos
de
probabilidad
La objetividad es
importante, el
investigador
observa,
mide y manipula
variables; se
desprende de sus
tendencias.
• Cualitativo
Múltiples realidades
construidas
socialmente
El conocimiento es
interactivo, producto
del vínculo entre el
investigador y los
participantes. Los
valores y tendencias
de
todos los
involucrados
son hechas
explícitas,
generan
híbridos
• Emancipatorio
Múltiples
realidades,
formadas por el
contexto social,
político, económico,
cultural y étnico
El conocimiento es
interactivo,
producto del
vínculo
entre el
investigador
y los participantes.
Se sitúa social e
históricamente.
descubrimientos
Supuesto
Básicamente
cuantitativo e
metodológico
Básicamente
cualitativo,
hermenéutico y
intervencionista
dialéctico.
Con bases
cualitativas, pero
pueden utilizarse
métodos
cuantitativos y
mixtos. Los factores
históricos están
incluidos.
Lo que es útil
para
explicar un
fenómeno
es
lo
verdadero
Las relaciones
entre el
investigador y
el
fenómeno, o
participantes
del
estudio, están
determinadas
por lo
que el
investigador
considera
como
apropiado para
cada
estudio
en
particular.
El método
depende
del
planteamiento
específico del
estudio.
Son válidas las
técnicas
cuantitativas,
cualitativas
mixtas
y
1.2 Métodos de la Investigación Científica
Al hablar del método científico es referirse a la ciencia (básica y aplicada) como un
conjunto de pensamientos universales y necesarios, y que en función de esto surgen
algunas cualidades importantes, como la de que está constituida por leyes universales
que conforman un conocimiento sistemático de la realidad.
Y es así que el método científico procura una adecuada elaboración de esos
pensamientos universales y necesarios.
Sin embargo, mientras que los representantes del “camino más elevado hacia la
verdad” se afanan para demostrar que los procedimientos –disciplinados y positivosde la ciencia limitan su radio de acción hasta el punto de excluir los indubitables
aspectos de la realidad. ¿Y en qué fundamentan éstos tal punto de vista?
Su argumento estriba, en primer lugar, en la presentación del método científico como
interesado únicamente en la física y en la química (ciencias experimentales), es decir,
en lo mensurable (lo que se puede medir, pesar y contar), excluyendo aspectos de la
realidad como la vida y la mente humana, las cuales quedan reducidas –y a esto lo
dan por descontado- exclusivamente a lo material, a lo corpóreo, a lo externo. En
segundo lugar, tienen que demostrar que el razonamiento científico constituye un
estricto proceso de deducción, proceso del que están excluidos la imaginación y el
pensamiento intuitivo.
En otras palabras, el método científico tiene su base y postura sobre la teoría
mecanicista (todo es considerado como una máquina, y para entender el todo
debemos descomponerlo en partes pequeñas que permitan estudiar, analizar y
comprender sus nexos, interdependencia y conexiones entre el todo y sus partes), y,
por consiguiente también ese mismo carácter.
Si ello fuera realmente así, está claro que quedarían fuera del alcance, del
razonamiento científico vastos campos o parcelas de la realidad, de la verdad; siendo
entonces necesario hallar un nuevo camino que nos lleve hasta esta misma verdad.
Mas la ciencia no está en modo alguno circunscrita a lo mensurable. “El papel
desempeñado por la medición y por la cantidad (cualidades cuantitativas) en la ciencia
–dice Bertrand Russell- es en realidad muy importante, pero creo que a veces se le
supervalora. Las leyes cualitativas pueden ser tan científicas como la leyes
cuantitativas.” Tampoco la ciencia está reducida a la física y a la química; mas a los
defensores del “elevado camino hacia la verdad” les conviene creer que ello es así.
Para ellos es necesario, en efecto, presentar a la ciencia como estando limitada, por
su misma naturaleza, a la tarea de preparar el escenario para que la entrada en él una
forma más elevada de conocimiento.
Pero la esfera de la acción de la ciencia es ya bastante amplia, no ya para incluir a la
biología y a la psicología, a la economía y a la antropología, a la sociología y a la
historia, sino que también sus métodos son capaces de ir cada uno de los campos
estudiados, modificándose a si mismos, al objeto de mejor adecuarse a cada uno de
los campos estudiados.
Lo que hace que el razonamiento científico es, en primer lugar, el método de
observación, el experimento y el análisis, y, después, la construcción de hipótesis y la
subsiguiente comprobación de éstas. Este procedimiento no sólo es válido para las
ciencias físicas, sino que es perfectamente aplicable a todos los campos del saber.
El método científico es el procedimiento planteado que se sigue en la investigación
para descubrir las formas de existencia de los procesos objetivos, para desentrañar
sus conexiones internas y externas, para generalizar y profundizar los conocimientos
así adquiridos, para llegar a demostrarlos con rigor racional y para comprobarlos en el
experimento y con las técnicas de su aplicación. El método científico se emplea con el
fin de incrementar el conocimiento y en consecuencia aumentar nuestro bienestar y
nuestro poder (objetivamente extrínsecos o utilitarios). En sentido riguroso, el método
científico es único, tanto en su generalidad como en su particularidad. Al método
científico también se le caracteriza como un rasgo característico de la ciencia, tanto de
la pura como de la aplicada; y por su familiaridad puede perfeccionarse mediante la
estimación de los resultados a los que lleva mediante el análisis directo. Otra
característica es que, no es autosuficiente: no puede operar en un vació de
conocimiento, si no que requiere de algún conocimiento previo que pueda luego
reajustarse y reelaborarse; y que posteriormente pueda complementarse mediante
métodos especiales adaptados a las peculiaridades de cada tema, y de cada área, sin
embargo en lo general el método científico se apega a las siguientes principales
etapas para su aplicación:
1. Enunciar preguntas bien formuladas y verosímilmente fecundas.
2. Arbitrar conjeturas, fundadas y contrastables con la experiencia para contestar a las
preguntas.
3. Derivar consecuencias lógicas de las conjeturas.
4. Arbitrar técnicas para someter las conjeturas a contrastación.
5. Someter a su vez a contrastación esas técnicas para comprobar su relevancia y la
fe que merecen.
6. Llevar a cabo la contrastación e interpretar sus resultados.
7. Estimar la pretensión de la verdad de las conjeturas y la fidelidad de las técnicas.
8. Determinar los dominios en los cuales valen las conjeturas y las técnicas, y formular
los nuevos problemas originados por la investigación. Descrito desde otro punto de
vista, podemos decir que el método científico es el medio por el cual tratamos de dar
respuesta a las interrogantes acerca del orden de la naturaleza. Las preguntas que
nos hacemos en una investigación generalmente están determinadas por nuestros
intereses, y condicionadas por los conocimientos que ya poseemos. De estos dos
factores depende también la “clase” de respuesta que habremos de juzgar como
“satisfactoria”, una vez encontrada.
El método científico es la lógica general empleada, tácita o explícitamente para valorar
los meritos de una investigación. Es, por tanto, útil pensar acerca del método científico
como constituido por un conjunto de normas, las cuales sirven como patrones que
deben ser satisfechos si alguna investigación es estimada como investigación
responsablemente dirigida cuyas conclusiones merecen confianza racional.
El método científico sigue una direccionalidad univoca que le es característica, porque
el método como tal es en sí un procedimiento encaminado a un objetivo, el intentar
lograrlo lleva implícita una dinámica que para el caso del método científico se inicia
con la Fase de la Observación, donde el sujeto conocedor (científico) entra en
contacto con el fenómeno, y sabe de él algo, algo que lo induce a continuar buscando;
en un segundo gran momento, supone de ése fenómeno cierto nivel de verdad, esto
es, en una segunda fase, o Fase del Planteamiento de la hipótesis, que fundamentada
en conocimientos previos y en los datos por recoger, podría ser demostrada; por
último tenemos la Fase de Comprobación, la cual depende del grado de generalidad y
sistematicidad de la hipótesis. Las evidencias que comprueban o desaprueban son
igualmente estimables. Es preferible, denominar a la teoría la concepción teórica o
teoría general, que es un conjunto de conceptos, categorías y leyes generales sobre
los procesos y objetos de la realidad. De esta teoría general se deriva – aunque de
hecho se encuentra inserto en ella – el método general de conocimiento concebido
éste como la manera de abordar el objeto de estudio y el cual es general para una
determinada concepción teórica.
Sí se considera a los fenómenos de la naturaleza y de la sociedad en movimiento, en
desarrollo constante, es decir en su pasado, presente y futuro; en sus conexiones e
interacción; en sus contradicciones internas, y se considera que los cambios
cuantitativos se transforman en determinado momento y condiciones, en cambios
cualitativos, el método de conocimiento será dialéctico materialista; pero si se concibe
a los fenómenos y objetos como algo acabado, inmutable, es decir, sin cambio, y cada
uno de los aspectos de la realidad se analizan en forma aislada, y no existe interés por
conocer las causas esenciales por las cuales los fenómenos surgen, se desarrollan y
transforman, entonces en enfoque será metafísico.
Cualquier teoría general o concepción teórica involucra determinados conceptos y sus
interrelaciones que dan cuenta de la forma como se conciben los procesos y objetos.
En el caso del materialismo dialéctico, los conceptos, categorías, principios y leyes
generales, son: la materia, el movimiento, la contradicción, causa y efecto, esencia y
fenómeno, forma y contenido, apariencia y realidad; el principio del historicismo, y de
la conexión e interacción de los fenómenos, las leyes de la dialéctica, entre otros.
Estas categorías y leyes generales – que forman parte de la filosofía marxista: el
materialismo dialéctico – dan cuenta de una determinada concepción de la realidad y,
a su vez, son instrumentos metodológicos que orientan la aprehensión de los
fenómenos de la realidad concreta.
En el proceso de la investigación científica se utiliza diversos métodos y técnicas
según la ciencia particular de que se trate y de acuerdo a las características concretas
del objeto de estudio. Existen, sin embargo, métodos que pueden considerarse
generales para todas las ramas de la ciencia en tanto que son procedimientos que se
aplican en las distinta setapas del proceso de investigación con mayor o menor
énfasis, según el momento en que éste se desarrolle. Estos métodos son el análisis y
la síntesis, la inducción y la deducción.
El Método Analítico
El Método analítico es aquel método de investigación que consiste en la
desmembración de un todo, descomponiéndolo en sus partes o elementos para
observar las causas, la naturaleza y los efectos. El análisis es la observación y
examen de un hecho en particular. Es necesario conocer la naturaleza del fenómeno y
objeto que se estudia para comprender su esencia. Este método nos permite conocer
más del objeto de estudio, con lo cual se puede: explicar, hacer analogías,
comprender mejor su comportamiento y establecer nuevas teorías.
¿Qué significa Analizar? Analizar significa desintegrar, descomponer un todo en sus
partes para estudiar en forma intensiva cada uno de sus elementos, así como las
relaciones entre si y con el todo. La importancia del análisis reside en que para
comprender la esencia de un todo hay que conocer la naturaleza de sus partes. El
todo puede ser de diferente índole: un todo material, por ejemplo, determinado
organismo, y sus partes
constituyentes: los sistemas, aparatos, órganos y tejidos, cada una de las cuales
puede separarse para llevar a cabo un análisis mas profundo (esto no significa
necesariamente que un aparato u órgano tenga que separarse físicamente del resto
del organismo; en otras palabras, aislar un órgano o aparato significa aquí que no se
tomen en cuenta las demás partes del todo). Otros ejemplos de un todo material es: la
sociedad y sus partes: base económica (fuerzas productivas y relaciones sociales de
producción) y la superestructura (política, jurídica, religiosa, moral). La sociedad es un
todo material en tanto que existe fuera e independientemente de nuestra conciencia.
El todo puede ser también racional, por ejemplo, los productos de la mente: las
hipótesis, leyes y teorías.
Descomponemos una teoría según las leyes que la integran; una ley o hipótesis,
según las variables o fenómenos que vinculan y el tipo de relaciones que establecen,
por lo tanto, puede hablarse de análisis empírico y análisis racional. El primer tipo de
análisis conduce necesariamente a la utilización del segundo tipo; por ello se le
considera como un procedimiento auxiliar del análisis racional.
El análisis va de los concreto a lo abstracto ya que mantiene el recurso de la
abstracción puede separarse las partes (aislarse) del todo así como sus relaciones
básicas que interesan para su estudio intensivo (una hipótesis no es un producto
material, pero expresa relaciones entre fenómenos materiales; luego, es un concreto
de pensamiento).
El Método Sintético
El método sintético es un proceso de razonamiento que tiende a reconstruir un todo, a
partir de los elementos distinguidos por el análisis; se trata en consecuencia de hacer
una explosión metódica y breve, en resumen. En otras palabras debemos decir que la
síntesis es un procedimiento mental que tiene como meta la comprensión cabal de la
esencia de lo que ya conocemos en todas sus partes y particularidades.
La síntesis significa reconstruir, volver a integrar las partes del todo; pero esta
operación implica una superación respecto de la operación analítica, ya que no
representa sólo la reconstrucción mecánica del todo, pues esto no permitirá
avanzar en el conocimiento; implica llegar a comprender la esencia del mismo,
conocer sus aspectos y relaciones básicas en una perspectiva de totalidad. No hay
síntesis sinanálisis sentencia Engels, ya que el análisis proporciona la materia prima
para realizar la síntesis.
Respecto de las síntesis racionales, por ejemplo, una hipótesis, ellas vinculan dos o
más conceptos, pero los organiza de una forma determinada; los conceptos
desnutrición y accidentes de trabajo al vincularse pueden dar por resultado una
hipótesis: a medida que aumenta la desnutrición de los obreros, se incrementa la tasa
de accidentes de trabajo. La hipótesis es una síntesis que puede ser simple o
compleja. Asimismo, todos los materiales pueden ser simples (un organismo
unicelular) o complejos (un animal mamífero); las sociedades pueden ser
relativamente simples (una comunidad primitiva) o complejas (una sociedad industrial).
La síntesis, sea material o racional, se comprende en el pensamiento; por ello, es
necesario señalar que el pensamiento, si no quiere incurrir en arbitrariedades, no
puede reunir en una unidad sino aquellos elementos de la consciencia en los cuales –
o en cuyos prototipos reales – existía ya previamente dicha unidad.
La síntesis va de lo abstracto a lo concreto, o sea, al reconstruir el todo en sus
aspectos y relaciones esenciales permite una mayor comprensión de los elementos
constituyentes. Cuando se dice que va de lo abstracto a lo concreto significa que los
elementos aislados se reúnen y se obtiene un todo concreto real (por ejemplo, el agua)
o un todo concreto de pensamiento (una hipótesis o ley). En otros términos, Lo
concreto (es decir el movimiento permanente hacia una comprensión teórica cada vez
más concreta) es aquí el fin específico del pensamiento teórico, en tanto que es un fin
de tal naturaleza, lo concreto define como ley la manera de actuar del teórico (se trata
de una acción mental naturalmente) en cada caso particular, por cada generalización
tomada aparte.
El análisis y la síntesis se contraponen en cierto momento del proceso, pero en otro se
complementan, se enriquecen; uno sin el otro no puede existir ya que ambos se
encuentran articulados en todo el proceso de conocimiento.
Inducción y deducción
Debemos de tener en cuenta que, en cualquier área del conocimiento científico el
interés radica en poder plantear hipótesis, leyes y teorías para alcanzar una
comprensión mas amplia y profunda del origen, desarrollo y transformación de los
fenómenos y no quedarse solamente con los hechos empíricos captados a través de la
experiencia sensible(recuérdese que en la ciencia no es cierto aquello de que los
hechos hablan por sí solos). Además, a la ciencia le interesa confrontar sus verdades
con la realidad concreta ya que el conocimiento, como se ha dicho, no puede
considerarse acabado, definitivo, tiene que ajustarse continuamente, en menor o
mayor grado según el área de que se trate, a la realidad concreta la cual se encuentra
en permanente cambio. En este proceso de ir de lo particular a lo general y de éste
regresar a lo particular tenemos la presencia de dos métodos: la inducción y la
deducción.
La inducción se refiere al movimiento del pensamiento que va de los hechos
particulares a afirmaciones de carácter general. Esto implica pasar de los resultados
obtenidos de observaciones o experimentos (que se refieren siempre a un numero
limitado de casos) al planteamiento de hipótesis, leyes y teorías que abarcan no
solamente los casos de los que se partió, sino a otros de la misma clase; es decir
generaliza los resultados (pero esta generalización no es mecánica, se apoya en las
formulaciones teóricas existentes en la ciencia respectiva) y al hacer esto hay una
superación, un salto en el conocimiento al no quedarnos en los hechos particulares
sino que buscamos su comprensión más profunda en síntesis racionales (hipótesis,
leyes, teorías).
Esta generalización no se logra sólo a partir de los hechos empíricos, pues de
conocimientos ya alcanzados se pueden obtener (generalizar) nuevos conocimientos,
los cuales serán mas complejos. Insistimos otra vez: el trabajo científico no va del
paso mecánico de los hechos empíricos al pensamiento abstracto; existen niveles de
intermediación y a medida que se asciende, las generalizaciones van perdiendo
contacto con la realidad inmediata ya que se apoyan en otros conocimientos los cuales
sí tienen relación directa o indirecta con la realidad.
Para poder pensar en la posibilidad de establecer leyes y teorías con base en la
inducción, es necesario partir del principio de la regularidad e interconexión de los
fenómenos de la naturaleza y la sociedad, lo cual permite pasar de la descripción (que
se refiere fundamentalmente a los hechos empíricos) a otros niveles de la ciencia: la
explicación y predicción a través de leyes y teorías.
Puede decirse que las conclusiones obtenidas a través de la inducción tienen un
carácter probable, el cual aumenta a medida que se incrementa el número de hechos
particulares que se examinan. Cabe destacar que los procedimientos de la inducción
sólo permiten establecer relaciones entre hechos empíricos (leyes empíricas); para
formular leyes teóricas que expliquen a aquéllas, es necesario apoyarse en otros
planteamientos teóricos existentes en los marcos de la ciencia de que se trate. La
deducción es el método que permite pasar de afirmaciones de carácter general a
hechos particulares.
Proviene de deductivo que significa descender. Este método fue ampliamente utilizado
por Aristóteles en la silogística endonde a partir de ciertas premisas se derivan
conclusiones:
por ejemplo, todos los hombres son mortales, Sócrates es hombre, luego entonces,
Sócrates es mortal. No obstante, el mismo Aristóteles atribuía gran importancia a la
inducción en el proceso de conocimiento de los principios iniciales de la ciencia. Por
tanto es claro que tenemos que llegar a conocer las primeras premisas mediante la
inducción; porque el método por el cual, hasta la percepción sensible implanta lo
universal, es inductivo.”
El método deductivo está presente también en las teorías axiomáticas, por ejemplo en
la Geometría de Euclides en donde los teoremas se deducen de los axiomas que se
consideran principios que no necesitan demostración. Existen otro método afín desde
el punto de vista lógico: el hipotético deductivo. La diferencia con respecto al
axiomático estriba en que las hipótesis de las que se deducen planteamientos
particulares se elaboran con base en el material empírico recolectado a través de
diversos procedimientos como la observación y el experimento. En este proceso
deductivo tiene que tomarse en cuenta la forma como se definen los conceptos (los
elementos y relaciones que comprenden) y se realiza en varias etapas de
intermediación que permite pasar de afirmaciones generales a otras más particulares
hasta acercarse a la realidad concreta a través de indicadores o referentes empíricos.
Este procedimiento es necesario para poder comprobar las hipótesis con base en el
material empírico obtenido a través de la práctica científica.
La deducción desempeña un papel muy importante en la ciencia. Mediante ella se
aplican los principios descubiertos a casos particulares. El papel de la deducción en la
investigación científica es doble:
a) Primero consiste en encontrar principios desconocidos, a partir de otros conocidos.
Una ley o principio puede reducirse a otra más general que la incluya. Si un cuerpo
cae, decimos que pesa porque es un caso particular de la gravitación.
b) También la deducción sirve científicamente para describir consecuencias
desconocidas, de principios conocidos. Si sabemos que la formula de la velocidad es
t ,V = d podremos calcular con facilidad la velocidad que desarrolla un avión. La
matemática es la ciencia deductiva por excelencia; parte de axiomas y definiciones.
Inferencias inmediatas y medianas.
En el razonamiento deductivo se reconocen dos clases de inferencias (tomado como
sinónimo de conclusión, aunque algunos autores reservan el nombre de conclusión
para las inferencias complejas). La inferencia inmediata de un juicio extrae otro a partir
de una sola premisa. En la inferencia mediata la conclusión se obtiene a partir de dos
o más premisas.
Ejemplo de inferencia inmediata:
“Los libros son cultura.”
“En consecuencia, algunas manifestaciones culturales son libros.”
Ejemplo de inferencia mediata:
“Los ingleses son puntuales.”
“Por tanto, William es puntual.”
A partir de Rene Descartes, la Filosofía sigue dos corrientes principales, claramente
opuestas: el racionalismo (centrado en la razón) y el empirismo (cuya base es la
experiencia). Mientras que los alemanes y franceses cultivan preferentemente el
racionalismo, los autores ingleses son los clásicos empiristas, los cuales, ya desde
Roger Bacon, en laEdad Media (1210-1292), muestran una decidida inclinación hacia
ese tipo de pensamiento. En el Renacimiento, Francis Bacon (1561-1626) es el
promotor del empirismo inglés, luego se continúa con John Locke y George Berkeley,
hasta a su culminación, con David Hume, en el siglo XVIII.
La idea central de Bacon, es la crítica contra el silogismo y la apología de la inducción.
Dice que lo primero que hay que criticar y rechazar, si se intenta una sólida certeza en
la investigación científica, es la serie de prejuicios que suelen colarse en nuestros
conocimientos ordinarios. Bacon acierta, al señalar con toda precisión cuatro tipos de
prejuicios, que plásticamente, son llamados ídolos: ídolos de la especie, ídolos de la
caverna, ídolos del foro y ídolos del teatro. Bacon detecta el abuso del silogismo
aristotélico como la principal causa del estancamiento de las ciencias. Critica
claramente a Aristóteles y su obra. En su lugar, proclama el método inductivo
(generalización a partir de la observación de casos particulares) como la clave para
hacer progresar alas ciencias. El método inductivo en versión moderna fue
desarrollado por el inglés Francis Bacon (1561-1626) y se encuentra ligado a las
investigaciones empíricas. Bacon rechazo la silogística de Aristóteles en la que se
apoyaba la escolástica (doctrina del medievo) y la cual desdeñaba la experiencia
sensible. Ensu lugar, Bacon destacó la importancia de la observación y el experimento
en la obtención del conocimiento, pero minimizó el papel de las hipótesis por lo cual ha
sido ampliamente criticado.
Acerca de la ciencia, Bacon tiene una idea completamente utilitarista (john Dewey).
Mientras que los empiristas –afirma- son como hormigas, que sólo acumulan hechos
sin ningún orden; los racionalistas o teóricos son como arañas, pues sólo construyen
bellas teorías, pero sin solidez. El verdadero científico debe ser como la abeja, que
digiere lo que capta, y produce miel para la comunidad a la que pertenece.
Para construir ciencia se debe proceder a base de experimentación, con el fin de
observar las causas de los fenómenos, y poder comprender los procesos de la
naturaleza y sociedad. Para interpretarla, primero hay que ser dócil a ella.
La observación puede darnos la forma, o la ley de comportamiento del fenómeno
estudiado. La forma es como la esencia íntima del fenómeno; pero no es de orden
metafísico, sino físico y social, o sea, observable experimentalmente Indudablemente,
se debe dar un voto a favor del método inductivo. Gracias a él como se pueden
descubrir las leyes que rigen a la naturaleza y a la sociedad.
Sin embargo, no había que deslumbrarse tanto por la eficacia de la inducción, como
para menospreciar o dejar de lado el raciocinio deductivo. Lo correcto es saber utilizar
cada uno de los dos procesos: deducción e inducción, según sea la naturaleza de la
ciencia y del asunto tratado. Nótese cómo es el tema metodológico el que incide con
frecuencia en el pensamiento filosófico de estos tiempos. Mientras que Descartes se
inclina hacia el método deductivo, la corriente empirista se inclinará hacia el método
experimental-inductivo. Lo cierto es que cada uno tiene su propia zona de aplicación,
sin que sea necesario desvirtuar uno u otro método en cuanto tal.
ENFOQUES EN LA INVESTIGACION CIENTIFICA
En este capítulo no se pretende abarcar la historia de la investigación, mucho menos
la historia de la ciencia. Una enciclopedia completa no bastaría para abordar este
tema. Solamente queremos ubicar al estudiante que se inicia en la investigación sobre
algunos de los momentos históricos más importantes para la indagación cuantitativa,
cualitativa y mixta. El tópico regularmente no apasiona a los jóvenes, por esto
procuraremos ser breves.
EL ENFOQUE CUANTITATIVO:
SUS DOS PRINCIPALES ANTECESORES
El enfoque cuantitativo en las ciencias sociales se origina en la obra de Augusto
Comte (1798-1857) y Emile Durkheim (1858-1917), con la influencia significativa de
Francis Bacon, John Locke y Emmanuel Kant. Es decir, el “abuelo” de tal enfoque es
el positivismo.
A la mitad del siglo XIX,el racionalismo iluminaba la actividad científica,la revolución
iniciada por Isaac Newton se encuentra en plena consolidación, particularmente por
los avances científicos y tecnológicos alcanzados en la época.
Con la publicación en 1849 del Discurso sobre el espíritu positivo de Augusto Comte,
se inicia en las ciencias sociales un paradigma denominado “positivista”.
Cabe señalar que, en términos sencillos, un “paradigma” es una manera de concebir al
mundo.
Esta visión proclama, entre otras cuestiones, que la realidad es una sola y es
necesario descubrirla y conocerla. Asimismo, el sentido de la percepción resulta la
única base admisible del conocimiento humano y del pensamiento preciso. Las ideas
esenciales del positivismo provienen de las denominadas ciencias “exactas” como la
Física, la Química y la Biología; por tal motivo, los positivistas se fundamentaron en
científicos como Galileo Galilei, Isaac Newton, Nicolás Copérnico, Thomas Robert
Malthus y Charles Darwin.
Así, “el mundo social puede estudiarse de manera similar al mundo natural” (tal como
se investigan los átomos, las moléculas, los planetas y los invertebrados; se pueden
analizar los patrones de conducta de los trabajadores, las razones de las
enfermedades mentales, los efectos de un método educativo sobre el aprendizaje o
las migraciones humanas) y existe un método exclusivo para indagar ese mundo
social, que es libre de los valores del investigador. Por ello, para el positivismo, la
objetividad es muy importante, el investigador observa, mide y manipula variables;
además de que se desprende de sus propias tendencias (la relación entre éste y el
fenómeno de estudio es de independencia). Lo que no puede medirse u observarse
con precisión se descarta como “objeto” de estudio. Además, éste se encuentra
determinado por leyes y axiomas. El positivismo solamente acepta conocimientos que
proceden de la experiencia, esto es, de datos empíricos. Los hechos son lo único que
cuenta. Es decir, los positivistas establecen como fundamental el
principio de verificación: una proposición o enunciado tiene sentido sólo si resulta
verificable por medio de la experiencia y la observación; así, solamente cuando existe
un conjunto de condiciones de observación significativas para determinar su verdad o
falsedad. Todo debe ser comprobable y esta condición es válida para todas las
ciencias. La experimentación constituyó la forma principal para generar teoría. El
positivismo (muy rígido) fue remplazado por el “pospositivismo”, fundamentado en el
anterior, pero más abierto y flexible. Tal visión comienza a gestarse hacia fines del
siglo XIX, pero realmente se consolida hacia la mitad del siglo pasado. La gestación la
inician las obras de autores como Wilhelm Dilthey y William James. Karl Popper lo
impulsa de forma notoria. Además en cada campo o disciplina, diversos autores lo
desarrollan.
Sus propuestas esenciales se pueden resumir en los siguientes puntos:
- Existe una realidad, pero solamente puede ser conocida de manera imperfecta
debido a las limitaciones humanas del investigador (Mertens, 2005). Por lo tanto, tal
realidad es factible descubrirla con cierto grado de probabilidad.
- El observador no se encuentra aislado de los fenómenos que estudia, sino
que forma parte de éstos, lo afectan y él, a su vez, influye en ellos.
- Las teorías y explicaciones se consolidan y eliminan otras posibles teorías y
explicaciones rivales.
- Los antecedentes del investigador pueden influir lo que se observa. La objetividad es
solamente un estándar que guía la investigación, por lo que el investigador debe estar
atento y tratar de permanecer neutral para prevenir que sus valores o tendencias
influyan en su estudio, además de seguir rigurosamente procedimientos prescritos y
estandarizados.
- La experimentación en el laboratorio es una forma central para probar hipótesis, pero
no la única. Por ello, se desarrollaron los diseños cuasiexperimentales (Mertens,
2005).
- Los conceptos de las teorías consideradas y las hipótesis a probar deben tener
referentes empíricos y consecuentemente, es necesario medirlos, aunque estas
mediciones nunca son “perfectas”, siempre hay un grado de error.
En conclusión, pudiéramos establecer que la diferencia esencial entre el paradigma
positivista y el pospositivista se ubica en su concepción del conocimiento. En este
último, se supera el esquema que considera la percepción como simple reflejo de las
cosas reales y el conocimiento como copia de esa realidad. El conocimiento, en
cambio, se visualiza como el resultado de una interacción, de una dialéctica, entre el
conocedor y el objeto conocido. El pospositivismo es una especie de “padre” del
enfoque cuantitativo y le otorga tres principales elementos que lo caracterizan:
- Recolectar datos en la forma de puntuaciones (que se origina en las matemáticas).
Es decir, los atributos de fenómenos, objetos, animales, personas, organizaciones y
colectividades mayores son medidos y ubicados numéricamente.
- Analizar tales datos numéricos en términos de su variación.
- La esencia del análisis implica comparar grupos o relacionar factores sobre tales
atributos mediante técnicas estadísticas (en el caso de las ciencias del
comportamiento, mediante experimentos y estudios causales o correlacionales). El
enfoque cuantitativo se consolida a lo largo del siglo XX y tiene momentos claves
como los que se presentan a continuación.
EL ENFOQUE CUANTITATIVO: MOMENTOS CLAVE
Es difícil definir con precisión cuándo se inició el enfoque cuantitativo, más bien sus
comienzos provienen de distintas fuentes y su evolución ha sido continua (algunos
autores de la historia de la ciencia los ubican desde Aristóteles y otros en diferentes
puntos de los siglos XVI, XVII y XVIII). Gottfried Achenwall (en 1748-49) acuñó el
término en alemán Statistik para referirse al análisis de los datos del Estado, en
particular los censos poblacionales (Aliaga, 2000 y Wikipedia, 2005b).
En 1801, William Playfair, un ingeniero y economista, desarrolla las gráficas
estadísticas como un mejor medio para representar los resultados (anteriormente se
utilizaban tablas). En 1816, Carl Friedrich Gauss propone la desviación media, y
alrededor de esa época (1809-1826) genera el análisis de la distribución normal y
plantea la técnica de mínimos cuadrados que posteriormente derivarían en el análisis
de varianza. En 1817, el francés Marc Antoine Jullien realiza una encuesta sobre
diversos sistemas educativos en el mundo. Alrededor de 1880, se genera el análisis de
correlación en Inglaterra y Karl Pearson, profesor desde 1884 en the University
College (Londres), presenta en la última década del siglo XIX: la moda (medida de
tendencia central), una fórmula producto del momento de correlación, un
procedimiento para calcular el tamaño de muestra adecuado para representar a una
población, la regresión lineal y múltiple (con la identificación de la capacidad para
predecir puntuaciones mediante la información sobre la correlación entre las
variables), así como el coeficiente de contingencia y la chi2005, Aldrich, 2005 y Aliaga, 2000). Otro investigador que trabajó sobre la correlación
múltiple fue George U. Yule (1897).
En 1901 Pearson junto con Weldon y Galton fundan Biometrika, una revista que se
dedicó al desarrollo de análisis estadísticos en el campo de la Biología. A finales del
siglo XIX ha nacido un pilar del enfoque cuantitativo: la estadística. Asimismo, en la
década de 1890-1900 se desarrollan las primeras pruebas mentales (con los esfuerzos
de investigadores como Sir Francis Galton, James McKeen Cattell y Alfred Binet).
En 1901, E. L. Thorndike y R. S. Woodworth discuten sobre la necesidad y valor del
grupo de control en los experimentos. En 1904, Charles Spearman presenta su
coeficiente rho. Además por esos años se aplica el procedimiento para reducir
variables denominado el análisis de factores y la prueba t (Creswell, 2005).
En 1910 la armada estadounidense comienza a usar pruebas psicológicas
estandarizadas, particularmente durante la Primera Guerra Mundial (Creswell, 2005).
De igual forma surgen por tal año, los diseños experimentales como los latinos
cuadrados de Thorndike. Además, las encuestas (surveys) incrementan su
popularidad en las primeras décadas del siglo XX. En 1916, W. A. McCall concibe la
asignación al azar en experimentos y en 1917, F. Stuart Chapin publica sobre la
experimentación en ciencias sociales.
Durante los años de 1930, se continúa el desarrollo de pruebas psicométricas y de
logro, así como la estadística inferencial (conclusiones de la muestra a la población) se
comienza a utilizar y diversos procedimientos se fortalecen. McCall publica en 1923 su
famosa obra: Cómo experimentar en Educación. Entre 1924 y 1932, Elton Mayo
realiza sus experimentos en la planta Hawthorne de la compañía Western Electric, lo
que da inicio a este tipo de estudios en las organizaciones,
En la siguiente década, se desarrollan las pruebas de selección de personal y un
sinnúmero de tests estandarizados en diferentes campos. En 1935, Sir Ronald Fisher
consolida en su libro El diseño de experimentos el análisis de varianza y las pruebas
de significancia en general, además de los experimentos modernos. En 1938, este
último autor publica junto con F. Yates, las tablas estadísticas para la investigación en
la Agricultura, la Biología y la Medicina. Asimismo, la Asociación de Educación
Progresiva en EE. UU. comienza a realizar estudios longitudinales.
Durante la década de 1950, la investigación cuantitativa se encuentra en su apogeo,
surgen diversas encuestas, experimentos, revistas científicas, diseños, etc.
También comienzan a desarrollarse las máquinas para calificar pruebas y la
computadora.
En los años de 1960, Donald T. Campbell y Julian Stanley (1963) generan una
tipología sobre los estudios experimentales que priva hasta nuestros días (incluso en
la presente obra) y un análisis de las fuentes que pueden atentar contra la claridad de
sus resultados. De igual forma, el querido profesor Fred Kerlinger identifica tipos de
diseños cuantitativos y fortalece el enfoque respectivo. Surgen una gran cantidad de
textos de estadística. Los programas de análisis de datos se desarrollan,
particularmente el Paquete Estadístico para las Ciencias Sociales (SPSS).
En la década comprendida entre 1970 y 1980 se identifican diversos modelos causales
multivariados (por ejemplo, el modelamiento de ecuaciones estructurales),se
desarrolla el metaanálisis (técnica para analizar datos provenientes de distintos
estudios con mediciones similares) y se sugieren los tipos de validez (Thomas Dixon
Cook y Donald T. Campbell, 1979), que más recientemente se conciben como clases
de evidencia acerca de la validez. Asimismo, John W.Tukey empieza con el análisis
exploratorio de datos (publica en 1977).
En los años de 1980, se reta a las aproximaciones clásicas con las pruebas
estadísticas, esto es, mediante el examen de la magnitud de la relación entre
variables, a través de la estimación del tamaño del efecto (Creswell, 2005). Se
introduce el concepto de sensibilidad experimental.
En la última década del siglo XX surgen mediciones y análisis multivariados más
complejos, además se consolida la idea de “poder de medición” mediante la utilización
de diferentes instrumentos para medir las variables de investigación. Los programas
de análisis se sofistican y comercializan, y es aquí donde ahora estamos.
Cabe señalar que el primer enfoque a la investigación en desarrollarse fue el
cuantitativo.
EL ENFOQUE CUALITATIVO: SUS COMIENZOS
Diferentes autores ubican sus orígenes en distintos momentos, por ejemplo, Vidich y
Lyman (2002) los sitúan en los siglos XV y XVI con la denominada etnografía
temprana, en la que se estudiaba a los pueblos primitivos; o Lincoln y Denzin (2003)
fundamentalmente los circunscriben a principios del siglo XX, al igual que Creswell
(2005). A nuestro juicio, el enfoque cualitativo realmente se inicia como un proceso
investigativo a finales del siglo XIX y sobre todo en el comienzo del siglo XX, aunque
algunos arqueólogos realizaron estudios inductivos en la mitad del XIX.
El primer problema es que hay diversas visiones que se han considerado como tipos
de investigación cualitativa (Tesch, 1990, ubica 26 clases) y las bases epistemológicas
son variadas. Sin embargo, concordamos con Mertens (2005) en que el
constructivismo es tal vez el paradigma que influyó más en el enfoque cualitativo
(ciertamente muchos diferirán, pero su peso es innegable). Éste tiene sus primeros
cimientos con Emmanuel Kant (siglo XVIII), quien señala básicamente que el mundo
que conocemos es construido por la mente humana. Las “cosas” en sí mismas existen,
pero nosotros las percibimos del modo como es capaz de percibirlas nuestra mente.
De los postulados de Kant va a surgir el constructivismo, en un intento de conciliar el
racionalismo y el asociacionismo. Otro autor clave para esta corriente paradigmática
es Max Weber (1864-1920), quien introduce el
término verstehen o “entender”, reconoce que además de la descripción y medición de
variables sociales, deben considerarse los significados subjetivos y la comprensión del
contexto donde ocurre el fenómeno.
El constructivismo propone:
- No hay una realidad objetiva, la realidad es edificada socialmente, por consecuencia,
múltiples construcciones mentales pueden ser “aprehendidas” sobre ésta, algunas de
las cuales pueden estar en conflicto con otras; de este modo, las percepciones de la
realidad son modificadas a través del proceso del estudio (Mertens, 2005).
- El conocimiento es construido socialmente por las personas que participan en la
investigación.
- La tarea fundamental del investigador es entender el mundo complejo de la
experiencia vivencial desde el punto de vista de quienes la experimentan, así como,
comprender sus diversas construcciones sociales sobre el significado de los hechos y
el conocimiento.
- La investigación es en parte producto de los valores del investigador y no puede ser
independiente de ellos.
- El investigador y los individuos estudiados se involucran en un proceso interactivo. El
conocimiento resulta de tal interacción social y de la influencia de la cultura.
Entre algunos de los autores que durante el siglo XX influyeron en el desarrollo del
constructivismo tenemos a Mary Parker Follett (1868-1933), en el campo de la
administración y las organizaciones; Jean Piaget (1896-1980 ) y Lev Semenovich
Vygotsky (1896-1934) en la educación y John Dewey (1859-1952) en la Pedagogía;
así como Margaret Mead en la Antropología.
El constructivismo como uno de los “padres” del enfoque cualitativo le otorga los
énfasis principales que lo caracterizan:
- El reconocimiento de que el investigador necesita encuadrar en los
estudios, los puntos de vista de los participantes.
- La necesidad de inquirir cuestiones abiertas.
- Dado que el contexto cultural es fundamental, los datos deben
recolectarse en los lugares donde las personas realizan sus actividades cotidianas.
- La investigación debe ser útil para mejorar la forma en que viven los individuos.
- Más que variables “exactas” lo que se estudia son conceptos, cuya esencia no
solamente se captura a través de mediciones.
EL ENFOQUE CUALITATIVO: MOMENTOS CLAVE
En los años de 1920, un grupo de investigadores conocidos como la Escuela de
Chicago comenzaron a realizar diversos estudios cualitativos, entre los autores
destacan: Albion Small, W.I. Thomas, F. Znaniecki y el filósofo George Herbert Mead.
Por ejemplo, Thomas y Znaniecki publicaron una investigación en 1927 sobre los
inmigrantes polacos, en la cual se utiliza la biografía de los participantes como
herramienta de recolección de los datos. Otros estudios se centraron en culturas
específicas y grupos urbanos marginados. Margaret Mead (uno de cuyos maestros fue
Franz Boas) publica sus conocidas obras Coming of age in Samoa y Growing Up in
New Guinea, en 1928 y 1930 respectivamente; para 1932, un libro que reseña su
indagación sobre la cultura de una tribu india. Posteriormente, en la misma década se
agregaron otros estudios de Robert E. Park y E.W. Burgess. Everett C. Hughes y
Herbert Blumer en la siguiente década comenzaron a
desarrollar una aproximación conocida como el interaccionismo simbólico, el cual
influyó en el desarrollo del enfoque cualitativo.
En los años de 1940 y 1950 decayó la importancia del enfoque cualitativo debido al
posicionamiento de su “rival” cuantitativo (Gobo, 2005), aunque se realizaron algunos
trabajos etnográficos de investigadores como Elizabeth y Allison Davis, y Burleigh y
Mary Gardner, que estudiaron las clases sociales en Natchez, Mississippi, EE. UU.; al
igual que Conrad Arensberg, quien hizo algunas
investigaciones similares en Irlanda. Clair Drake y Horace Cayton publicaron una obra
que fue el resultado de los análisis efectuados en la población afroamericana del sur
de Chicago. George Spindler también trabajo la antropología educativa y George M.
Foster estudió diversas culturas latinoamericanas. Asimismo, Howard S. Becker
analiza diferentes profesiones.
Cabe destacar que la investigación-acción comienza a desarrollarse en esta etapa
(1945-1955) con nombres como John Collier, R. Lippitt y M. Radke y S. Corey. Todos
ellos siguieron a quien muchos autores consideran el fundador formal de tal visión,
Kurt Lewin (Masters, 2000; Creswell, 2005).
En la década de 1960 a 1969, este enfoque recobra vitalidad e importancia. La
etnometodología surge con vigor. Peter L. Berger and Thomas Luckmann en 1966
presentan sus modelos de construcción de la realidad (Berger y Luchmann, 1966).
Dos sociólogos, Barney G. Glaser y Anselm L. Strauss, con pacientes en estado
terminal en el San Francisco Medical Center de la Universidad de California, realizan
diversos estudios y de sus experiencias publican el libro Discovery of Grounded
Theory (1967), así emerge la teoría fundamentada (después ambos autores presentan
visiones diferentes de dicha teoría como se comentó en el libro). P. Jackson publica un
trabajo cualitativo derivado de sus estudios en las aulas (1968). A esta época se le
denomina la “primera encrucijada del paradigma cualitativo” (Shank, 1995). Asimismo,
Paulo Freire comienza con la investigación participativa en América Latina,
específicamente en Brasil.
En la década de 1970, el enfoque cualitativo continúa popularizándose. Denzin (1970)
reanaliza el concepto de triangulación. E. G. Guba consolida la propuesta de un
enfoque alternativo, el naturalista (1978). La teoría fundamentada continúa
evolucionando. Herbert Blumer desarrolla el interaccionismo simbólico (Álvarez Gayou,
2002).
Para los años de 1980, Terrence E. Deal y Allan A. Kennedy proponen estudiar las
culturas organizacionales al estilo etnográfico. Smith (1983) distingue entre dos
aproximaciones filosóficas: idealismo y realismo. Matthew Miles y Michael Huberman
(1984) presentan procedimientos para el análisis cualitativo.
Lincoln y Guba (1985) identifican diferencias entre el naturalismo y otras clases de
investigación. A. L. Strauss publica en 1987 su obra: Qualitative Analysis for Social
Scientists. Cabe destacar que la investigación bajo el marco de referencia feminista,
se desarrolla notablemente en esta década con los trabajos de: McRobbie (1982),
Patai (1983), Clegg (1985), Cook y Fonow (1986), y McCormack (1989).
En la década de 1990, Strauss y Corbin (1990 y 1994) publican procedimientos más
avanzados sobre la teoría fundamentada, y LeCompte, Milroy and Preissle (1992)
presentan nuevos esquemas etnográficos. De igual forma, Denzin y Lincoln (1994)
muestran alternativas del proceso cualitativo. Creswell (1998) distingue entre cinco
diferentes procedimientos de indagación cualitativa.. Surgen diversas revistas
científicas cualitativas en todo los campos, continúan la tendencia. A partir de 2000, es
un hecho que pocos dudan ya de lo valioso del enfoque cualitativo. Clandinin y
Connelly (2000) revitalizan los diseños narrativos; mientras que Kemmis y McTaggart
(2000) hacen lo mismo con la investigación participativa.
Y aquí estamos. Los diferentes marcos conceptuales cualitativos comienzan a
integrarse en diseños con autores como Creswell (2005) y Mertens (2005). Mertens
(2005), comenta que las aproximaciones feminista, participativa y marxista –entre
otras– más bien son parte del paradigma transformativo, que reconoce diversas
realidades y la influencia del contexto social y cultural en todas sus dimensiones
(política, económica, de género y origen étnico, de habilidades y capacidades
distintas). La relación entre el investigador y los participantes es de total
interdependencia y se sugiere que la investigación debe servir para mejorar las
condiciones de vida de los grupos marginados de la sociedad.
EL ENFOQUE MIXTO: MOMENTOS CLAVE
De acuerdo con Tashakkori y Teddlie (2003) además de Mertens (2005), el enfoque
mixto se basa en el paradigma pragmático. Esta visión evita utilizar conceptos como
“verdad” y “realidad” que han causado, desde el punto de vista de sus autores,
conflictos entre los enfoques cuantitativo y cualitativo. La efectividad se utiliza como el
criterio para juzgar el valor de la investigación, son las circunstancias las que
determinan el grado en que se utilizan las aproximaciones de la década anterior. Cabe
señalar que entre 1989 y 1992, surge un software para análisis cualitativo: el Atlas.ti®,
el cual se desarrolla por Thomas Muhr en la Universidad Técnica de Berlín; así, para
1993, se presenta el prototipo y en 1996 se realiza la primera versión. Decision
Explorer® fue originalmente diseñado a principios de la década para apoyar la labor de
mapeo cognitivo realizada por Colin Eden en las universidades de Bath y Strathclyde.
Desde luego, la relación investigador-participantes es interdependiente bajo esta
óptica y se reconoce la influencia de los valores del investigador.
El enfoque mixto ha sido criticado (preferimos omitir autores o referencias para no
generar enconos) por los llamados “fundamentalistas” y otros investigadores que lo
aceptan, pero lo consideran ingenuo, ya que requiere mucho más recursos (de todo
tipo) que la investigación cuantitativa o la cualitativa; lo cual es cierto, pero esto no
significa que sea quizá la mejor alternativa para generar conocimiento. Sería una
tristeza que la investigación mixta fuera exclusiva de los países desarrollados y
América Latina quede fuera de su alcance. La historia de los métodos mixtos se
remonta al trabajo criminalístico durante las décadas de 1960 y 1970, fueron utilizados
sin denominarlos como tales.
Posteriormente, en 1973, S. Sieber sugirió la mezcla de estudios de caso cualitativos
con encuestas, creó así “un nuevo estilo de investigación” y la integración de distintos
métodos en un mismo estudio.
Hacia el final de los años de 1970, T. D. Jick introdujo los términos básicos de los
diseños mixtos, propuso recabar datos mediante técnicas cuantitativas y cualitativas, e
ilustró la “triangulación de datos” (Jick, 1979). Como ya se mencionó en el libro
(Metodología de la investigación, 4ª edición), el concepto de triangulación fue clave
para la concepción de los diseños mixtos
El término “triangulación” proviene de la ciencia naval militar, es el proceso por medio
del cual los marineros emplean varios puntos de referencia para localizar la posición
de un objeto en el mar (Jick, 1979). Posteriormente, en los años de 1980 se inició el
debate sobre la legitimidad de la investigación mixta. Asimismo, el concepto de
triangulación se extendió más allá de la comparación de datos cuantitativos y
cualitativos y se pudo hablar de diversos tipos de triangulación en el contexto híbrido:
de teorías, de métodos, de investigadores, pero sobre todo, de enfoques (
multimétodos. Greene, Caracelli y Graham (1989) escriben un artículo sobre el marco
referencial mixto.
Para la década de 1990 el debate sobre los modelos mixtos fue sumamente conflictivo
y se polarizaron opiniones: rechazo y aceptación. En 1991, Janice M. Morse concibió
un sistema para simbolizar los diseños mixtos y propuso modelos. En 1997 Richard
Grinnell visualizó diseños específicos, al igual que Creswell (1998).último ya en los
años de 1990). Brewer y Hunter (1989) publican un libro sobreTashakkori y Teddlie
(1998) nos proporcionan otras posibilidades para análisis en los diseños mixtos y
revisan la reciente historia de los métodos mixtos. Durante esta década el enfoque
mixto se aplica en diversos campos como la Educación, la Comunicación, la
Psicología, la Medicina y la Enfermería. Se realizan varios congresos para debatir el
tema. Denzin y Lincoln (2000) presentan una amplia discusión sobre la triangulación.
Creswell, Plano, Clark, Guttman, y Hanson (2003) presentan una tipología de diseños
mixtos. Tashakkori y Teddlie (2003) efectúan una revisión del estado del arte en la
materia. En el 2004 y 2005 se realizan diversas revisiones de las posibilidades del
enfoque mixto (Creswell, 2005; Mertens, 2005; Grinnel y Unrau.
1.4 Métodos axiomáticos,
conocimiento científico
•
matemáticos,
cibernéticos
y
semióticos
del
Los distintas notaciones formales difieren en la forma de definir la semántica:
– Método axiomático o algebraico. Se establece el significado de las
operaciones a través de relaciones entre operaciones (axiomas).
Significado implícito de las operaciones.
–
– Método constructivo u operacional. Se define cada operación por sí
misma, independientemente de las otras, basándose en un modelo
subyacente. Significado explícito de las operaciones
Métodos axiomáticos, matemáticos, cibernéticos y semióticos del
conocimiento científico
El método axiomático (o axiomática) consiste en la formulación de un conjunto de
proposiciones o enunciados, llamados axiomas o postulados, los cuales guardan entre
sí una relación de deductibilidad, y sirven de hipótesis o de condiciones para un
determinado sistema. El objeto de un sistema axiomático es utilizar un pequeño
número de propiedades y precisar cómo deducir de ellas todas las demás. El
procedimiento consta de cuatro fases. En primer lugar se precisan los símbolos que
van a ser utilizados, y que constituirán una especie de alfabeto. A continuación se
precisan cuáles serán las combinaciones legales de esos símbolos. En tercer lugar se
escoge un conjunto de fórmulas que son consideradas como primitivas: los axiomas o
hipótesis. ...
El método axiomático (o axiomática) consiste en la formulación de un conjunto de
proposiciones o enunciados, llamados axiomas o postulados, los cuales guardan entre
sí una relación de deductibilidad, y sirven de hipótesis o de condiciones para un
determinado sistema. El objeto de un sistema axiomático es utilizar un pequeño
número de propiedades y precisar cómo deducir de ellas todas las demás. El
procedimiento consta de cuatro fases. En primer lugar se precisan los símbolos que
van a ser utilizados, y que constituirán una especie de alfabeto. A continuación se
precisan cuáles serán las combinaciones legales de esos símbolos. En tercer lugar se
escoge un conjunto de fórmulas que son consideradas como primitivas: los axiomas o
hipótesis. ...
La simulación es una actividad fundamental en la Ingeniería de Procesos de hoy, que
involucra tanto el modelamiento matemático a partir de primeros principios
(Fenómenos de transporte) como el ajuste de modelos a datos experimentales (Cabe
notar que en su sentido más amplio también se involucra la Simulación Molecular y la
Dinámica de Fluidos Computacional ). Es importante tener en mente que la simulación
es solo una representación aproximada de la realidad, con un cierto nivel de precisión
y no la realidad en si mismo; siendo imprescindible ir mucho más allá del simple
manejo de programas informáticos (Simuladores de proceso) para hacer uso crítico de
los resultados obtenidos por un simulador.
La actividad científica y de ingeniería que hace uso del modelamiento matemático y la
simulación aplicados a la industria de procesos químicos es conocida como Ingeniería
de Procesos Asistida por Computador (CAPE por sus siglas en inglés). Su desarrollo
es de tal importancia que cada año, desde 1991, la Federación Europea de Ingeniería
Química organiza un congreso científico mundial bajo la etiqueta ESCAPE (European
Symposium on Computer Aided Process Engineering).
La actual revolución en tecnologías de la información, así como el enorme progreso en
modelamiento y tecnologías de simulación ha tenido un impacto significativo sobre la
Ingeniería de Procesos. Ha emergido un nuevo paradigma, en el cual la simulación
está involucrada en todas las etapas del ciclo de vida de un proceso, desde la
generación de la idea, los experimentos de laboratorio, el escalamiento a diferentes
niveles, hasta el diseño y operación de la planta de proceso.
La simulación de procesos se ubica en el centro de las tres principales actividades de
ingeniería: Investigación & Desarrollo, Diseño y Operación. El punto común es el
conocimiento científico involucrado en modelos universales, tales como los métodos
computacionales de carácter genérico.
Estas actividades aparentemente
desconectadas, pueden enlazarce por medio de un conjunto de primeros principios,
basados en modelos termodinámicos, cinética química, fenómenos de transporte, etc.
La simulación de processo puede guiar y minimizar la investigación experimental, pero
no eliminarla. Actualmente, la calibración de modelos requiere datos experimentales
precisos. Es el experimento el que pone a prueba un modelo y no lo opuesto. La
planificación estadística de experimentos debe considerarse en estos días
como obsoleto. En su lugar, la investigación experimental debe tomar ventaja del
poder de los modelos rigurosos incorporados en los paquetes de simulación,
particularmente en el campo de la termodinámica.
La simulación puede explorar soluciones innovadoras difíciles de reproducir
experimentalmente. Por ejemplo, la integración de Simulación de Procesos con
Dinámica de Fluidos Computacional puede remplazar la construcción de costosos
prototipos. La elaboración de diagramas de flujo para plantas de proceso, involucrará
el modelamiento fluidodinámico riguroso de cada operación unitaria, en un futuro muy
cercano.
La globalización y el desarrollo sostenible llevan a considerar ciertos cambios en el
Diseño de Procesos, tales como una alta eficiencia energética y un
alto aprovechamiento de las corrientes de materia, flexibilidad, seguridad y
manufactura limpia. En ese sentido la simulación de procesos puede contribuir
siginificativamente, mediante el desarrollo de nuevas tecnologías de proceso que
minimicen los requerimientos de energía y de materia (cero residuos y contaminantes),
y otorgando seguridad absoluta en la operación de la planta mediante la integración
de un análisis de controlabilidad (Plant Wide Control) durante las primeras etapas del
diseño conceptual.
Con el advenimiento de la optimización en tiempo real en la década de 1990, se
abrieron grandes oportunidades para la aplicación directa de la simulación en los
procesos de manufactura. Adicionalmente, con el control de procesos basado en
modelos (MPC) es posible hablar de un mantenimiento preventivo a través de la
monitorización computarizada del funcionamiento de los equipos de proceso.
METODOS SEMIOTICOS
Hay tres métodos semióticos principales, que son: la interpretación, el análisis
lingüístico y la formalización. Cualquiera de ellos suele ser designado a veces con el
término “semiótica”, de manera que se trata de otros tres significados del mismo
término. Según J. Pelc (1984, p. 328), el método de “interpretación” consiste en que
“tratamos las personas, objetos, propiedades, fenómenos o acontecimientos que en
principio no son signos como si lo fueran”. Incluso en nuestras condiciones puede
convertirse en signo un coche nuevo o mejor, cuando alguién, comprándolo, da a
entender su posición social o económica, etc. (Esto se manifiesta mucho más en los
países cuyo índice de coches y de posiciones sociales es mucho más rico, aunque
últimamente nos estamos aproximando a ellos.)
El método de interpretación es muy antiguo. Ya en la sociedad más primitiva los
magos y hechiceros atribuían cierto sentido a los más diversos fenómenos naturales,
adivinando así la suerte de los individuos o de las tribus completas. Más tarde, los
astrólogos presagiaban el destino de la gente según la posición de los cuerpos
celestes, otros “especialistas” según las líneas de la palma de la mano o de los dedos,
según los sueños, etc. Los curanderos, medicastros, medicuchos y médicos juzgaban,
a base de varios síntomas, sobre el carácter de las enfermedades, con lo que el
método de interpretación estaba ganando poco a poco su carácter científico.
La interpretación se aplicó, en la historia de la Humanidad, a las más diversas
creaciones de la naturaleza y del hombre. Entre sus ventajas destaca ante todo el que
tiene carácter universal interdisciplinario, siendo posible aplicarla en cualquier
disciplina.
Por supuesto, desde su omnipresencia se desprende también cierto peligro; es que
puede emplearse con facilidad también erróneamente. Un ejemplo de su aplicación
incorrecta consistió en que los hombres a veces se explicaban varios fenómenos
naturales, tales como p. ej. una tempestad, un eclipse de Sol o una larga sequía como
manifestación de la desgracia enviada por los dioses. La interpretación errónea, a
nuestro parecer, es uno de los motivos principales de todas las supersticiones,
prejuicios, pero también de las creencias religiosas y otras semejantes. También el
método del “análisis lingüístico” tiene una larga tradición. En la antigua India, Grecia y
Roma, se analizó la parte fonética y la gramatical de la lengua, se realizó el análisis de
las palabras y oraciones, dentro de la retórica se estudió la metáfora y otras figuras,
dentro de la filología, más tarde, la confección correcta del texto y sus comentarios. Ya
en la Edad Media se analizó, al lado de la forma hablada y escrita de la lengua,
también la llamada oratio mentalis, se estudió la relación que hay entre la lengua y el
pensamiento, se buscó la gramática universal, se trató de aclarar la relación que hay
entre la lengua natural y los juicios lógicos, en el análisis de la lengua estaba basada
la epistemología, etc.
No es ninguna exageración decir que prácticamente todos los modernos conceptos
lingüísticos (no sólo los del tipo verbo, sujeto, metáfora, etc., sino incluso algunos
como texto, signo, presuposición y otros) fueron estudiados de alguna manera ya en la
Antigüedad, sobre todo por Aristóteles y otros filósofos griegos. Toda la gramática,
retórica y dialéctica (es decir, lógica) antigua y medieval, así como la más tardía
filología y la moderna lingüística, son nada menos que una manifestación de este
método tan divulgado del análisis lingüístico.
El tercer método, la llamada “formalización”, consiste en que sustituimos los signos de
la lengua natural (o de otros sistemas) por otros signos, es decir, símbolos que nos
hacen posible dejar aparte la interpretación semántica y la parte pragmática de los
signos particulares, para poder concentrarnos en su construcción esquemática o su
estructura (sobre todo la sintáctica). Un ejemplo de la formalización en la lingüística
son los marcadores de frase y las reglas de transformación de Chomsky, las
notaciones gráficas de la teoría estratificacional, la mayor parte de los métodos
empleados en la lingüística matemática, el análisis lógico de la lengua, etc.
Este método tiene una serie de ventajas. Ante todo hace posible abstraerse de la
semántica y pragmática, y concentrarse en las propiedades externas de los signos que
son fácilmente accesibles; esto ofrece la posibilidad de sacar conclusiones exactas y
unívocas, aplicar cálculos lógicos, etc. La anotación formalizada de la oración, en la
que las palabras concretas están sustituidas por símbolos unívocos, facilita las
operaciones con los conceptos respectivos, así como la creación de modelos muy
concisos y universalmente válidos, de los cuales cada uno es capaz de representar
una cantidad ilimitada de oraciones concretas cuya interpretación suele ser mucho
más difícil. Como es posible formalizar (hasta cierto punto), al lado de las lenguas
naturales, también todos los demás sistemas de signos, el método mencionado
constituye también un componente unificador de los más variados sistemas
semióticos, así como de las disciplinas científicas respectivas. Junto con estas
ventajas, el método de formalización tiene también ciertas desventajas.
En principio es posible formalizar cualquier cosa, pero el problema consiste en que no
siempre se obtienen de esta manera resultados positivos. Al sustituir una banalidad o
una idea errónea con una secuencia de símbolos, su esencia no cambia, aunque
pueda parecer más científica que en la forma original. Por lo tanto, la formalización
debe emplearse como un medio que sirve para alcanzar cierto objetivo, y nunca
representar un objetivo por sí sola. Es apropiada siempre que facilite una mejor
orientación en los problemas complicados y poco claros. Para ello, desde luego, es
imprescindible que los símbolos empleados sean de veras elementos de un sistema
formal, es decir, de un sistema definido correctamente desde el punto de vista
matemático, y que se trate, además, de una representación empíricamente adecuada
de la parte analizada de la realidad (lengua), lo que no es fácil ni mucho menos y lo
que siempre exige ciertas limitaciones.
El fundador de la escuela de Lvov y Varsovia, K. Twardowski, creó en este contexto
dos términos elocuentes: la símbolomanía, que es la confianza inquebrantable en el
método de formalización, que constituye el objetivo y no el medio para alcanzar otros
objetivos, y la pragmatofobia, que, por el contrario, es la aversión total a interpretar los
signos y trabajar con los símbolos. Las dos “enfermedades”, por supuesto, son
nocivas.
Al igual que cualquier otro método, la formalización evidentemente tiene sus ventajas y
sus deficiencias. Sus límites, en lo que se refiere a las lenguas naturales, consisten
ante todo en que la formalización en gran escala es aplicable sólo al componente
descriptivo (de información) de las lenguas, y mucho menos p. ej. a su componente
emocional, performativo, etc. Los filósofos de la escuela de Oxford hasta consideran
este método como totalmente inadecuado para el análisis de las lenguas naturales,
porque los signos lingüísticos se caracterizan por su falta de nitidez y de expresividad,
y con su transformación en símbolos dicha propiedad suya no se anula, sino que se
disimula solamente.
Los métodos semióticos, sobre todo los de interpretación y de análisis lingüístico,
suelen aplicarse con frecuencia en la descripción de los distintos fenómenos que
forman un sistema ordenado. Es por ello que hoy tenemos p. ej. la semiótica de la
literatura, del teatro, cine, televisión, pintura, escultura, arquitectura y el resto de las
artes, la semiótica de los mitos y religiones, de fenómenos sociales tales como la
gastronomía, el folklore, la moda, las organizaciones sociales, instituciones nacionales,
relaciones políticas, y hasta la semiótica de los juegos, ceremonias, ritos, o incluso de
los productos industriales o de artesanía, etc.
En cuanto al arte, los métodos semióticos se emplean desde antaño ante todo en la
literatura. La causa está parcialmente en el hecho de que su instrumento es la lengua.
Por esta razón, en la ciencia literaria suelen emplearse ante todo los métodos de
interpretación y de análisis lingüístico. Sin embargo, no es la única razón, ya que la
obra literaria es también un signo de su época, de la vida de su autor, de las
tendencias artísticas y culturales, de cierta moda o costumbres literarias de su tiempo
y, además, cualquier obra literaria está expuesta a la influencia de unas obras
(signos), ejerciendo, a la vez, una influencia sobre otras obras literarias. Es por ello
que toda la ciencia literaria –tal vez con la excepción de las biografías de los autores y
las listas de sus obras– tiene carácter semiótico.
Una parte inherente de la literatura son también los mitos, leyendas, narraciones
folklóricas, fábulas, etc., que son muy apropiadas para el análisis semiótico, ya que
registran, por regla general, situaciones antiguas, simples y conocidas, cuya estructura
(organización, esquema) es relativamente fácil de descubrir. Fueron los formalistas
rusos –V. B. Shklovski, R. Jakobson, P. N. Bogatyrev y otros–, que a comienzos de los
años veinte dieron un paso decisivo en este sentido, al analizar, con ayuda de
métodos lingüísticos, la estructura (relaciones internas) de las fábulas populares rusas.
Entre sus continuadores destacaron los representantes del estructuralismo estético
checo (J. Mukařovský y otros). Semejantes métodos se emplean actualmente dentro
de la llamada Nouvelle Critique, o New Criticism.
Según estas investigaciones es verdad que las obras literarias se componen de una
cantidad prácticamente ilimitada de personas, situaciones y acontecimientos
diferentes; sin embargo todos estos elementos pueden clasificarse en un número
relativamente reducido de categorías típicas (p. ej el galán o el traidor en el teatro, el
amor infeliz, el castigo, etc.). Vladimir Propp, uno de los formalistas rusos, al analizar
más de cien fábulas rusas (Morfología del cuento, 1928), demostró que su contenido
podía clasificarse en 31 motivos elementales típicos que se repetían con ciertas
modificacones; uno de los motivos, p. ej., consiste en que alguien (zar, abuelo, mago,
reina) regala a otro (un joven, Iván) alguna cosa (águila, caballo, barco, anillo), lo que
le facilita alcanzar otro reino.
Los formalistas, desde luego, atribuyeron demasiado valor a la estructura interna de la
obra, al considerar el contenido y las circunstancias concretas de las fábulas (obras)
particulares como secundarias. En la Unión Soviética se vieron severamente criticados
y a finales de los años veinte el grupo se desintegró.
En los formalistas rusos se inspiraron muchos semióticos de la literatura. A. J. Greimas
trató de reducir los 31 componentes elementales de las fábulas rusas a sólo una
veintena. Otros autores aplicaron un método parecido incluso a obras bastante
complejas. Así, p. ej., P. Guiraud reconstruyó la estructura simbólica de “Las flores del
mal” de Baudelaire, R. Barthes, analizando “Sarrazin” de Balzac, trató de demostrar la
posibilidad de interpretarlo de varias maneras, sirviéndose de varios códigos
diferentes, etc.
En cuanto al análisis teórico de la semiótica literaria, destacó J. Kristeva y otros
autores. Es habitual analizar con este método también los géneros más simples, tales
como p. ej. novelas policíacas, westerns, cómics y semejantes.
C. Lévi-Strauss aplicó este método incluso a la antropología, al interpretar los mitos,
ante todo el conocido mito de Edipo, rey de Tebas que había matado a su padre y se
casó con su propia madre (sin saber, desde luego, que se trataba de sus propios
padres). Lévi-Strauss redujo el mito a sólo cuatro componentes elementales, los
llamados mitemas (siguiendo el modelo de fonemas), es decir, constantes formales
que correspondían a los motivos elementales de Propp.
Por estas razones es posible decir que la ciencia literaria es esencialmente la
semiótica de la literatura, sobre todo porque su parte material o su instrumento es
justamente la lengua. Esto vale también para otras artes que se sirven, por lo menos
parcialmente, de la lengua (las palabras alternan en ellas con imágenes, música, etc.).
Son ante todo: teatro, óperas y zarzuelas, musicales, películas, dramas difundidos por
radio y televisión, etc. Por consiguiente, en todas estas artes suelen emplearse los
métodos de interpretación y de análisis lingüístico.
Sin embargo, hay también artes que no necesitan la lengua, contentándose sólo con
imágenes, música, etc. Son p. ej. la pintura, escultura, arquitectura, fotografía, cine
mudo, danza, pantomima y semejantes. En ellas suele emplearse exclusivamente el
método de interpretación. No obstante, hay que darse cuenta de que la semiótica de
estas artes ciertamente no puede ocuparse de su lengua-objeto, simplemente porque
en ellas no existe, aunque, por otra parte, también en la semiótica de estas artes “no
lingüísticas” encontramos con frecuencia el término “lenguaje”, con el cual suele
designarse el sistema de sus medios de expresión específicos. Es este sentido se
habla sobre el “lenguaje” de la arquitectura, película muda, pantomima (y, desde
luego, de los ritos, artes mecánicas, artesanías y otros sistemas no lingüísticos), etc.
Un perfecto ejemplo del análisis del “lenguaje” de una película muda puede
encontrarse en la obra “Semiótica del cine y problemas de la estética del cine”
(Ceмиoтикa кинo и пpoблemы kинoэcтeтики, 1973). Su autor Yu. M. Lotman,
profesor de la Universidad de Tartu, Estonia, distinguió allí la gramática, el vocabulario
y la semántica cinematográficos. Lotman considera el mecanismo de la secuencia de
escenas de una película como su gramática; las personas y los objetos particulares
desempeñan la función de unidades léxicas. Aprovechando los métodos lingüísticos,
distingue también los elementos no marcados del lenguaje del cine, tales como son p.
ej. el plano neutro frente al detalle, el ángulo neutro (paralelo al suelo y perpendicular a
la escena) frente a los ángulos marcados con el eje desviado, la cámara inmóvil frente
a la panorámica en movimiento, la película en blanco y negro frente a la en color, etc.
En el ejemplo de la película de Eisenstein “El acorazado Potemkin” y de otras películas
importantes, mudas y sonoras, demuestra cuál es la esencia del “lenguaje” del cine,
cuáles son sus planos y elementos fundamentales, cómo “se lucha” en la película con
el tiempo y espacio, qué importancia tiene el personaje del actor, qué lugar ocupa el
arte cinematográfico en el mecanismo de la cultura, etc.
El “lenguaje” de las comedias de Chaplin fue analizado en detalle en los años treinta
por Jan Mukařovský, que llamó la atención sobre su extraordinario efecto estético
motivado por su vestido lleno de contrastes (la parte superior elegante, la inferior
miserable y ridícula) y, sobre todo, por su comportamiento lleno de contradicciones
(vestido de harapos, muchas veces se comporta como un caballero, de esmoquin, en
la mayoría de los casos como un holgazán). El vestido y el comportamiento en las
películas de Chaplin forman sin duda una parte integrante de su lenguaje específico,
teniendo un carácter semiótico muy expresivo.
Otro gran grupo de fenómenos estudiados por la semiótica está formado por
protocolos, ritos, moda y juegos. Detrás de estos términos, por supuesto, se esconde
una cantidad ilimitada de ceremonias, fiestas, códigos, juegos y otros fenómenos muy
variados y heterogéneos que desempeñan, todos ellos, una función social y tienen
carácter semiótico.
Los “protocolos” determinan el lugar y la posición de un individuo o grupo durante sus
negociaciones con otros individuos o grupos; reflejan las relaciones familiares,
religiosas, profesionales, políticas, etc. Así, p. ej., durante las negociaciones
internacionales, el lugar en la mesa tiene función semiótica en el sentido de que
designa la posición de la persona respectiva (por tanto, antes de las negociaciones
suelen tener lugar largas discusiones sobre la forma de la mesa y la distribución de los
sitios; durante la conferencia de Potsdam hasta se vio indispensable abrir una nueva
tercera puerta en la habitación de negociaciones, para que los representantes de las
potencias victoriosas no tuvieran que darse preferencia al entrar).
Los “ritos” se caracterizan por su carácter colectivo de comunicación. Sin embargo, su
objetivo no consiste tanto en intercambiar información como más bien en unir
estrechamente la sociedad respectiva. Los participantes manifiestan su voluntad de
cumplir sus obligaciones familiares, étnicas, religiosas, nacionales o sociales,
confirmando su incorporación al grupo respectivo. Ejemplos no faltan, comenzando por
las ceremonias de iniciación o de entierro en las tribus primitivas, pasando por las
ceremonias religiosas, nupciales, la entrega de las medallas en los Juegos Olímpicos,
hasta las fiestas nacionales, etc. El carácter semiótico de estos acontecimientos se
desprende no sólo de la importante función de los símbolos empleados, sino también
de la secuencia y del carácter convencional de los actos particulares, así como de la
lengua respectiva.
La “moda” es uno de los modos de ser de la sociedad. Domina en los vestidos, las
viviendas, las comidas, etc. Según P. Guiraud, la moda cambia porque, por una parte,
algunos miembros de la sociedad tratan de aproximarse a los grupos prestigiosos,
adoptando sus rasgos característicos (la manera de vestirse, etc.) y, por otra parte,
otros miembros de la misma sociedad se esfuerzan en diferenciarse en la mayor
medida posible del “ideal” mencionado, casi siempre para dar a entender sus
protestas. En los dos casos, la moda puede compensar varias frustraciones, y
complace indudablemente el deseo de manifestar (señalar) la posición y la concepción
del mundo de las personas respectivas.
Los “juegos”, al igual que las artes, imitan la realidad. Se dividen, por regla general, en
intelectuales, sociales y estéticos. El objetivo de los juegos intelectuales consiste en
construir algún sistema o descubrir su sentido (ver p. ej. el modelaje, varios juegos de
construcción infantiles, pero también los crucigramas, jeroglíficos, etc.). Los juegos
sociales tienen como objetivo incorporar al participante a cierta posición social (la niña
que juega con su muñeca, p. ej., se está preparando para su papel de madre, en el
ajedrez y otros deportes los jugadores imitan una lucha o guerra real, etc.). Desde el
punto de vista de los espectadores, la mayor parte de los juegos tiene función estética
(en el sentido amplio no son solamente los dramas teatrales, etc., sino también los
encuentros deportivos, etc.). En muchos juegos, por supuesto, se combinan las tres
funciones, aunque en una medida diferente. Todos los juegos se caracterizan por el
conjunto de reglas correspondientes, sin el cual cualquier juego perdería su sentido El
objetivo principal de los juegos es, por una parte, conocer la realidad (en los niños, p.
ej., prepararse para la vida de adultos) y, por otra parte, divertirse en el tiempo libre.
Sin embargo, la psicología y psiquiatría contemporánea trabajan con una concepción
más amplia del juego, según la cual incluso en la vida cotidiana cada individuo juega
cierto papel (p. ej. de un esposo feliz, aventurero, tirano de su familia, esposa fría,
obediente o despreocupada, pero también de un soldado valiente o incluso héroe
nacional), muchas veces sin tomar en consideración su carácter real. En este caso
puede tratarse de otra función de los juegos, es decir, la de satisfacer los anhelos y
deseos que no pueden cumplirse en la vida real.
La semiótica suele ocuparse también de varias artes adivinatorias (las llamadas
mánticas), como son p. ej. la quiromancia (adivinación fundada en el estudio de la
mano), cartomancia (naipes), aritmomancia (números), oniromancia (sueños), así
como de otros fenómenos y acontecimientos (cacharros, arañas, gato atravesando el
camino y semejantes), adivinación del futuro según la posición de los cuerpos celestes
(astrología, confección de horóscopos), etc. Se trata, en la mayoría de los casos, de
métodos no científicos, aunque interesantes para la semiótica, ante todo porque en
todos los casos sin excepción se trata de un sistema de signos, de cierta “lengua” en
el sentido amplio, la cual tiene su morfología (reglas), sus constituyentes inmediatos
(signos) y su semántica (significado de los signos).
La semiótica ayuda muchas veces a descubrir el carácter no científico de la
adivinación.
Así, p. ej., en la cartomancia, los naipes particulares funcionan como signos de muy
poca nitidez, teniendo un significado aproximado y facilitando una interpretación muy
variada (p. ej. las figuras pueden designar a hombre, mujer, muchacho y muchacha;
algunos palos de la baraja son favorables, otros desfavorables, etc.). Los naipes
suelen barajarse y una parte de ellos se reparte en varios grupos, p. ej. en cinco
grupos de cuatro naipes, en forma de cruz. Cada uno de los grupos tiene su
significado; el grupo central, p. ej., significa la actualidad, el de arriba el futuro próximo,
el de abajo el pasado, el izquierdo los obstáculos y el derecho el futuro lejano. La
echadora de cartas descubre sucesivamente los naipes, dirigiéndose en su
interpretación por las reacciones del cliente, de manera que muchas veces logra
evocar su confianza (el rey de picas, p. ej., puede interpretarse como un hombre brutal
desconocido, un padre demasiado severo, un pariente envidioso, etc.).
Hemos mencionado aquí sólo una parte insignificante de la cantidad casi infinita de
diferentes sistemas de signos que pueden ser objeto de estudio de la semiótica.
Desde el punto de vista de la lingüística es interesante también el estudio de los
sistemas “no lingüísticos”, ya que puede ayudarnos a ampliar y precisar la propia
semiótica lingüística, que estudia el carácter semiótico de las lenguas naturales. Lo
que caracteriza a la semiótica aplicada es que su objetivo es el estudio de los sistemas
de signos, de los cuales hemos podido mencionar aquí sólo una pequeña parte.
Está basada en los conocimientos de la semiótica teórica, aunque por otra parte
contribuye a enriquecerla con sus resultados. Desde luego, también la semiótica
teórica puede estudiar dichos sistemas, en este caso para sacar conclusiones más
generales.
Descargar