INSTITUTO VERACRUZANO DE EDUCACION SUPERIOR SEDE: NOGALES LICENCIATURA EN EDUCACION DEPORTIVA PARADIGMAS DE LA INVESTIGACION L.E.P. MARTHA ELENA HERNANDEZ GOMEZ PARADIGMAS DE LA INVESTIGACION INTRODUCCION La asignatura en el mapa curricular de la Licenciatura en Educación Deportiva, se ubica en el eje de formación investigativo, justificando su presencia la necesidad permanente de actualización y adquisición de herramientas que permitan mejorar el desempeño docente. Esto constituye en la actualidad un tópico que ninguna institución de Educación Superior puede soslayar, ya que debe ofrecer a los futuros profesionales conocimientos que respondan a las necesidades e intereses en el ámbito educativo. ENFOQUE Desde que el hombre ha tomado conciencia del mundo el conocimiento se generó brindando las herramientas necesarias para desarrollar sistemas que controlaran las fuerzas ciegas de la naturaleza para su beneficio, a lo largo del tiempo el conocimiento ha evolucionado fundamentado en la concepción objetiva del mundo, por tanto tantas escuelas de pensamiento han surgido y otras han decaído, sin embargo hoy en día es menester alejarse del eclecticismo y escolasticismo que mayormente confunde y enreda la conciencia de los hombres por construir su devenir. Es en este sentido que la construcción del conocimiento no puede bajo ningún momento alejarse de la dialéctica de la naturaleza, si bien la revisión de los diferentes paradigmas de investigación es importante revisar sólo es para perfeccionar la metodología científica de la construcción de nuevos conocimientos que eleven el nivel de instrucción del especialista en educación deportiva. Objetivo General Analizar los diferentes métodos de investigación bajo diferentes paradigmas filosóficos, la metodología empleada en la construcción de conocimiento y su vinculación con el deporte y la actividad física. Unidad I: “Aproximación de los métodos de investigación” Identificar las generalidades de los métodos de la investigación científica en función de diferentes paradigmas filosóficos. TEMARIO UNIDAD I 1.1 Carácter científico general y la especificidad del método filosófico 1.2 Métodos de la investigación científica 1.3 Métodos axiomáticos, matemáticos, cibernéticos y semióticos del conocimiento científico OBJETIVOS ESPECIFICOS 1 2 3 Señalar el carácter científico y la especificidad del método filosófico como paradigma de creación de conocimiento. Reflexionar sobre la fundamentación general de los métodos de investigación científica. Comprender las generalidades de los métodos matemáticos, cibernéticos y semióticos del conocimiento Unidad II: “La metodología de la investigación” Distinguir la metodología de la investigación como herramienta fundamental en la construcción de conocimiento científico. TEMARIO UNIDAD II 2.1 Planteamiento del problema y marco teórico 2.2 La hipótesis de trabajo. OBJETIVOS ESPECIFICOS 1 2 3 Advertir el procedimiento de la estructuración del planteamiento del problema y marco teórico como fases iniciales del proceso investigativo. Dirigir la estructuración adecuada del diseño de la hipótesis y estructura de la muestra en un proceso investigativo. Advertir la estructura de la recolección de datos, análisis e interpretación de los datos como etapas finales del proceso investigativo. Unidad III: “La investigación en la educación deportiva” Establecer la relación fundamental de la investigación para la creación de conocimientos especializados en actividad física y deporte. TEMARIO UNIDAD III 3.1 La investigación en el deporte y la actividad física 3.2 Los ejes de investigación de la educación deportiva 3.3 Estructuración de investigaciones en la educación deportiva OBJETIVOS ESPECIFICOS 1 Señalar la relación fundamental del deporte y la actividad física fundamentada en los principios científicos técnicos. Criterios de Evaluación Evidencia (s) de Criterios de desempeño desempeño Ensayo al término Plasma las de cada unidad reflexiones de un determinado tema, utilizando sus propias palabras Ámbito (s) de aplicación Extra clase Porcentaje 15% Participaciones Explica sus opiniones y defiende sus argumentos Aula 10% Examen escrito Evaluación al término de cada unidad Aula 50% Extra Clase 25% Antología Individual Plasmar los (Trabajo Final) contenidos temáticos de la asignatura Para la acreditación de esta asignatura se necesita como mínimo 85 % de asistencias a las sesiones presenciales, y con el 75 % de los trabajos e indicadores requeridos en clase y extraclase. ANTOLOGIA Unidad I: “Aproximación de los métodos de investigación” Identificar las generalidades de los métodos de la investigación científica en función de diferentes paradigmas filosóficos. TEMARIO UNIDAD I 1.1 Carácter científico general y la especificidad del método filosófico 1.2 Métodos de la investigación científica 1.3 Métodos axiomáticos, matemáticos, cibernéticos y semióticos del conocimiento científico 1.1Carácter científico general y la especificidad del método filosófico Método Se tiene un método cuando se sigue un cierto camino con el objetivo de alcanzar un cierto fin, propuesto de antemano como tal. Este fin puede ser el conocimiento o puede ser también un fin humano o vital, como por ejemplo, la felicidad. Durante un tiempo se consideraba que los problemas relativos al método eran exclusivos de la metodología, como parte de la lógica que consideraba las formas particulares del pensamiento. Hoy día ya no se acepta esta posición, pues las cuestiones relativas al método rozan no sólo problemas lógicos, sino también epistemológicos y hasta metafísicos. Una de las cuestiones más generales con respecto al método es la relación que cabe establecer entre el método y la realidad que se trata de conocer. Es frecuente estimar que el tipo de realidad que se aspira a conocer determina la estructura del método a seguir. Por otro lado, ha sido aspiración muy frecuente la de hallar un método universal aplicable a todas las ramas del saber y en todos los casos posibles. Descartes, en su Discurso del método indica que las reglas metódicas propuestas eran reglas de invención o de descubrimiento que no dependen de la particular capacidad intelectual del que la usa. Puede hablarse de métodos más generales, como el análisis, la síntesis, la deducción, la inducción, etc.; y de métodos más especiales, esto es, los determinados por el tipo de objeto a investigar o la clase de proposiciones a descubrir. También se puede hablar de métodos racionales en contraposición con métodos intuitivos. La filosofía se ocupa no sólo de cuestiones relativas a la naturaleza del método, sino que también se pregunta si hay o no algún método más adecuado que otros para el propio filosofar. Hay tres métodos filosóficos fundamentales, que dan origen a un tipo peculiar de filosofía: método dialéctico (Platón, Hegel...) que consiste en suprimir las contradicciones; método logístico (Demócrito, Descartes, Leibniz, Locke) que consiste en afirmar la existencia de principios y en deducir a partir de ellos el resto; y método de indagación (Aristóteles, Bacon...), que consiste en usar una pluralidad de métodos, cada uno de ellos adecuado a su objeto. Método hipotético-deductivo El método más amplio y general de todas las ciencias que proceden inductivamente, es decir, que van de lo particular a lo general, es el método hipotéticodeductivo, instaurado por Galileo y perfeccionado por Newton, mediante una síntesis de los procedimientos de Bacon y Galileo. Hay que precisar antes de describir la fases principales de este método que un empirismo radical, pura experiencia sin marco teórico de referencia, sin una previa hipótesis anticipatoria de lo que se espera que ocurra, no puede considerarse hoy día una metodología científica. Además hay que advertir que la ciencia es una aventura, una búsqueda que abre caminos incluso más allá de lo previsto. Esta característica es lo que se denomina predictibilidad y consiste en el hecho de que gracias a la utilización del método científico, las teorías nuevas producen predicciones no hechas antes. Sin un supuesto previo (hipótesis) no se puede buscar (investigar); es a partir de éstas como se generan caminos, predicciones, que siendo coherentes con dichas teorías no se esperaban. Las fases principales del método hipotético-deductivo son la observación, la construcción de hipótesis, deducción de consecuencias a partir de la hipótesis, contrastación empírica de los enunciados y formulación de leyes científicas. La primera fase del método hipotético-deductivo es la observación. Con la observación se trata de partir de la experiencia de los sentidos, de la observación sensible de los hechos. La observación consiste en la simple apreciación de un hecho u objeto cualquiera que aporta datos directos acerca de un hecho natural o de un aspecto cualquiera de la realidad. La observación puede ser de un doble tipo: espontánea o controlada. La observación es espontánea cuando recoge los datos que se producen de un modo espontáneo en la naturaleza, aunque ateniéndose a unos cánones de exactitud, completitud y fiabilidad. La observación es controlada cuando se funda en resultados experimentales cuyas variables se controlan en el experimento. En todo caso, la observación absolutamente neutral es imposible ya que tanto la observación como la experimentación requieren instrumentos y operaciones de medición, que condicionan inevitablemente los resultados. Se ha dicho muchas veces que no existen hechos puros sino que toda constatación de hechos se hace desde un marco teórico, es decir, se trata de algo así como unas gafas con cristales de color que hacen que la observación esté teñida por la coloración del cristal. Pero a pesar de todo la ciencia debe proceder a partir de esta observación, espontánea o controlada, para tener datos previos que le sirvan de punto de partida, es decir, la observación están en la base de todo conocimiento que pretenda ser científico ya que el científico formula su hipótesis en base a explicar los hechos observados. La segunda fase del método hipotético deductivo es la construcción de hipótesis explicativas. La palabra hipótesis deriva etimológicamente de lo puesto (thésis) por debajo, en la base (upó) significando que se establece una suposición para la resolución de un problema, es decir, la hipótesis es un enunciado que, si se cumpliera, permitiría entender el evento real problemático y la resolución del problema plantado. Es a partir de las observaciones realizadas como se pueden elaborar hipótesis que expliquen los datos de una manera unitaria y sistemática. Se trata de buscar una regularidad sencilla que explique los fenómenos observados. Las hipótesis operan como explicaciones provisionales que se confirmarán en mayor o menor grado, pero que aún aceptadas como leyes, no pueden considerarse como verificadas puesto que es imposible probar todos los casos posibles. La diferencia entre la hipótesis y la ley es que, aunque ambas expresan lo mismo, entre la primera y la segunda median un cúmulo de confirmaciones, un altísimo número de ocasiones en que la predicción se ha cumplido. Por muy alto que sea el número de casos confirmados siempre será mayor el número de casos posibles, de modo que nunca podrán decirse siempre que o todos los casos, sino que se deberán reconocer que hasta el momento ha sucedido que, lo que significa que no podremos nunca obtener enunciados universalmente válidos. Las hipótesis son construcciones explicativas de cómo ocurren ciertos fenómenos, es decir, supuestos sobre cómo se comporta la naturaleza, o si se quiere, tests que se hacen a la naturaleza y a los que ella, en ocasiones responde afirmativamente. La construcción de las hipótesis con arreglo al método científico debe regirse por varios criterios. En primer lugar una hipótesis científica debe atenerse a los hechos observados y tratar de explicarlos. El problema es que hechos aparentemente asépticos están en realidad contaminados de teoría. Galileo en Diálogo entre los sistemas del mundo, afirmaba: "es mejor dejar de lado la apariencia, en la que todos estamos de acuerdo y usar el poder de la razón para confirmar la realidad o la falacia". Cualquier observador desinteresado puede sentarse al amanecer a la puerta de su casa y estarse allí hasta el atardecer; verá así cómo el sol se desplaza a lo largo del día, mientras que él no se ha movido de su silla. Pero la percepción ingenua del hombre que estando quieto ve pasar el sol están en realidad contaminada por los criterios científicos de la época, en la que se consideraba que la tierra era un plato que flotaba en el río Océano y que constituía el centro del sistema solar formado por siete círculos concéntricos, siendo el tercero de estos ocupado por el sol. El hombre de la época tenia tal creencia y desde ella, con esas gafas puestas se sentaba a la puerta de su casa para confirmar en la experiencia su hipótesis. La creencia de que nuestros sentidos nos proporcionan evidencias y de que los movimientos aparentes son absolutos no se formulan explícitamente, pero se esconden detrás de los términos observacionales. En segundo lugar las hipótesis deben tener la propiedad de la verificabilidad, es decir, las hipótesis aunque sean difícilmente aceptables a primera vista deben sugerir algún tipo de experimentación que permita confirmarlas en la experiencia, puesto que el objetivo de toda hipótesis es convertirse en ley. Un criterio de verificación, llamado criterio blando, es el de la teoría probabilística. La teoría probabilística admite que la verificación en sentido estricto es lógicamente imposible. La probabilidad se extiende en una línea que va de 0 a 1; la probabilidad cero indicaría la imposibilidad de confirmar, ni siquiera una vez, la hipótesis explicativa. La probabilidad uno significaría que la hipótesis se cumpliría en cualquier caso, es decir, en todos y cada uno de los casos. Otro criterio de verificación es el propuesto por Popper en 1934 al formular su criterio de falsabilidad, que consiste en encontrar un experimento crucial que permita echar por tierra una teoría o un hecho supuestamente bien establecidos. Para Popper la metodología científica no debía encaminarse a la verificación, sino a la falsación, ya que es posible probar la falsedad de una hipótesis, pero no hacerla verdadera. Popper recomienda encontrar experimentos cruciales que muestren la falsedad de las teorías que hasta el presente se tenían por verdaderas. Según Popper el método científico tiene dos características fundamentales: proceder por ensayo-error y ser una convención intersubjetiva, es decir, que lo científico es solamente aquello que está enunciado de tal manera que puede ser falsado en la experiencia, tal como ocurriría con la afirmación y que puede ser objeto de una valoración intersubjetiva dentro de la comunidad científica. A la objetividad científica solamente se llega cuando la teoría está en un cierto estadio de madurez y mediante la crítica intersubjetiva, que culmina en un convenio de la comunidad científica. Esto habría que entenderlo al modo en que se pactan las leyes en los parlamentos. Por tratarse de un terreno sumamente especializado, los pactos o convenios sobre cuales son las explicaciones científicas correctas, quedan restringidos al campo de la comunidad científica. En tercer lugar las hipótesis deben tener la propiedad de la coherencia según la cual las hipótesis no deben entrar en contradicción con leyes ya establecidas por la propia teoría o por teorías afines. No obstante en la teoría de la ciencia actual esta propiedad debe ser matizada a partir de la teoría anarquista del conocimiento de Feyerabend. Feyerabend, que subtituló su obra principal Contra el método como Esquema de una teoría anarquista, aboga por el fomento de la creatividad que implica tolerar un cierto grado de incoherencia, es decir, atreverse a formular contrainducciones. El principio de contrainducción consiste en formular hipótesis incoherentes con las teorías y con los hechos que en ese momento se consideran bien establecidos. Galileo al invertir los términos e ir en contra de la observación, asegurando que la tierra se mueve alrededor del sol, operó contrainductivamente. Aceptó una teoría alternativa e incoherente con la anterior afirmando que la tierra se movía e intentando reinterpretar los hechos. Para ello Galileo intentó descubrir y desenmascarar las interpretaciones naturales, los prejuicios acerca de la fiabilidad de los sentidos, que aún siendo gratuitos estaban fuertemente arraigados. Una vez desenmascaradas las percepciones ingenuas, que subyacían a la interpretación ptolemaica se pudo ver que la teoría copernicana, defendida por Galileo, estaba de acuerdo con los hechos. La diferencia estaba en que consideraba los mismos hechos desde una perspectiva o hipótesis incoherente.El otro principio de la teoría anarquista del conocimiento de Feyerabend es el de proliferación de hipótesis consistente en la exigencia de formular simultáneamente varias hipótesis incompatibles (incoherentes) ya que la necesidad de cribar, de seleccionar entre diversas hipótesis incoherentes impulsa el ritmo de creación y promoción científicas. En cuarto lugar las hipótesis deben ser sencillas y predecibles. Este principio, llamado principio de economía, fue enunciado ya en el siglo XIV por Guillermo de Ockam bajo la fórmula de que "no hay que multiplicar los entes sin necesidad" por lo que desde entonces se denominó "la navaja de Ockam". Ha sido denominado también "principio de parsimonia" significando que una hipótesis es tanto mejor cuanto más explica con menos elementos teóricos. La tercera fase del método hipotético-deductivo es la deducción de consecuencias desde la hipótesis. La hipótesis es un enunciado provisional de carácter universal que predice lo que sucederá entre los objetos de la clase a que se refiere. Pero la hipótesis misma no se puede comprobar directamente sino ciertas consecuencias que se derivan lógicamente de ella. Si la experiencia comprueba que las consecuencias deducidas de la hipótesis se cumplen efectivamente, la hipótesis quedará confirmada o reforzada. Si, por el contrario, las consecuencias no se cumplen realmente, la hipótesis habrá de ser abandonada y sustituida por otra de la que se deducirán nuevamente consecuencias a comprobar. La deducción se utiliza por parte de las ciencias experimentales con una función precisa: proporcionar al científico una serie de enunciados acerca de hechos de una clase par que queda experimentar si lo que en ellos predice sucede en realidad o no. El hecho de abrir nuevos caminos a la investigación es lo que determina el carácter heurístico de la hipótesis o, dicho de otro modo, su carácter de predictibilidad . La deducción constituye el aspecto formal, lógico, del método científico, que interactúa con el inductivo que constituye su aspecto experimental, empírico. Así, el razonamiento, coherente con las reglas lógicas, concluye consecuencias que deben confirmarse en la experiencia. La cuarta fase del método hipotético-deductivo es la de contrastación empírica de los enunciados consecuentes de la formulación de la hipótesis, es decir, tratar de comprobar experimentalmente si las consecuencias derivadas de la hipótesis se cumplen efectivamente o no. La experimentación es distinta de la simple observación que se hacía en el primer momento del punto de partida ya que la simple observación carece de precisión cuantitativa y no altera las circunstancias en las que normalmente suceden los hechos. Un experimento consiste en la reproducción de determinados hechos provocando las circunstancias deseadas dentro de las cuales el científico quiere hacer la observación. La quinta fase es la formulación de leyes científicas. Aunque deba aceptarse su carácter de provisionalidad, supone el último eslabón de la laboriosa actividad de la comunidad científica. Las leyes son enunciados que expresan el modo regular, estable y constante con el que suceden ciertos eventos reales con carácter de universalidad y necesidad. Esta universidad y necesidad de las leyes hay que entenderlas del modo siguiente: la interpretación humana de los hechos de observación y del conjunto de interpretaciones de ella ellos derivadas parece ser que los eventos reales sucederán necesariamente como la ley formula, pero teniendo en cuenta que las interpretaciones humanas están abiertas a renovarse y corregirse en el futuro. Desde una perspectiva epistemológica, por tanto, hoy se tiende a acentuar el carácter hipotético de las leyes científicas tendiendo a considerarlas como meras hipótesis sobre la regularidad funcional de los eventos reales. Por eso Mario Bunge ha explicado el concepto de ley científica del modo siguiente: "Una ley científica es una hipótesis científica confirmada (convalidada) que afirma la relación constante entre dos o más variables, cada una de las cuales representa una propiedad de sistemas concretos". CARACTERÍSTICA S Y SUPUESTOS. Etiquetas asociadas con el POSPOSITIVISM O. CONSTRUCTIVIST A. TRANSFORMATIV O PRAGMÁTIC O. • Experimental • Cuantitativo • Causal • Naturalista • Fenomenológico • Hermenéutico • Interaccionista simbólico (interactivo) • Etnográfico • Teoría crítica • Neo-marxista • Feminista • Participativo • Métodos y modelos mixtos o paradigma • Comparativo Supuesto realidad Supuesto del conocimiento y relación entre el investigador y el fenómeno de Una realidad conocida en términos de probabilidad La objetividad es importante, el investigador observa, mide y manipula variables; se desprende de sus tendencias. • Cualitativo Múltiples realidades construidas socialmente El conocimiento es interactivo, producto del vínculo entre el investigador y los participantes. Los valores y tendencias de todos los involucrados son hechas explícitas, generan híbridos • Emancipatorio Múltiples realidades, formadas por el contexto social, político, económico, cultural y étnico El conocimiento es interactivo, producto del vínculo entre el investigador y los participantes. Se sitúa social e históricamente. descubrimientos Supuesto Básicamente cuantitativo e metodológico Básicamente cualitativo, hermenéutico y intervencionista dialéctico. Con bases cualitativas, pero pueden utilizarse métodos cuantitativos y mixtos. Los factores históricos están incluidos. Lo que es útil para explicar un fenómeno es lo verdadero Las relaciones entre el investigador y el fenómeno, o participantes del estudio, están determinadas por lo que el investigador considera como apropiado para cada estudio en particular. El método depende del planteamiento específico del estudio. Son válidas las técnicas cuantitativas, cualitativas mixtas y 1.2 Métodos de la Investigación Científica Al hablar del método científico es referirse a la ciencia (básica y aplicada) como un conjunto de pensamientos universales y necesarios, y que en función de esto surgen algunas cualidades importantes, como la de que está constituida por leyes universales que conforman un conocimiento sistemático de la realidad. Y es así que el método científico procura una adecuada elaboración de esos pensamientos universales y necesarios. Sin embargo, mientras que los representantes del “camino más elevado hacia la verdad” se afanan para demostrar que los procedimientos –disciplinados y positivosde la ciencia limitan su radio de acción hasta el punto de excluir los indubitables aspectos de la realidad. ¿Y en qué fundamentan éstos tal punto de vista? Su argumento estriba, en primer lugar, en la presentación del método científico como interesado únicamente en la física y en la química (ciencias experimentales), es decir, en lo mensurable (lo que se puede medir, pesar y contar), excluyendo aspectos de la realidad como la vida y la mente humana, las cuales quedan reducidas –y a esto lo dan por descontado- exclusivamente a lo material, a lo corpóreo, a lo externo. En segundo lugar, tienen que demostrar que el razonamiento científico constituye un estricto proceso de deducción, proceso del que están excluidos la imaginación y el pensamiento intuitivo. En otras palabras, el método científico tiene su base y postura sobre la teoría mecanicista (todo es considerado como una máquina, y para entender el todo debemos descomponerlo en partes pequeñas que permitan estudiar, analizar y comprender sus nexos, interdependencia y conexiones entre el todo y sus partes), y, por consiguiente también ese mismo carácter. Si ello fuera realmente así, está claro que quedarían fuera del alcance, del razonamiento científico vastos campos o parcelas de la realidad, de la verdad; siendo entonces necesario hallar un nuevo camino que nos lleve hasta esta misma verdad. Mas la ciencia no está en modo alguno circunscrita a lo mensurable. “El papel desempeñado por la medición y por la cantidad (cualidades cuantitativas) en la ciencia –dice Bertrand Russell- es en realidad muy importante, pero creo que a veces se le supervalora. Las leyes cualitativas pueden ser tan científicas como la leyes cuantitativas.” Tampoco la ciencia está reducida a la física y a la química; mas a los defensores del “elevado camino hacia la verdad” les conviene creer que ello es así. Para ellos es necesario, en efecto, presentar a la ciencia como estando limitada, por su misma naturaleza, a la tarea de preparar el escenario para que la entrada en él una forma más elevada de conocimiento. Pero la esfera de la acción de la ciencia es ya bastante amplia, no ya para incluir a la biología y a la psicología, a la economía y a la antropología, a la sociología y a la historia, sino que también sus métodos son capaces de ir cada uno de los campos estudiados, modificándose a si mismos, al objeto de mejor adecuarse a cada uno de los campos estudiados. Lo que hace que el razonamiento científico es, en primer lugar, el método de observación, el experimento y el análisis, y, después, la construcción de hipótesis y la subsiguiente comprobación de éstas. Este procedimiento no sólo es válido para las ciencias físicas, sino que es perfectamente aplicable a todos los campos del saber. El método científico es el procedimiento planteado que se sigue en la investigación para descubrir las formas de existencia de los procesos objetivos, para desentrañar sus conexiones internas y externas, para generalizar y profundizar los conocimientos así adquiridos, para llegar a demostrarlos con rigor racional y para comprobarlos en el experimento y con las técnicas de su aplicación. El método científico se emplea con el fin de incrementar el conocimiento y en consecuencia aumentar nuestro bienestar y nuestro poder (objetivamente extrínsecos o utilitarios). En sentido riguroso, el método científico es único, tanto en su generalidad como en su particularidad. Al método científico también se le caracteriza como un rasgo característico de la ciencia, tanto de la pura como de la aplicada; y por su familiaridad puede perfeccionarse mediante la estimación de los resultados a los que lleva mediante el análisis directo. Otra característica es que, no es autosuficiente: no puede operar en un vació de conocimiento, si no que requiere de algún conocimiento previo que pueda luego reajustarse y reelaborarse; y que posteriormente pueda complementarse mediante métodos especiales adaptados a las peculiaridades de cada tema, y de cada área, sin embargo en lo general el método científico se apega a las siguientes principales etapas para su aplicación: 1. Enunciar preguntas bien formuladas y verosímilmente fecundas. 2. Arbitrar conjeturas, fundadas y contrastables con la experiencia para contestar a las preguntas. 3. Derivar consecuencias lógicas de las conjeturas. 4. Arbitrar técnicas para someter las conjeturas a contrastación. 5. Someter a su vez a contrastación esas técnicas para comprobar su relevancia y la fe que merecen. 6. Llevar a cabo la contrastación e interpretar sus resultados. 7. Estimar la pretensión de la verdad de las conjeturas y la fidelidad de las técnicas. 8. Determinar los dominios en los cuales valen las conjeturas y las técnicas, y formular los nuevos problemas originados por la investigación. Descrito desde otro punto de vista, podemos decir que el método científico es el medio por el cual tratamos de dar respuesta a las interrogantes acerca del orden de la naturaleza. Las preguntas que nos hacemos en una investigación generalmente están determinadas por nuestros intereses, y condicionadas por los conocimientos que ya poseemos. De estos dos factores depende también la “clase” de respuesta que habremos de juzgar como “satisfactoria”, una vez encontrada. El método científico es la lógica general empleada, tácita o explícitamente para valorar los meritos de una investigación. Es, por tanto, útil pensar acerca del método científico como constituido por un conjunto de normas, las cuales sirven como patrones que deben ser satisfechos si alguna investigación es estimada como investigación responsablemente dirigida cuyas conclusiones merecen confianza racional. El método científico sigue una direccionalidad univoca que le es característica, porque el método como tal es en sí un procedimiento encaminado a un objetivo, el intentar lograrlo lleva implícita una dinámica que para el caso del método científico se inicia con la Fase de la Observación, donde el sujeto conocedor (científico) entra en contacto con el fenómeno, y sabe de él algo, algo que lo induce a continuar buscando; en un segundo gran momento, supone de ése fenómeno cierto nivel de verdad, esto es, en una segunda fase, o Fase del Planteamiento de la hipótesis, que fundamentada en conocimientos previos y en los datos por recoger, podría ser demostrada; por último tenemos la Fase de Comprobación, la cual depende del grado de generalidad y sistematicidad de la hipótesis. Las evidencias que comprueban o desaprueban son igualmente estimables. Es preferible, denominar a la teoría la concepción teórica o teoría general, que es un conjunto de conceptos, categorías y leyes generales sobre los procesos y objetos de la realidad. De esta teoría general se deriva – aunque de hecho se encuentra inserto en ella – el método general de conocimiento concebido éste como la manera de abordar el objeto de estudio y el cual es general para una determinada concepción teórica. Sí se considera a los fenómenos de la naturaleza y de la sociedad en movimiento, en desarrollo constante, es decir en su pasado, presente y futuro; en sus conexiones e interacción; en sus contradicciones internas, y se considera que los cambios cuantitativos se transforman en determinado momento y condiciones, en cambios cualitativos, el método de conocimiento será dialéctico materialista; pero si se concibe a los fenómenos y objetos como algo acabado, inmutable, es decir, sin cambio, y cada uno de los aspectos de la realidad se analizan en forma aislada, y no existe interés por conocer las causas esenciales por las cuales los fenómenos surgen, se desarrollan y transforman, entonces en enfoque será metafísico. Cualquier teoría general o concepción teórica involucra determinados conceptos y sus interrelaciones que dan cuenta de la forma como se conciben los procesos y objetos. En el caso del materialismo dialéctico, los conceptos, categorías, principios y leyes generales, son: la materia, el movimiento, la contradicción, causa y efecto, esencia y fenómeno, forma y contenido, apariencia y realidad; el principio del historicismo, y de la conexión e interacción de los fenómenos, las leyes de la dialéctica, entre otros. Estas categorías y leyes generales – que forman parte de la filosofía marxista: el materialismo dialéctico – dan cuenta de una determinada concepción de la realidad y, a su vez, son instrumentos metodológicos que orientan la aprehensión de los fenómenos de la realidad concreta. En el proceso de la investigación científica se utiliza diversos métodos y técnicas según la ciencia particular de que se trate y de acuerdo a las características concretas del objeto de estudio. Existen, sin embargo, métodos que pueden considerarse generales para todas las ramas de la ciencia en tanto que son procedimientos que se aplican en las distinta setapas del proceso de investigación con mayor o menor énfasis, según el momento en que éste se desarrolle. Estos métodos son el análisis y la síntesis, la inducción y la deducción. El Método Analítico El Método analítico es aquel método de investigación que consiste en la desmembración de un todo, descomponiéndolo en sus partes o elementos para observar las causas, la naturaleza y los efectos. El análisis es la observación y examen de un hecho en particular. Es necesario conocer la naturaleza del fenómeno y objeto que se estudia para comprender su esencia. Este método nos permite conocer más del objeto de estudio, con lo cual se puede: explicar, hacer analogías, comprender mejor su comportamiento y establecer nuevas teorías. ¿Qué significa Analizar? Analizar significa desintegrar, descomponer un todo en sus partes para estudiar en forma intensiva cada uno de sus elementos, así como las relaciones entre si y con el todo. La importancia del análisis reside en que para comprender la esencia de un todo hay que conocer la naturaleza de sus partes. El todo puede ser de diferente índole: un todo material, por ejemplo, determinado organismo, y sus partes constituyentes: los sistemas, aparatos, órganos y tejidos, cada una de las cuales puede separarse para llevar a cabo un análisis mas profundo (esto no significa necesariamente que un aparato u órgano tenga que separarse físicamente del resto del organismo; en otras palabras, aislar un órgano o aparato significa aquí que no se tomen en cuenta las demás partes del todo). Otros ejemplos de un todo material es: la sociedad y sus partes: base económica (fuerzas productivas y relaciones sociales de producción) y la superestructura (política, jurídica, religiosa, moral). La sociedad es un todo material en tanto que existe fuera e independientemente de nuestra conciencia. El todo puede ser también racional, por ejemplo, los productos de la mente: las hipótesis, leyes y teorías. Descomponemos una teoría según las leyes que la integran; una ley o hipótesis, según las variables o fenómenos que vinculan y el tipo de relaciones que establecen, por lo tanto, puede hablarse de análisis empírico y análisis racional. El primer tipo de análisis conduce necesariamente a la utilización del segundo tipo; por ello se le considera como un procedimiento auxiliar del análisis racional. El análisis va de los concreto a lo abstracto ya que mantiene el recurso de la abstracción puede separarse las partes (aislarse) del todo así como sus relaciones básicas que interesan para su estudio intensivo (una hipótesis no es un producto material, pero expresa relaciones entre fenómenos materiales; luego, es un concreto de pensamiento). El Método Sintético El método sintético es un proceso de razonamiento que tiende a reconstruir un todo, a partir de los elementos distinguidos por el análisis; se trata en consecuencia de hacer una explosión metódica y breve, en resumen. En otras palabras debemos decir que la síntesis es un procedimiento mental que tiene como meta la comprensión cabal de la esencia de lo que ya conocemos en todas sus partes y particularidades. La síntesis significa reconstruir, volver a integrar las partes del todo; pero esta operación implica una superación respecto de la operación analítica, ya que no representa sólo la reconstrucción mecánica del todo, pues esto no permitirá avanzar en el conocimiento; implica llegar a comprender la esencia del mismo, conocer sus aspectos y relaciones básicas en una perspectiva de totalidad. No hay síntesis sinanálisis sentencia Engels, ya que el análisis proporciona la materia prima para realizar la síntesis. Respecto de las síntesis racionales, por ejemplo, una hipótesis, ellas vinculan dos o más conceptos, pero los organiza de una forma determinada; los conceptos desnutrición y accidentes de trabajo al vincularse pueden dar por resultado una hipótesis: a medida que aumenta la desnutrición de los obreros, se incrementa la tasa de accidentes de trabajo. La hipótesis es una síntesis que puede ser simple o compleja. Asimismo, todos los materiales pueden ser simples (un organismo unicelular) o complejos (un animal mamífero); las sociedades pueden ser relativamente simples (una comunidad primitiva) o complejas (una sociedad industrial). La síntesis, sea material o racional, se comprende en el pensamiento; por ello, es necesario señalar que el pensamiento, si no quiere incurrir en arbitrariedades, no puede reunir en una unidad sino aquellos elementos de la consciencia en los cuales – o en cuyos prototipos reales – existía ya previamente dicha unidad. La síntesis va de lo abstracto a lo concreto, o sea, al reconstruir el todo en sus aspectos y relaciones esenciales permite una mayor comprensión de los elementos constituyentes. Cuando se dice que va de lo abstracto a lo concreto significa que los elementos aislados se reúnen y se obtiene un todo concreto real (por ejemplo, el agua) o un todo concreto de pensamiento (una hipótesis o ley). En otros términos, Lo concreto (es decir el movimiento permanente hacia una comprensión teórica cada vez más concreta) es aquí el fin específico del pensamiento teórico, en tanto que es un fin de tal naturaleza, lo concreto define como ley la manera de actuar del teórico (se trata de una acción mental naturalmente) en cada caso particular, por cada generalización tomada aparte. El análisis y la síntesis se contraponen en cierto momento del proceso, pero en otro se complementan, se enriquecen; uno sin el otro no puede existir ya que ambos se encuentran articulados en todo el proceso de conocimiento. Inducción y deducción Debemos de tener en cuenta que, en cualquier área del conocimiento científico el interés radica en poder plantear hipótesis, leyes y teorías para alcanzar una comprensión mas amplia y profunda del origen, desarrollo y transformación de los fenómenos y no quedarse solamente con los hechos empíricos captados a través de la experiencia sensible(recuérdese que en la ciencia no es cierto aquello de que los hechos hablan por sí solos). Además, a la ciencia le interesa confrontar sus verdades con la realidad concreta ya que el conocimiento, como se ha dicho, no puede considerarse acabado, definitivo, tiene que ajustarse continuamente, en menor o mayor grado según el área de que se trate, a la realidad concreta la cual se encuentra en permanente cambio. En este proceso de ir de lo particular a lo general y de éste regresar a lo particular tenemos la presencia de dos métodos: la inducción y la deducción. La inducción se refiere al movimiento del pensamiento que va de los hechos particulares a afirmaciones de carácter general. Esto implica pasar de los resultados obtenidos de observaciones o experimentos (que se refieren siempre a un numero limitado de casos) al planteamiento de hipótesis, leyes y teorías que abarcan no solamente los casos de los que se partió, sino a otros de la misma clase; es decir generaliza los resultados (pero esta generalización no es mecánica, se apoya en las formulaciones teóricas existentes en la ciencia respectiva) y al hacer esto hay una superación, un salto en el conocimiento al no quedarnos en los hechos particulares sino que buscamos su comprensión más profunda en síntesis racionales (hipótesis, leyes, teorías). Esta generalización no se logra sólo a partir de los hechos empíricos, pues de conocimientos ya alcanzados se pueden obtener (generalizar) nuevos conocimientos, los cuales serán mas complejos. Insistimos otra vez: el trabajo científico no va del paso mecánico de los hechos empíricos al pensamiento abstracto; existen niveles de intermediación y a medida que se asciende, las generalizaciones van perdiendo contacto con la realidad inmediata ya que se apoyan en otros conocimientos los cuales sí tienen relación directa o indirecta con la realidad. Para poder pensar en la posibilidad de establecer leyes y teorías con base en la inducción, es necesario partir del principio de la regularidad e interconexión de los fenómenos de la naturaleza y la sociedad, lo cual permite pasar de la descripción (que se refiere fundamentalmente a los hechos empíricos) a otros niveles de la ciencia: la explicación y predicción a través de leyes y teorías. Puede decirse que las conclusiones obtenidas a través de la inducción tienen un carácter probable, el cual aumenta a medida que se incrementa el número de hechos particulares que se examinan. Cabe destacar que los procedimientos de la inducción sólo permiten establecer relaciones entre hechos empíricos (leyes empíricas); para formular leyes teóricas que expliquen a aquéllas, es necesario apoyarse en otros planteamientos teóricos existentes en los marcos de la ciencia de que se trate. La deducción es el método que permite pasar de afirmaciones de carácter general a hechos particulares. Proviene de deductivo que significa descender. Este método fue ampliamente utilizado por Aristóteles en la silogística endonde a partir de ciertas premisas se derivan conclusiones: por ejemplo, todos los hombres son mortales, Sócrates es hombre, luego entonces, Sócrates es mortal. No obstante, el mismo Aristóteles atribuía gran importancia a la inducción en el proceso de conocimiento de los principios iniciales de la ciencia. Por tanto es claro que tenemos que llegar a conocer las primeras premisas mediante la inducción; porque el método por el cual, hasta la percepción sensible implanta lo universal, es inductivo.” El método deductivo está presente también en las teorías axiomáticas, por ejemplo en la Geometría de Euclides en donde los teoremas se deducen de los axiomas que se consideran principios que no necesitan demostración. Existen otro método afín desde el punto de vista lógico: el hipotético deductivo. La diferencia con respecto al axiomático estriba en que las hipótesis de las que se deducen planteamientos particulares se elaboran con base en el material empírico recolectado a través de diversos procedimientos como la observación y el experimento. En este proceso deductivo tiene que tomarse en cuenta la forma como se definen los conceptos (los elementos y relaciones que comprenden) y se realiza en varias etapas de intermediación que permite pasar de afirmaciones generales a otras más particulares hasta acercarse a la realidad concreta a través de indicadores o referentes empíricos. Este procedimiento es necesario para poder comprobar las hipótesis con base en el material empírico obtenido a través de la práctica científica. La deducción desempeña un papel muy importante en la ciencia. Mediante ella se aplican los principios descubiertos a casos particulares. El papel de la deducción en la investigación científica es doble: a) Primero consiste en encontrar principios desconocidos, a partir de otros conocidos. Una ley o principio puede reducirse a otra más general que la incluya. Si un cuerpo cae, decimos que pesa porque es un caso particular de la gravitación. b) También la deducción sirve científicamente para describir consecuencias desconocidas, de principios conocidos. Si sabemos que la formula de la velocidad es t ,V = d podremos calcular con facilidad la velocidad que desarrolla un avión. La matemática es la ciencia deductiva por excelencia; parte de axiomas y definiciones. Inferencias inmediatas y medianas. En el razonamiento deductivo se reconocen dos clases de inferencias (tomado como sinónimo de conclusión, aunque algunos autores reservan el nombre de conclusión para las inferencias complejas). La inferencia inmediata de un juicio extrae otro a partir de una sola premisa. En la inferencia mediata la conclusión se obtiene a partir de dos o más premisas. Ejemplo de inferencia inmediata: “Los libros son cultura.” “En consecuencia, algunas manifestaciones culturales son libros.” Ejemplo de inferencia mediata: “Los ingleses son puntuales.” “Por tanto, William es puntual.” A partir de Rene Descartes, la Filosofía sigue dos corrientes principales, claramente opuestas: el racionalismo (centrado en la razón) y el empirismo (cuya base es la experiencia). Mientras que los alemanes y franceses cultivan preferentemente el racionalismo, los autores ingleses son los clásicos empiristas, los cuales, ya desde Roger Bacon, en laEdad Media (1210-1292), muestran una decidida inclinación hacia ese tipo de pensamiento. En el Renacimiento, Francis Bacon (1561-1626) es el promotor del empirismo inglés, luego se continúa con John Locke y George Berkeley, hasta a su culminación, con David Hume, en el siglo XVIII. La idea central de Bacon, es la crítica contra el silogismo y la apología de la inducción. Dice que lo primero que hay que criticar y rechazar, si se intenta una sólida certeza en la investigación científica, es la serie de prejuicios que suelen colarse en nuestros conocimientos ordinarios. Bacon acierta, al señalar con toda precisión cuatro tipos de prejuicios, que plásticamente, son llamados ídolos: ídolos de la especie, ídolos de la caverna, ídolos del foro y ídolos del teatro. Bacon detecta el abuso del silogismo aristotélico como la principal causa del estancamiento de las ciencias. Critica claramente a Aristóteles y su obra. En su lugar, proclama el método inductivo (generalización a partir de la observación de casos particulares) como la clave para hacer progresar alas ciencias. El método inductivo en versión moderna fue desarrollado por el inglés Francis Bacon (1561-1626) y se encuentra ligado a las investigaciones empíricas. Bacon rechazo la silogística de Aristóteles en la que se apoyaba la escolástica (doctrina del medievo) y la cual desdeñaba la experiencia sensible. Ensu lugar, Bacon destacó la importancia de la observación y el experimento en la obtención del conocimiento, pero minimizó el papel de las hipótesis por lo cual ha sido ampliamente criticado. Acerca de la ciencia, Bacon tiene una idea completamente utilitarista (john Dewey). Mientras que los empiristas –afirma- son como hormigas, que sólo acumulan hechos sin ningún orden; los racionalistas o teóricos son como arañas, pues sólo construyen bellas teorías, pero sin solidez. El verdadero científico debe ser como la abeja, que digiere lo que capta, y produce miel para la comunidad a la que pertenece. Para construir ciencia se debe proceder a base de experimentación, con el fin de observar las causas de los fenómenos, y poder comprender los procesos de la naturaleza y sociedad. Para interpretarla, primero hay que ser dócil a ella. La observación puede darnos la forma, o la ley de comportamiento del fenómeno estudiado. La forma es como la esencia íntima del fenómeno; pero no es de orden metafísico, sino físico y social, o sea, observable experimentalmente Indudablemente, se debe dar un voto a favor del método inductivo. Gracias a él como se pueden descubrir las leyes que rigen a la naturaleza y a la sociedad. Sin embargo, no había que deslumbrarse tanto por la eficacia de la inducción, como para menospreciar o dejar de lado el raciocinio deductivo. Lo correcto es saber utilizar cada uno de los dos procesos: deducción e inducción, según sea la naturaleza de la ciencia y del asunto tratado. Nótese cómo es el tema metodológico el que incide con frecuencia en el pensamiento filosófico de estos tiempos. Mientras que Descartes se inclina hacia el método deductivo, la corriente empirista se inclinará hacia el método experimental-inductivo. Lo cierto es que cada uno tiene su propia zona de aplicación, sin que sea necesario desvirtuar uno u otro método en cuanto tal. ENFOQUES EN LA INVESTIGACION CIENTIFICA En este capítulo no se pretende abarcar la historia de la investigación, mucho menos la historia de la ciencia. Una enciclopedia completa no bastaría para abordar este tema. Solamente queremos ubicar al estudiante que se inicia en la investigación sobre algunos de los momentos históricos más importantes para la indagación cuantitativa, cualitativa y mixta. El tópico regularmente no apasiona a los jóvenes, por esto procuraremos ser breves. EL ENFOQUE CUANTITATIVO: SUS DOS PRINCIPALES ANTECESORES El enfoque cuantitativo en las ciencias sociales se origina en la obra de Augusto Comte (1798-1857) y Emile Durkheim (1858-1917), con la influencia significativa de Francis Bacon, John Locke y Emmanuel Kant. Es decir, el “abuelo” de tal enfoque es el positivismo. A la mitad del siglo XIX,el racionalismo iluminaba la actividad científica,la revolución iniciada por Isaac Newton se encuentra en plena consolidación, particularmente por los avances científicos y tecnológicos alcanzados en la época. Con la publicación en 1849 del Discurso sobre el espíritu positivo de Augusto Comte, se inicia en las ciencias sociales un paradigma denominado “positivista”. Cabe señalar que, en términos sencillos, un “paradigma” es una manera de concebir al mundo. Esta visión proclama, entre otras cuestiones, que la realidad es una sola y es necesario descubrirla y conocerla. Asimismo, el sentido de la percepción resulta la única base admisible del conocimiento humano y del pensamiento preciso. Las ideas esenciales del positivismo provienen de las denominadas ciencias “exactas” como la Física, la Química y la Biología; por tal motivo, los positivistas se fundamentaron en científicos como Galileo Galilei, Isaac Newton, Nicolás Copérnico, Thomas Robert Malthus y Charles Darwin. Así, “el mundo social puede estudiarse de manera similar al mundo natural” (tal como se investigan los átomos, las moléculas, los planetas y los invertebrados; se pueden analizar los patrones de conducta de los trabajadores, las razones de las enfermedades mentales, los efectos de un método educativo sobre el aprendizaje o las migraciones humanas) y existe un método exclusivo para indagar ese mundo social, que es libre de los valores del investigador. Por ello, para el positivismo, la objetividad es muy importante, el investigador observa, mide y manipula variables; además de que se desprende de sus propias tendencias (la relación entre éste y el fenómeno de estudio es de independencia). Lo que no puede medirse u observarse con precisión se descarta como “objeto” de estudio. Además, éste se encuentra determinado por leyes y axiomas. El positivismo solamente acepta conocimientos que proceden de la experiencia, esto es, de datos empíricos. Los hechos son lo único que cuenta. Es decir, los positivistas establecen como fundamental el principio de verificación: una proposición o enunciado tiene sentido sólo si resulta verificable por medio de la experiencia y la observación; así, solamente cuando existe un conjunto de condiciones de observación significativas para determinar su verdad o falsedad. Todo debe ser comprobable y esta condición es válida para todas las ciencias. La experimentación constituyó la forma principal para generar teoría. El positivismo (muy rígido) fue remplazado por el “pospositivismo”, fundamentado en el anterior, pero más abierto y flexible. Tal visión comienza a gestarse hacia fines del siglo XIX, pero realmente se consolida hacia la mitad del siglo pasado. La gestación la inician las obras de autores como Wilhelm Dilthey y William James. Karl Popper lo impulsa de forma notoria. Además en cada campo o disciplina, diversos autores lo desarrollan. Sus propuestas esenciales se pueden resumir en los siguientes puntos: - Existe una realidad, pero solamente puede ser conocida de manera imperfecta debido a las limitaciones humanas del investigador (Mertens, 2005). Por lo tanto, tal realidad es factible descubrirla con cierto grado de probabilidad. - El observador no se encuentra aislado de los fenómenos que estudia, sino que forma parte de éstos, lo afectan y él, a su vez, influye en ellos. - Las teorías y explicaciones se consolidan y eliminan otras posibles teorías y explicaciones rivales. - Los antecedentes del investigador pueden influir lo que se observa. La objetividad es solamente un estándar que guía la investigación, por lo que el investigador debe estar atento y tratar de permanecer neutral para prevenir que sus valores o tendencias influyan en su estudio, además de seguir rigurosamente procedimientos prescritos y estandarizados. - La experimentación en el laboratorio es una forma central para probar hipótesis, pero no la única. Por ello, se desarrollaron los diseños cuasiexperimentales (Mertens, 2005). - Los conceptos de las teorías consideradas y las hipótesis a probar deben tener referentes empíricos y consecuentemente, es necesario medirlos, aunque estas mediciones nunca son “perfectas”, siempre hay un grado de error. En conclusión, pudiéramos establecer que la diferencia esencial entre el paradigma positivista y el pospositivista se ubica en su concepción del conocimiento. En este último, se supera el esquema que considera la percepción como simple reflejo de las cosas reales y el conocimiento como copia de esa realidad. El conocimiento, en cambio, se visualiza como el resultado de una interacción, de una dialéctica, entre el conocedor y el objeto conocido. El pospositivismo es una especie de “padre” del enfoque cuantitativo y le otorga tres principales elementos que lo caracterizan: - Recolectar datos en la forma de puntuaciones (que se origina en las matemáticas). Es decir, los atributos de fenómenos, objetos, animales, personas, organizaciones y colectividades mayores son medidos y ubicados numéricamente. - Analizar tales datos numéricos en términos de su variación. - La esencia del análisis implica comparar grupos o relacionar factores sobre tales atributos mediante técnicas estadísticas (en el caso de las ciencias del comportamiento, mediante experimentos y estudios causales o correlacionales). El enfoque cuantitativo se consolida a lo largo del siglo XX y tiene momentos claves como los que se presentan a continuación. EL ENFOQUE CUANTITATIVO: MOMENTOS CLAVE Es difícil definir con precisión cuándo se inició el enfoque cuantitativo, más bien sus comienzos provienen de distintas fuentes y su evolución ha sido continua (algunos autores de la historia de la ciencia los ubican desde Aristóteles y otros en diferentes puntos de los siglos XVI, XVII y XVIII). Gottfried Achenwall (en 1748-49) acuñó el término en alemán Statistik para referirse al análisis de los datos del Estado, en particular los censos poblacionales (Aliaga, 2000 y Wikipedia, 2005b). En 1801, William Playfair, un ingeniero y economista, desarrolla las gráficas estadísticas como un mejor medio para representar los resultados (anteriormente se utilizaban tablas). En 1816, Carl Friedrich Gauss propone la desviación media, y alrededor de esa época (1809-1826) genera el análisis de la distribución normal y plantea la técnica de mínimos cuadrados que posteriormente derivarían en el análisis de varianza. En 1817, el francés Marc Antoine Jullien realiza una encuesta sobre diversos sistemas educativos en el mundo. Alrededor de 1880, se genera el análisis de correlación en Inglaterra y Karl Pearson, profesor desde 1884 en the University College (Londres), presenta en la última década del siglo XIX: la moda (medida de tendencia central), una fórmula producto del momento de correlación, un procedimiento para calcular el tamaño de muestra adecuado para representar a una población, la regresión lineal y múltiple (con la identificación de la capacidad para predecir puntuaciones mediante la información sobre la correlación entre las variables), así como el coeficiente de contingencia y la chi2005, Aldrich, 2005 y Aliaga, 2000). Otro investigador que trabajó sobre la correlación múltiple fue George U. Yule (1897). En 1901 Pearson junto con Weldon y Galton fundan Biometrika, una revista que se dedicó al desarrollo de análisis estadísticos en el campo de la Biología. A finales del siglo XIX ha nacido un pilar del enfoque cuantitativo: la estadística. Asimismo, en la década de 1890-1900 se desarrollan las primeras pruebas mentales (con los esfuerzos de investigadores como Sir Francis Galton, James McKeen Cattell y Alfred Binet). En 1901, E. L. Thorndike y R. S. Woodworth discuten sobre la necesidad y valor del grupo de control en los experimentos. En 1904, Charles Spearman presenta su coeficiente rho. Además por esos años se aplica el procedimiento para reducir variables denominado el análisis de factores y la prueba t (Creswell, 2005). En 1910 la armada estadounidense comienza a usar pruebas psicológicas estandarizadas, particularmente durante la Primera Guerra Mundial (Creswell, 2005). De igual forma surgen por tal año, los diseños experimentales como los latinos cuadrados de Thorndike. Además, las encuestas (surveys) incrementan su popularidad en las primeras décadas del siglo XX. En 1916, W. A. McCall concibe la asignación al azar en experimentos y en 1917, F. Stuart Chapin publica sobre la experimentación en ciencias sociales. Durante los años de 1930, se continúa el desarrollo de pruebas psicométricas y de logro, así como la estadística inferencial (conclusiones de la muestra a la población) se comienza a utilizar y diversos procedimientos se fortalecen. McCall publica en 1923 su famosa obra: Cómo experimentar en Educación. Entre 1924 y 1932, Elton Mayo realiza sus experimentos en la planta Hawthorne de la compañía Western Electric, lo que da inicio a este tipo de estudios en las organizaciones, En la siguiente década, se desarrollan las pruebas de selección de personal y un sinnúmero de tests estandarizados en diferentes campos. En 1935, Sir Ronald Fisher consolida en su libro El diseño de experimentos el análisis de varianza y las pruebas de significancia en general, además de los experimentos modernos. En 1938, este último autor publica junto con F. Yates, las tablas estadísticas para la investigación en la Agricultura, la Biología y la Medicina. Asimismo, la Asociación de Educación Progresiva en EE. UU. comienza a realizar estudios longitudinales. Durante la década de 1950, la investigación cuantitativa se encuentra en su apogeo, surgen diversas encuestas, experimentos, revistas científicas, diseños, etc. También comienzan a desarrollarse las máquinas para calificar pruebas y la computadora. En los años de 1960, Donald T. Campbell y Julian Stanley (1963) generan una tipología sobre los estudios experimentales que priva hasta nuestros días (incluso en la presente obra) y un análisis de las fuentes que pueden atentar contra la claridad de sus resultados. De igual forma, el querido profesor Fred Kerlinger identifica tipos de diseños cuantitativos y fortalece el enfoque respectivo. Surgen una gran cantidad de textos de estadística. Los programas de análisis de datos se desarrollan, particularmente el Paquete Estadístico para las Ciencias Sociales (SPSS). En la década comprendida entre 1970 y 1980 se identifican diversos modelos causales multivariados (por ejemplo, el modelamiento de ecuaciones estructurales),se desarrolla el metaanálisis (técnica para analizar datos provenientes de distintos estudios con mediciones similares) y se sugieren los tipos de validez (Thomas Dixon Cook y Donald T. Campbell, 1979), que más recientemente se conciben como clases de evidencia acerca de la validez. Asimismo, John W.Tukey empieza con el análisis exploratorio de datos (publica en 1977). En los años de 1980, se reta a las aproximaciones clásicas con las pruebas estadísticas, esto es, mediante el examen de la magnitud de la relación entre variables, a través de la estimación del tamaño del efecto (Creswell, 2005). Se introduce el concepto de sensibilidad experimental. En la última década del siglo XX surgen mediciones y análisis multivariados más complejos, además se consolida la idea de “poder de medición” mediante la utilización de diferentes instrumentos para medir las variables de investigación. Los programas de análisis se sofistican y comercializan, y es aquí donde ahora estamos. Cabe señalar que el primer enfoque a la investigación en desarrollarse fue el cuantitativo. EL ENFOQUE CUALITATIVO: SUS COMIENZOS Diferentes autores ubican sus orígenes en distintos momentos, por ejemplo, Vidich y Lyman (2002) los sitúan en los siglos XV y XVI con la denominada etnografía temprana, en la que se estudiaba a los pueblos primitivos; o Lincoln y Denzin (2003) fundamentalmente los circunscriben a principios del siglo XX, al igual que Creswell (2005). A nuestro juicio, el enfoque cualitativo realmente se inicia como un proceso investigativo a finales del siglo XIX y sobre todo en el comienzo del siglo XX, aunque algunos arqueólogos realizaron estudios inductivos en la mitad del XIX. El primer problema es que hay diversas visiones que se han considerado como tipos de investigación cualitativa (Tesch, 1990, ubica 26 clases) y las bases epistemológicas son variadas. Sin embargo, concordamos con Mertens (2005) en que el constructivismo es tal vez el paradigma que influyó más en el enfoque cualitativo (ciertamente muchos diferirán, pero su peso es innegable). Éste tiene sus primeros cimientos con Emmanuel Kant (siglo XVIII), quien señala básicamente que el mundo que conocemos es construido por la mente humana. Las “cosas” en sí mismas existen, pero nosotros las percibimos del modo como es capaz de percibirlas nuestra mente. De los postulados de Kant va a surgir el constructivismo, en un intento de conciliar el racionalismo y el asociacionismo. Otro autor clave para esta corriente paradigmática es Max Weber (1864-1920), quien introduce el término verstehen o “entender”, reconoce que además de la descripción y medición de variables sociales, deben considerarse los significados subjetivos y la comprensión del contexto donde ocurre el fenómeno. El constructivismo propone: - No hay una realidad objetiva, la realidad es edificada socialmente, por consecuencia, múltiples construcciones mentales pueden ser “aprehendidas” sobre ésta, algunas de las cuales pueden estar en conflicto con otras; de este modo, las percepciones de la realidad son modificadas a través del proceso del estudio (Mertens, 2005). - El conocimiento es construido socialmente por las personas que participan en la investigación. - La tarea fundamental del investigador es entender el mundo complejo de la experiencia vivencial desde el punto de vista de quienes la experimentan, así como, comprender sus diversas construcciones sociales sobre el significado de los hechos y el conocimiento. - La investigación es en parte producto de los valores del investigador y no puede ser independiente de ellos. - El investigador y los individuos estudiados se involucran en un proceso interactivo. El conocimiento resulta de tal interacción social y de la influencia de la cultura. Entre algunos de los autores que durante el siglo XX influyeron en el desarrollo del constructivismo tenemos a Mary Parker Follett (1868-1933), en el campo de la administración y las organizaciones; Jean Piaget (1896-1980 ) y Lev Semenovich Vygotsky (1896-1934) en la educación y John Dewey (1859-1952) en la Pedagogía; así como Margaret Mead en la Antropología. El constructivismo como uno de los “padres” del enfoque cualitativo le otorga los énfasis principales que lo caracterizan: - El reconocimiento de que el investigador necesita encuadrar en los estudios, los puntos de vista de los participantes. - La necesidad de inquirir cuestiones abiertas. - Dado que el contexto cultural es fundamental, los datos deben recolectarse en los lugares donde las personas realizan sus actividades cotidianas. - La investigación debe ser útil para mejorar la forma en que viven los individuos. - Más que variables “exactas” lo que se estudia son conceptos, cuya esencia no solamente se captura a través de mediciones. EL ENFOQUE CUALITATIVO: MOMENTOS CLAVE En los años de 1920, un grupo de investigadores conocidos como la Escuela de Chicago comenzaron a realizar diversos estudios cualitativos, entre los autores destacan: Albion Small, W.I. Thomas, F. Znaniecki y el filósofo George Herbert Mead. Por ejemplo, Thomas y Znaniecki publicaron una investigación en 1927 sobre los inmigrantes polacos, en la cual se utiliza la biografía de los participantes como herramienta de recolección de los datos. Otros estudios se centraron en culturas específicas y grupos urbanos marginados. Margaret Mead (uno de cuyos maestros fue Franz Boas) publica sus conocidas obras Coming of age in Samoa y Growing Up in New Guinea, en 1928 y 1930 respectivamente; para 1932, un libro que reseña su indagación sobre la cultura de una tribu india. Posteriormente, en la misma década se agregaron otros estudios de Robert E. Park y E.W. Burgess. Everett C. Hughes y Herbert Blumer en la siguiente década comenzaron a desarrollar una aproximación conocida como el interaccionismo simbólico, el cual influyó en el desarrollo del enfoque cualitativo. En los años de 1940 y 1950 decayó la importancia del enfoque cualitativo debido al posicionamiento de su “rival” cuantitativo (Gobo, 2005), aunque se realizaron algunos trabajos etnográficos de investigadores como Elizabeth y Allison Davis, y Burleigh y Mary Gardner, que estudiaron las clases sociales en Natchez, Mississippi, EE. UU.; al igual que Conrad Arensberg, quien hizo algunas investigaciones similares en Irlanda. Clair Drake y Horace Cayton publicaron una obra que fue el resultado de los análisis efectuados en la población afroamericana del sur de Chicago. George Spindler también trabajo la antropología educativa y George M. Foster estudió diversas culturas latinoamericanas. Asimismo, Howard S. Becker analiza diferentes profesiones. Cabe destacar que la investigación-acción comienza a desarrollarse en esta etapa (1945-1955) con nombres como John Collier, R. Lippitt y M. Radke y S. Corey. Todos ellos siguieron a quien muchos autores consideran el fundador formal de tal visión, Kurt Lewin (Masters, 2000; Creswell, 2005). En la década de 1960 a 1969, este enfoque recobra vitalidad e importancia. La etnometodología surge con vigor. Peter L. Berger and Thomas Luckmann en 1966 presentan sus modelos de construcción de la realidad (Berger y Luchmann, 1966). Dos sociólogos, Barney G. Glaser y Anselm L. Strauss, con pacientes en estado terminal en el San Francisco Medical Center de la Universidad de California, realizan diversos estudios y de sus experiencias publican el libro Discovery of Grounded Theory (1967), así emerge la teoría fundamentada (después ambos autores presentan visiones diferentes de dicha teoría como se comentó en el libro). P. Jackson publica un trabajo cualitativo derivado de sus estudios en las aulas (1968). A esta época se le denomina la “primera encrucijada del paradigma cualitativo” (Shank, 1995). Asimismo, Paulo Freire comienza con la investigación participativa en América Latina, específicamente en Brasil. En la década de 1970, el enfoque cualitativo continúa popularizándose. Denzin (1970) reanaliza el concepto de triangulación. E. G. Guba consolida la propuesta de un enfoque alternativo, el naturalista (1978). La teoría fundamentada continúa evolucionando. Herbert Blumer desarrolla el interaccionismo simbólico (Álvarez Gayou, 2002). Para los años de 1980, Terrence E. Deal y Allan A. Kennedy proponen estudiar las culturas organizacionales al estilo etnográfico. Smith (1983) distingue entre dos aproximaciones filosóficas: idealismo y realismo. Matthew Miles y Michael Huberman (1984) presentan procedimientos para el análisis cualitativo. Lincoln y Guba (1985) identifican diferencias entre el naturalismo y otras clases de investigación. A. L. Strauss publica en 1987 su obra: Qualitative Analysis for Social Scientists. Cabe destacar que la investigación bajo el marco de referencia feminista, se desarrolla notablemente en esta década con los trabajos de: McRobbie (1982), Patai (1983), Clegg (1985), Cook y Fonow (1986), y McCormack (1989). En la década de 1990, Strauss y Corbin (1990 y 1994) publican procedimientos más avanzados sobre la teoría fundamentada, y LeCompte, Milroy and Preissle (1992) presentan nuevos esquemas etnográficos. De igual forma, Denzin y Lincoln (1994) muestran alternativas del proceso cualitativo. Creswell (1998) distingue entre cinco diferentes procedimientos de indagación cualitativa.. Surgen diversas revistas científicas cualitativas en todo los campos, continúan la tendencia. A partir de 2000, es un hecho que pocos dudan ya de lo valioso del enfoque cualitativo. Clandinin y Connelly (2000) revitalizan los diseños narrativos; mientras que Kemmis y McTaggart (2000) hacen lo mismo con la investigación participativa. Y aquí estamos. Los diferentes marcos conceptuales cualitativos comienzan a integrarse en diseños con autores como Creswell (2005) y Mertens (2005). Mertens (2005), comenta que las aproximaciones feminista, participativa y marxista –entre otras– más bien son parte del paradigma transformativo, que reconoce diversas realidades y la influencia del contexto social y cultural en todas sus dimensiones (política, económica, de género y origen étnico, de habilidades y capacidades distintas). La relación entre el investigador y los participantes es de total interdependencia y se sugiere que la investigación debe servir para mejorar las condiciones de vida de los grupos marginados de la sociedad. EL ENFOQUE MIXTO: MOMENTOS CLAVE De acuerdo con Tashakkori y Teddlie (2003) además de Mertens (2005), el enfoque mixto se basa en el paradigma pragmático. Esta visión evita utilizar conceptos como “verdad” y “realidad” que han causado, desde el punto de vista de sus autores, conflictos entre los enfoques cuantitativo y cualitativo. La efectividad se utiliza como el criterio para juzgar el valor de la investigación, son las circunstancias las que determinan el grado en que se utilizan las aproximaciones de la década anterior. Cabe señalar que entre 1989 y 1992, surge un software para análisis cualitativo: el Atlas.ti®, el cual se desarrolla por Thomas Muhr en la Universidad Técnica de Berlín; así, para 1993, se presenta el prototipo y en 1996 se realiza la primera versión. Decision Explorer® fue originalmente diseñado a principios de la década para apoyar la labor de mapeo cognitivo realizada por Colin Eden en las universidades de Bath y Strathclyde. Desde luego, la relación investigador-participantes es interdependiente bajo esta óptica y se reconoce la influencia de los valores del investigador. El enfoque mixto ha sido criticado (preferimos omitir autores o referencias para no generar enconos) por los llamados “fundamentalistas” y otros investigadores que lo aceptan, pero lo consideran ingenuo, ya que requiere mucho más recursos (de todo tipo) que la investigación cuantitativa o la cualitativa; lo cual es cierto, pero esto no significa que sea quizá la mejor alternativa para generar conocimiento. Sería una tristeza que la investigación mixta fuera exclusiva de los países desarrollados y América Latina quede fuera de su alcance. La historia de los métodos mixtos se remonta al trabajo criminalístico durante las décadas de 1960 y 1970, fueron utilizados sin denominarlos como tales. Posteriormente, en 1973, S. Sieber sugirió la mezcla de estudios de caso cualitativos con encuestas, creó así “un nuevo estilo de investigación” y la integración de distintos métodos en un mismo estudio. Hacia el final de los años de 1970, T. D. Jick introdujo los términos básicos de los diseños mixtos, propuso recabar datos mediante técnicas cuantitativas y cualitativas, e ilustró la “triangulación de datos” (Jick, 1979). Como ya se mencionó en el libro (Metodología de la investigación, 4ª edición), el concepto de triangulación fue clave para la concepción de los diseños mixtos El término “triangulación” proviene de la ciencia naval militar, es el proceso por medio del cual los marineros emplean varios puntos de referencia para localizar la posición de un objeto en el mar (Jick, 1979). Posteriormente, en los años de 1980 se inició el debate sobre la legitimidad de la investigación mixta. Asimismo, el concepto de triangulación se extendió más allá de la comparación de datos cuantitativos y cualitativos y se pudo hablar de diversos tipos de triangulación en el contexto híbrido: de teorías, de métodos, de investigadores, pero sobre todo, de enfoques ( multimétodos. Greene, Caracelli y Graham (1989) escriben un artículo sobre el marco referencial mixto. Para la década de 1990 el debate sobre los modelos mixtos fue sumamente conflictivo y se polarizaron opiniones: rechazo y aceptación. En 1991, Janice M. Morse concibió un sistema para simbolizar los diseños mixtos y propuso modelos. En 1997 Richard Grinnell visualizó diseños específicos, al igual que Creswell (1998).último ya en los años de 1990). Brewer y Hunter (1989) publican un libro sobreTashakkori y Teddlie (1998) nos proporcionan otras posibilidades para análisis en los diseños mixtos y revisan la reciente historia de los métodos mixtos. Durante esta década el enfoque mixto se aplica en diversos campos como la Educación, la Comunicación, la Psicología, la Medicina y la Enfermería. Se realizan varios congresos para debatir el tema. Denzin y Lincoln (2000) presentan una amplia discusión sobre la triangulación. Creswell, Plano, Clark, Guttman, y Hanson (2003) presentan una tipología de diseños mixtos. Tashakkori y Teddlie (2003) efectúan una revisión del estado del arte en la materia. En el 2004 y 2005 se realizan diversas revisiones de las posibilidades del enfoque mixto (Creswell, 2005; Mertens, 2005; Grinnel y Unrau. 1.4 Métodos axiomáticos, conocimiento científico • matemáticos, cibernéticos y semióticos del Los distintas notaciones formales difieren en la forma de definir la semántica: – Método axiomático o algebraico. Se establece el significado de las operaciones a través de relaciones entre operaciones (axiomas). Significado implícito de las operaciones. – – Método constructivo u operacional. Se define cada operación por sí misma, independientemente de las otras, basándose en un modelo subyacente. Significado explícito de las operaciones Métodos axiomáticos, matemáticos, cibernéticos y semióticos del conocimiento científico El método axiomático (o axiomática) consiste en la formulación de un conjunto de proposiciones o enunciados, llamados axiomas o postulados, los cuales guardan entre sí una relación de deductibilidad, y sirven de hipótesis o de condiciones para un determinado sistema. El objeto de un sistema axiomático es utilizar un pequeño número de propiedades y precisar cómo deducir de ellas todas las demás. El procedimiento consta de cuatro fases. En primer lugar se precisan los símbolos que van a ser utilizados, y que constituirán una especie de alfabeto. A continuación se precisan cuáles serán las combinaciones legales de esos símbolos. En tercer lugar se escoge un conjunto de fórmulas que son consideradas como primitivas: los axiomas o hipótesis. ... El método axiomático (o axiomática) consiste en la formulación de un conjunto de proposiciones o enunciados, llamados axiomas o postulados, los cuales guardan entre sí una relación de deductibilidad, y sirven de hipótesis o de condiciones para un determinado sistema. El objeto de un sistema axiomático es utilizar un pequeño número de propiedades y precisar cómo deducir de ellas todas las demás. El procedimiento consta de cuatro fases. En primer lugar se precisan los símbolos que van a ser utilizados, y que constituirán una especie de alfabeto. A continuación se precisan cuáles serán las combinaciones legales de esos símbolos. En tercer lugar se escoge un conjunto de fórmulas que son consideradas como primitivas: los axiomas o hipótesis. ... La simulación es una actividad fundamental en la Ingeniería de Procesos de hoy, que involucra tanto el modelamiento matemático a partir de primeros principios (Fenómenos de transporte) como el ajuste de modelos a datos experimentales (Cabe notar que en su sentido más amplio también se involucra la Simulación Molecular y la Dinámica de Fluidos Computacional ). Es importante tener en mente que la simulación es solo una representación aproximada de la realidad, con un cierto nivel de precisión y no la realidad en si mismo; siendo imprescindible ir mucho más allá del simple manejo de programas informáticos (Simuladores de proceso) para hacer uso crítico de los resultados obtenidos por un simulador. La actividad científica y de ingeniería que hace uso del modelamiento matemático y la simulación aplicados a la industria de procesos químicos es conocida como Ingeniería de Procesos Asistida por Computador (CAPE por sus siglas en inglés). Su desarrollo es de tal importancia que cada año, desde 1991, la Federación Europea de Ingeniería Química organiza un congreso científico mundial bajo la etiqueta ESCAPE (European Symposium on Computer Aided Process Engineering). La actual revolución en tecnologías de la información, así como el enorme progreso en modelamiento y tecnologías de simulación ha tenido un impacto significativo sobre la Ingeniería de Procesos. Ha emergido un nuevo paradigma, en el cual la simulación está involucrada en todas las etapas del ciclo de vida de un proceso, desde la generación de la idea, los experimentos de laboratorio, el escalamiento a diferentes niveles, hasta el diseño y operación de la planta de proceso. La simulación de procesos se ubica en el centro de las tres principales actividades de ingeniería: Investigación & Desarrollo, Diseño y Operación. El punto común es el conocimiento científico involucrado en modelos universales, tales como los métodos computacionales de carácter genérico. Estas actividades aparentemente desconectadas, pueden enlazarce por medio de un conjunto de primeros principios, basados en modelos termodinámicos, cinética química, fenómenos de transporte, etc. La simulación de processo puede guiar y minimizar la investigación experimental, pero no eliminarla. Actualmente, la calibración de modelos requiere datos experimentales precisos. Es el experimento el que pone a prueba un modelo y no lo opuesto. La planificación estadística de experimentos debe considerarse en estos días como obsoleto. En su lugar, la investigación experimental debe tomar ventaja del poder de los modelos rigurosos incorporados en los paquetes de simulación, particularmente en el campo de la termodinámica. La simulación puede explorar soluciones innovadoras difíciles de reproducir experimentalmente. Por ejemplo, la integración de Simulación de Procesos con Dinámica de Fluidos Computacional puede remplazar la construcción de costosos prototipos. La elaboración de diagramas de flujo para plantas de proceso, involucrará el modelamiento fluidodinámico riguroso de cada operación unitaria, en un futuro muy cercano. La globalización y el desarrollo sostenible llevan a considerar ciertos cambios en el Diseño de Procesos, tales como una alta eficiencia energética y un alto aprovechamiento de las corrientes de materia, flexibilidad, seguridad y manufactura limpia. En ese sentido la simulación de procesos puede contribuir siginificativamente, mediante el desarrollo de nuevas tecnologías de proceso que minimicen los requerimientos de energía y de materia (cero residuos y contaminantes), y otorgando seguridad absoluta en la operación de la planta mediante la integración de un análisis de controlabilidad (Plant Wide Control) durante las primeras etapas del diseño conceptual. Con el advenimiento de la optimización en tiempo real en la década de 1990, se abrieron grandes oportunidades para la aplicación directa de la simulación en los procesos de manufactura. Adicionalmente, con el control de procesos basado en modelos (MPC) es posible hablar de un mantenimiento preventivo a través de la monitorización computarizada del funcionamiento de los equipos de proceso. METODOS SEMIOTICOS Hay tres métodos semióticos principales, que son: la interpretación, el análisis lingüístico y la formalización. Cualquiera de ellos suele ser designado a veces con el término “semiótica”, de manera que se trata de otros tres significados del mismo término. Según J. Pelc (1984, p. 328), el método de “interpretación” consiste en que “tratamos las personas, objetos, propiedades, fenómenos o acontecimientos que en principio no son signos como si lo fueran”. Incluso en nuestras condiciones puede convertirse en signo un coche nuevo o mejor, cuando alguién, comprándolo, da a entender su posición social o económica, etc. (Esto se manifiesta mucho más en los países cuyo índice de coches y de posiciones sociales es mucho más rico, aunque últimamente nos estamos aproximando a ellos.) El método de interpretación es muy antiguo. Ya en la sociedad más primitiva los magos y hechiceros atribuían cierto sentido a los más diversos fenómenos naturales, adivinando así la suerte de los individuos o de las tribus completas. Más tarde, los astrólogos presagiaban el destino de la gente según la posición de los cuerpos celestes, otros “especialistas” según las líneas de la palma de la mano o de los dedos, según los sueños, etc. Los curanderos, medicastros, medicuchos y médicos juzgaban, a base de varios síntomas, sobre el carácter de las enfermedades, con lo que el método de interpretación estaba ganando poco a poco su carácter científico. La interpretación se aplicó, en la historia de la Humanidad, a las más diversas creaciones de la naturaleza y del hombre. Entre sus ventajas destaca ante todo el que tiene carácter universal interdisciplinario, siendo posible aplicarla en cualquier disciplina. Por supuesto, desde su omnipresencia se desprende también cierto peligro; es que puede emplearse con facilidad también erróneamente. Un ejemplo de su aplicación incorrecta consistió en que los hombres a veces se explicaban varios fenómenos naturales, tales como p. ej. una tempestad, un eclipse de Sol o una larga sequía como manifestación de la desgracia enviada por los dioses. La interpretación errónea, a nuestro parecer, es uno de los motivos principales de todas las supersticiones, prejuicios, pero también de las creencias religiosas y otras semejantes. También el método del “análisis lingüístico” tiene una larga tradición. En la antigua India, Grecia y Roma, se analizó la parte fonética y la gramatical de la lengua, se realizó el análisis de las palabras y oraciones, dentro de la retórica se estudió la metáfora y otras figuras, dentro de la filología, más tarde, la confección correcta del texto y sus comentarios. Ya en la Edad Media se analizó, al lado de la forma hablada y escrita de la lengua, también la llamada oratio mentalis, se estudió la relación que hay entre la lengua y el pensamiento, se buscó la gramática universal, se trató de aclarar la relación que hay entre la lengua natural y los juicios lógicos, en el análisis de la lengua estaba basada la epistemología, etc. No es ninguna exageración decir que prácticamente todos los modernos conceptos lingüísticos (no sólo los del tipo verbo, sujeto, metáfora, etc., sino incluso algunos como texto, signo, presuposición y otros) fueron estudiados de alguna manera ya en la Antigüedad, sobre todo por Aristóteles y otros filósofos griegos. Toda la gramática, retórica y dialéctica (es decir, lógica) antigua y medieval, así como la más tardía filología y la moderna lingüística, son nada menos que una manifestación de este método tan divulgado del análisis lingüístico. El tercer método, la llamada “formalización”, consiste en que sustituimos los signos de la lengua natural (o de otros sistemas) por otros signos, es decir, símbolos que nos hacen posible dejar aparte la interpretación semántica y la parte pragmática de los signos particulares, para poder concentrarnos en su construcción esquemática o su estructura (sobre todo la sintáctica). Un ejemplo de la formalización en la lingüística son los marcadores de frase y las reglas de transformación de Chomsky, las notaciones gráficas de la teoría estratificacional, la mayor parte de los métodos empleados en la lingüística matemática, el análisis lógico de la lengua, etc. Este método tiene una serie de ventajas. Ante todo hace posible abstraerse de la semántica y pragmática, y concentrarse en las propiedades externas de los signos que son fácilmente accesibles; esto ofrece la posibilidad de sacar conclusiones exactas y unívocas, aplicar cálculos lógicos, etc. La anotación formalizada de la oración, en la que las palabras concretas están sustituidas por símbolos unívocos, facilita las operaciones con los conceptos respectivos, así como la creación de modelos muy concisos y universalmente válidos, de los cuales cada uno es capaz de representar una cantidad ilimitada de oraciones concretas cuya interpretación suele ser mucho más difícil. Como es posible formalizar (hasta cierto punto), al lado de las lenguas naturales, también todos los demás sistemas de signos, el método mencionado constituye también un componente unificador de los más variados sistemas semióticos, así como de las disciplinas científicas respectivas. Junto con estas ventajas, el método de formalización tiene también ciertas desventajas. En principio es posible formalizar cualquier cosa, pero el problema consiste en que no siempre se obtienen de esta manera resultados positivos. Al sustituir una banalidad o una idea errónea con una secuencia de símbolos, su esencia no cambia, aunque pueda parecer más científica que en la forma original. Por lo tanto, la formalización debe emplearse como un medio que sirve para alcanzar cierto objetivo, y nunca representar un objetivo por sí sola. Es apropiada siempre que facilite una mejor orientación en los problemas complicados y poco claros. Para ello, desde luego, es imprescindible que los símbolos empleados sean de veras elementos de un sistema formal, es decir, de un sistema definido correctamente desde el punto de vista matemático, y que se trate, además, de una representación empíricamente adecuada de la parte analizada de la realidad (lengua), lo que no es fácil ni mucho menos y lo que siempre exige ciertas limitaciones. El fundador de la escuela de Lvov y Varsovia, K. Twardowski, creó en este contexto dos términos elocuentes: la símbolomanía, que es la confianza inquebrantable en el método de formalización, que constituye el objetivo y no el medio para alcanzar otros objetivos, y la pragmatofobia, que, por el contrario, es la aversión total a interpretar los signos y trabajar con los símbolos. Las dos “enfermedades”, por supuesto, son nocivas. Al igual que cualquier otro método, la formalización evidentemente tiene sus ventajas y sus deficiencias. Sus límites, en lo que se refiere a las lenguas naturales, consisten ante todo en que la formalización en gran escala es aplicable sólo al componente descriptivo (de información) de las lenguas, y mucho menos p. ej. a su componente emocional, performativo, etc. Los filósofos de la escuela de Oxford hasta consideran este método como totalmente inadecuado para el análisis de las lenguas naturales, porque los signos lingüísticos se caracterizan por su falta de nitidez y de expresividad, y con su transformación en símbolos dicha propiedad suya no se anula, sino que se disimula solamente. Los métodos semióticos, sobre todo los de interpretación y de análisis lingüístico, suelen aplicarse con frecuencia en la descripción de los distintos fenómenos que forman un sistema ordenado. Es por ello que hoy tenemos p. ej. la semiótica de la literatura, del teatro, cine, televisión, pintura, escultura, arquitectura y el resto de las artes, la semiótica de los mitos y religiones, de fenómenos sociales tales como la gastronomía, el folklore, la moda, las organizaciones sociales, instituciones nacionales, relaciones políticas, y hasta la semiótica de los juegos, ceremonias, ritos, o incluso de los productos industriales o de artesanía, etc. En cuanto al arte, los métodos semióticos se emplean desde antaño ante todo en la literatura. La causa está parcialmente en el hecho de que su instrumento es la lengua. Por esta razón, en la ciencia literaria suelen emplearse ante todo los métodos de interpretación y de análisis lingüístico. Sin embargo, no es la única razón, ya que la obra literaria es también un signo de su época, de la vida de su autor, de las tendencias artísticas y culturales, de cierta moda o costumbres literarias de su tiempo y, además, cualquier obra literaria está expuesta a la influencia de unas obras (signos), ejerciendo, a la vez, una influencia sobre otras obras literarias. Es por ello que toda la ciencia literaria –tal vez con la excepción de las biografías de los autores y las listas de sus obras– tiene carácter semiótico. Una parte inherente de la literatura son también los mitos, leyendas, narraciones folklóricas, fábulas, etc., que son muy apropiadas para el análisis semiótico, ya que registran, por regla general, situaciones antiguas, simples y conocidas, cuya estructura (organización, esquema) es relativamente fácil de descubrir. Fueron los formalistas rusos –V. B. Shklovski, R. Jakobson, P. N. Bogatyrev y otros–, que a comienzos de los años veinte dieron un paso decisivo en este sentido, al analizar, con ayuda de métodos lingüísticos, la estructura (relaciones internas) de las fábulas populares rusas. Entre sus continuadores destacaron los representantes del estructuralismo estético checo (J. Mukařovský y otros). Semejantes métodos se emplean actualmente dentro de la llamada Nouvelle Critique, o New Criticism. Según estas investigaciones es verdad que las obras literarias se componen de una cantidad prácticamente ilimitada de personas, situaciones y acontecimientos diferentes; sin embargo todos estos elementos pueden clasificarse en un número relativamente reducido de categorías típicas (p. ej el galán o el traidor en el teatro, el amor infeliz, el castigo, etc.). Vladimir Propp, uno de los formalistas rusos, al analizar más de cien fábulas rusas (Morfología del cuento, 1928), demostró que su contenido podía clasificarse en 31 motivos elementales típicos que se repetían con ciertas modificacones; uno de los motivos, p. ej., consiste en que alguien (zar, abuelo, mago, reina) regala a otro (un joven, Iván) alguna cosa (águila, caballo, barco, anillo), lo que le facilita alcanzar otro reino. Los formalistas, desde luego, atribuyeron demasiado valor a la estructura interna de la obra, al considerar el contenido y las circunstancias concretas de las fábulas (obras) particulares como secundarias. En la Unión Soviética se vieron severamente criticados y a finales de los años veinte el grupo se desintegró. En los formalistas rusos se inspiraron muchos semióticos de la literatura. A. J. Greimas trató de reducir los 31 componentes elementales de las fábulas rusas a sólo una veintena. Otros autores aplicaron un método parecido incluso a obras bastante complejas. Así, p. ej., P. Guiraud reconstruyó la estructura simbólica de “Las flores del mal” de Baudelaire, R. Barthes, analizando “Sarrazin” de Balzac, trató de demostrar la posibilidad de interpretarlo de varias maneras, sirviéndose de varios códigos diferentes, etc. En cuanto al análisis teórico de la semiótica literaria, destacó J. Kristeva y otros autores. Es habitual analizar con este método también los géneros más simples, tales como p. ej. novelas policíacas, westerns, cómics y semejantes. C. Lévi-Strauss aplicó este método incluso a la antropología, al interpretar los mitos, ante todo el conocido mito de Edipo, rey de Tebas que había matado a su padre y se casó con su propia madre (sin saber, desde luego, que se trataba de sus propios padres). Lévi-Strauss redujo el mito a sólo cuatro componentes elementales, los llamados mitemas (siguiendo el modelo de fonemas), es decir, constantes formales que correspondían a los motivos elementales de Propp. Por estas razones es posible decir que la ciencia literaria es esencialmente la semiótica de la literatura, sobre todo porque su parte material o su instrumento es justamente la lengua. Esto vale también para otras artes que se sirven, por lo menos parcialmente, de la lengua (las palabras alternan en ellas con imágenes, música, etc.). Son ante todo: teatro, óperas y zarzuelas, musicales, películas, dramas difundidos por radio y televisión, etc. Por consiguiente, en todas estas artes suelen emplearse los métodos de interpretación y de análisis lingüístico. Sin embargo, hay también artes que no necesitan la lengua, contentándose sólo con imágenes, música, etc. Son p. ej. la pintura, escultura, arquitectura, fotografía, cine mudo, danza, pantomima y semejantes. En ellas suele emplearse exclusivamente el método de interpretación. No obstante, hay que darse cuenta de que la semiótica de estas artes ciertamente no puede ocuparse de su lengua-objeto, simplemente porque en ellas no existe, aunque, por otra parte, también en la semiótica de estas artes “no lingüísticas” encontramos con frecuencia el término “lenguaje”, con el cual suele designarse el sistema de sus medios de expresión específicos. Es este sentido se habla sobre el “lenguaje” de la arquitectura, película muda, pantomima (y, desde luego, de los ritos, artes mecánicas, artesanías y otros sistemas no lingüísticos), etc. Un perfecto ejemplo del análisis del “lenguaje” de una película muda puede encontrarse en la obra “Semiótica del cine y problemas de la estética del cine” (Ceмиoтикa кинo и пpoблemы kинoэcтeтики, 1973). Su autor Yu. M. Lotman, profesor de la Universidad de Tartu, Estonia, distinguió allí la gramática, el vocabulario y la semántica cinematográficos. Lotman considera el mecanismo de la secuencia de escenas de una película como su gramática; las personas y los objetos particulares desempeñan la función de unidades léxicas. Aprovechando los métodos lingüísticos, distingue también los elementos no marcados del lenguaje del cine, tales como son p. ej. el plano neutro frente al detalle, el ángulo neutro (paralelo al suelo y perpendicular a la escena) frente a los ángulos marcados con el eje desviado, la cámara inmóvil frente a la panorámica en movimiento, la película en blanco y negro frente a la en color, etc. En el ejemplo de la película de Eisenstein “El acorazado Potemkin” y de otras películas importantes, mudas y sonoras, demuestra cuál es la esencia del “lenguaje” del cine, cuáles son sus planos y elementos fundamentales, cómo “se lucha” en la película con el tiempo y espacio, qué importancia tiene el personaje del actor, qué lugar ocupa el arte cinematográfico en el mecanismo de la cultura, etc. El “lenguaje” de las comedias de Chaplin fue analizado en detalle en los años treinta por Jan Mukařovský, que llamó la atención sobre su extraordinario efecto estético motivado por su vestido lleno de contrastes (la parte superior elegante, la inferior miserable y ridícula) y, sobre todo, por su comportamiento lleno de contradicciones (vestido de harapos, muchas veces se comporta como un caballero, de esmoquin, en la mayoría de los casos como un holgazán). El vestido y el comportamiento en las películas de Chaplin forman sin duda una parte integrante de su lenguaje específico, teniendo un carácter semiótico muy expresivo. Otro gran grupo de fenómenos estudiados por la semiótica está formado por protocolos, ritos, moda y juegos. Detrás de estos términos, por supuesto, se esconde una cantidad ilimitada de ceremonias, fiestas, códigos, juegos y otros fenómenos muy variados y heterogéneos que desempeñan, todos ellos, una función social y tienen carácter semiótico. Los “protocolos” determinan el lugar y la posición de un individuo o grupo durante sus negociaciones con otros individuos o grupos; reflejan las relaciones familiares, religiosas, profesionales, políticas, etc. Así, p. ej., durante las negociaciones internacionales, el lugar en la mesa tiene función semiótica en el sentido de que designa la posición de la persona respectiva (por tanto, antes de las negociaciones suelen tener lugar largas discusiones sobre la forma de la mesa y la distribución de los sitios; durante la conferencia de Potsdam hasta se vio indispensable abrir una nueva tercera puerta en la habitación de negociaciones, para que los representantes de las potencias victoriosas no tuvieran que darse preferencia al entrar). Los “ritos” se caracterizan por su carácter colectivo de comunicación. Sin embargo, su objetivo no consiste tanto en intercambiar información como más bien en unir estrechamente la sociedad respectiva. Los participantes manifiestan su voluntad de cumplir sus obligaciones familiares, étnicas, religiosas, nacionales o sociales, confirmando su incorporación al grupo respectivo. Ejemplos no faltan, comenzando por las ceremonias de iniciación o de entierro en las tribus primitivas, pasando por las ceremonias religiosas, nupciales, la entrega de las medallas en los Juegos Olímpicos, hasta las fiestas nacionales, etc. El carácter semiótico de estos acontecimientos se desprende no sólo de la importante función de los símbolos empleados, sino también de la secuencia y del carácter convencional de los actos particulares, así como de la lengua respectiva. La “moda” es uno de los modos de ser de la sociedad. Domina en los vestidos, las viviendas, las comidas, etc. Según P. Guiraud, la moda cambia porque, por una parte, algunos miembros de la sociedad tratan de aproximarse a los grupos prestigiosos, adoptando sus rasgos característicos (la manera de vestirse, etc.) y, por otra parte, otros miembros de la misma sociedad se esfuerzan en diferenciarse en la mayor medida posible del “ideal” mencionado, casi siempre para dar a entender sus protestas. En los dos casos, la moda puede compensar varias frustraciones, y complace indudablemente el deseo de manifestar (señalar) la posición y la concepción del mundo de las personas respectivas. Los “juegos”, al igual que las artes, imitan la realidad. Se dividen, por regla general, en intelectuales, sociales y estéticos. El objetivo de los juegos intelectuales consiste en construir algún sistema o descubrir su sentido (ver p. ej. el modelaje, varios juegos de construcción infantiles, pero también los crucigramas, jeroglíficos, etc.). Los juegos sociales tienen como objetivo incorporar al participante a cierta posición social (la niña que juega con su muñeca, p. ej., se está preparando para su papel de madre, en el ajedrez y otros deportes los jugadores imitan una lucha o guerra real, etc.). Desde el punto de vista de los espectadores, la mayor parte de los juegos tiene función estética (en el sentido amplio no son solamente los dramas teatrales, etc., sino también los encuentros deportivos, etc.). En muchos juegos, por supuesto, se combinan las tres funciones, aunque en una medida diferente. Todos los juegos se caracterizan por el conjunto de reglas correspondientes, sin el cual cualquier juego perdería su sentido El objetivo principal de los juegos es, por una parte, conocer la realidad (en los niños, p. ej., prepararse para la vida de adultos) y, por otra parte, divertirse en el tiempo libre. Sin embargo, la psicología y psiquiatría contemporánea trabajan con una concepción más amplia del juego, según la cual incluso en la vida cotidiana cada individuo juega cierto papel (p. ej. de un esposo feliz, aventurero, tirano de su familia, esposa fría, obediente o despreocupada, pero también de un soldado valiente o incluso héroe nacional), muchas veces sin tomar en consideración su carácter real. En este caso puede tratarse de otra función de los juegos, es decir, la de satisfacer los anhelos y deseos que no pueden cumplirse en la vida real. La semiótica suele ocuparse también de varias artes adivinatorias (las llamadas mánticas), como son p. ej. la quiromancia (adivinación fundada en el estudio de la mano), cartomancia (naipes), aritmomancia (números), oniromancia (sueños), así como de otros fenómenos y acontecimientos (cacharros, arañas, gato atravesando el camino y semejantes), adivinación del futuro según la posición de los cuerpos celestes (astrología, confección de horóscopos), etc. Se trata, en la mayoría de los casos, de métodos no científicos, aunque interesantes para la semiótica, ante todo porque en todos los casos sin excepción se trata de un sistema de signos, de cierta “lengua” en el sentido amplio, la cual tiene su morfología (reglas), sus constituyentes inmediatos (signos) y su semántica (significado de los signos). La semiótica ayuda muchas veces a descubrir el carácter no científico de la adivinación. Así, p. ej., en la cartomancia, los naipes particulares funcionan como signos de muy poca nitidez, teniendo un significado aproximado y facilitando una interpretación muy variada (p. ej. las figuras pueden designar a hombre, mujer, muchacho y muchacha; algunos palos de la baraja son favorables, otros desfavorables, etc.). Los naipes suelen barajarse y una parte de ellos se reparte en varios grupos, p. ej. en cinco grupos de cuatro naipes, en forma de cruz. Cada uno de los grupos tiene su significado; el grupo central, p. ej., significa la actualidad, el de arriba el futuro próximo, el de abajo el pasado, el izquierdo los obstáculos y el derecho el futuro lejano. La echadora de cartas descubre sucesivamente los naipes, dirigiéndose en su interpretación por las reacciones del cliente, de manera que muchas veces logra evocar su confianza (el rey de picas, p. ej., puede interpretarse como un hombre brutal desconocido, un padre demasiado severo, un pariente envidioso, etc.). Hemos mencionado aquí sólo una parte insignificante de la cantidad casi infinita de diferentes sistemas de signos que pueden ser objeto de estudio de la semiótica. Desde el punto de vista de la lingüística es interesante también el estudio de los sistemas “no lingüísticos”, ya que puede ayudarnos a ampliar y precisar la propia semiótica lingüística, que estudia el carácter semiótico de las lenguas naturales. Lo que caracteriza a la semiótica aplicada es que su objetivo es el estudio de los sistemas de signos, de los cuales hemos podido mencionar aquí sólo una pequeña parte. Está basada en los conocimientos de la semiótica teórica, aunque por otra parte contribuye a enriquecerla con sus resultados. Desde luego, también la semiótica teórica puede estudiar dichos sistemas, en este caso para sacar conclusiones más generales.