material didactico - Centro Cultural Universitario

Anuncio
MATERIAL DIDACTICO
PSICOLOGÍA Y CRIMINOLOGÍA
FILOSOFÍA DE LAS CIENCIAS
UNIDAD I: EL DEBATE EN TORNO AL MÉTODO Y LA
RACIONALIDAD CIENTÍFICA EN LA FILOSOFÍA DE LA
CIENCIA
1.1
El origen de la idea de las dos culturas: Ciencia y
Humanismo.
La fractura social y académica entre las "dos culturas", Ciencia y Humanidades,
que CP Snow diagnosticara en 1959 en su célebre conferencia Rede de
Cambridge, dista de haberse cerrado. Aunque tal vez el foso no es hoy tan
ancho como en época del físico y novelista inglés, no puede todavía hablarse ni
de lejos de un regreso a una unidad del conocimiento, a una integración de
estas dos grandes esferas del saber humano.
En efecto, a día de hoy continua habiendo no pocos desencuentros entre lo
que llamamos Ciencia, es decir las ciencias naturales (física, química, biología
y afines) identificada con planteamientos realistas, y las humanidades, en las
que incluiríamos también a las ciencias sociales, y en las que dominan puntos
de vista relativistas.
Podemos decir que, al menos hasta ese XVII en el que suele datarse
históricamente el comienzo de la revolución científica, no existía todavía
ninguna fisura epistemológica entre dos tipos de saberes. Evidentemente, el
saber estaba parcelado en disciplinas, pero formaban parte de un marco
intelectual común. Así por ejemplo, lo que hoy llamamos Ciencia (la palabra
científico no se acuña hasta 1840) se la llamaba entonces Filosofía Natural, y
era considerada una rama, y más bien menor, del gran árbol de la Filosofía, la
disciplina madre. Quizá no tanto como en la época medieval, pero en el XVI y
XVII, la Teología, por ejemplo, gozaba todavía de un rango académico e
intelectual superior al de la filosofía natural.
Siglo XVII. Empieza a desarrollarse la ciencia moderna
El cambio que iba a colocar a la Ciencia no solo como entidad autónoma sino
en el centro mismo de la civilización humana, empezó a operarse en ese XVII,
o tal vez en el siglo anterior. Galileo, Kepler o Newton serían algunos de los
protagonistas. Isaac Newton (1642-1727) iba a dejar la Física convertida en un
sistema de acabado perfectísimo, que parecía dar cuenta de todo fenómeno
físico observable y que no se empezaría a cuestionar seriamente hasta finales
del XIX, en los inicios de la revolución cuántica de Planck. El libro de Newton
Principia Mathematica (Principios matemáticos de Filosofía Natural), publicado
por primera vez en 1687, en latín, iba a convertirse en una autoridad tan
rotunda como en otro tiempo las obras de Aristóteles.
El método científico, un método muy riguroso de indagación del mundo natural,
fue afinándose a lo largo del XVII y el XVIII, con los aportes fundamentales
(Galileo y Newton aparte) de gentes como Descartes, con su Discurso del
Método, o del empirista Francis Bacon. Lo que hoy llamamos Ciencia fue
dibujando sus contornos con más y más precisión. El hombre europeo iba a
salir al fin del laberinto especulativo de siglos pasados.
Una sola cultura (todavía)
Pero esta Filosofía Natural todavía era considerada, al menos hasta comienzos
del siglo XIX, como parte de la Filosofía, del saber general. Aún no se había
producido ninguna verdadera ruptura. Podríamos decir que cultura solo había
una, y era la humanística. Y obras que hoy día forman parte de los clásicos de
la historia de la ciencia, se consideraban parte del gran caudal literario (o
filosófico) de la cultura.
Así, un libro como el Discurso del Método de Descartes, podemos verlo hoy día
como uno de los textos fundacionales de lo que más tarde iría conformándose
como método científico, pero en el momento de su escritura (1637) era un texto
de filosofía. Blaise Pascal, físico y matemático según lo vemos hoy, sin duda se
veía a sí mismo en su XVII, como un filósofo o incluso un teólogo.
Isaac Newton iba a dejar la Física convertida en un majestuoso edificio que no
iba a empezar a resquebrajarse (y solo parcialmente) hasta la revolución
cuántica que echó a andar en el período 1895-1900. El XVIII iba a constituirse
como la edad heroica de la ciencia moderna. El arquetipo sería el acaudalado y
sociofóbico Henry Cavendish (1731-1810), que hizo aportes fundamentales en
Física y Química, simplemente por prurito intelectual.
El clima de la Ilustración y su proyecto de “desencantar el mundo”, es decir
eliminar toda idea de ente sobrenatural al margen del mundo físico, iba a
consolidar a la nueva Ciencia como gran fuerza social.
Siglo XIX: Institucionalización de la Ciencia
El siglo siguiente, el XIX, iba a ser no solo el del “bautismo” de la Ciencia y los
científicos, sino de su fuerte institucionalización e impacto económico e
industrial, sobre todo en la Alemania de la segunda mitad del siglo. Así, y en
buena parte gracias a la Ciencia y la Tecnología, Alemania iba a convertirse en
una potencia política y económica, en contraste con el pigmeo que había sido
hasta entonces (segunda mitad del XIX) en todos los ámbitos, salvo en el
cultural.
El XIX iba a ser también el siglo de la Biología. La idea de la evolución de las
especies fue anterior a Charles Darwin, ya que no dejaba de tener una fuerte
lógica. Pero el biólogo inglés fue el que supo dar con el mecanismo de dicha
evolución: la Selección Natural.
La Selección Natural, la supervivencia de los más aptos, iba a tener un impacto
increíble en la cultura occidental. El origen y diversidad de las criaturas podía
explicarse de una manera mecánica, sin necesidad de intervenciones divinas,
lo cual era un duro golpe a la Religión. Y además, la noción de supervivencia
de los más aptos desbordaría la Biología e invadiría otras áreas, como la
Sociedad o la Economía. La Ciencia aumentaba su vigor e influencia.
Siglo XX, la gran fisura intelectual
A lo largo de la segunda mitad del XIX y la primera mitad del XX, iba a
continuar ensanchándose la brecha entre las dos culturas, la ciencia y las
humanidades. Los humanistas seguirían conservando la primacía entre las
élites dirigentes y las clases altas. Y la química o la física a pesar de su
importancia práctica y económica seguirían siendo saberes de segunda, sobre
todo en Inglaterra. Allí, un alumno brillante sería enviado a Oxbridge a estudiar
a los clásicos; sino no lo era tanto, se le invitaría a optar por las profesiones
científico-técnicas.
Esta mentalidad se mantuvo hasta muy avanzado el siglo XX. El primer toque
de atención y un primer intento para superar la brecha llegaría en 1959 en
Cambridge con la mencionada conferencia de CP Snow.
En la actualidad existe una grave incomunicación entre ciencias y letras.
Mientras la cultura va por sus propios derroteros, la visión que la mayoría de la
gente tiene de la ciencia y la tecnología depende de los mensajes que reciben
a través de los múltiples canales de comunicación: catástrofes, accidentes
derivados de las tecnologías más avanzadas, nuevas opciones para el control
de la reproducción (Nelkin: 1991,18).
Según Nelkin: No es en los ámbitos académicos donde hay que resolver el
problema de las dos culturas sino en el espacio de la comunicación pública. La
ciencia, la hacen los especialistas y la cultura humanista se hace en las
facultades pero el público la necesita incluso para participar en el propio
espectáculo de la ciencia.
Para Carl Sagan: Cuando la investigación científica proporciona unos poderes
formidables son ciertamente terribles para naciones y líderes políticos falibles.
Aparecen muchos peligros: los científicos, por ejemplo, pueden perder la
objetividad. La única protección contra un mal uso de la ciencia y la tecnología
suele ser el debate abierto y vigoroso. Puede ser que la pieza crítica de la
argumentación sea obvia y muchos científicos o profanos la podrían aportar
siempre que no hubieran represalias por ello.
El apoyo a gran escala a la ciencia es relativamente reciente, a partir de la II
guerra mundial, aunque el mecanismo de algunos científicos por parte de ricos
y poderosos es mucho más antiguo.
Los verdaderos científicos tienen una puerta abierta al humanismo. Educar
para la libertad es enseñar en las escuelas, no solo derechos humanos sino
métodos científicos.
1. Posiciones al respecto
La ciencia en sí misma una palabra talismán. Existe una creencia generalizada
de que hay algo especial en la ciencia, en los métodos que utiliza. Cuando a
alguna afirmación, investigación o razonamiento se pretende dar a entender
que tiene algún tipo de mérito o alguna clase especial de fiabilidad. Pero ¿qué
hay de especial en la ciencia, si es que hay algo? ¿Cuál es el método científico
que según se afirma conduce a resultados especialmente meritorios o fiables?
El gran respeto que se tiene por la ciencia no se limita a la vida cotidiana y a
los medios de comunicación populares. Resulta evidente también en el mundo
académico y universitario.
Según Chalmers muchas de las llamadas ciencias sociales o humanas
suscriben el siguiente razonamiento: Se puede atribuir el éxito indiscutible de la
física en los últimos tres siglos a la aplicación especial de un método científico.
Por consiguiente para que las ciencias sociales y humana puedan emular el
éxito de la física será preciso primero comprender y emular este método y
aplicarlo después a ellas. Este razonamiento suscita dos preguntas
fundamentales: ¿Qué es este método científico que supone ser la clave de este
éxito de la física? ¿Es posible transferir este método de la física y aplicarlo a
otros campos?
a. Kuhn
Autores como afirman que las concepciones tradicionales de la ciencia ya
fueran indicativitas o falsacionistas, no resistían una comparación con las
pruebas históricas. Un rasgo característico de su teoría histórica es la
importancia atribuida al carácter revolucionario del progreso científico en el que
una revolución supone el abandono de una estructura teórica y su reemplazo
por otra compatible con la anterior. Para Kuhn analizar las características de un
periodo de crisis en la ciencia exige tanto la competencia de un psicólogo como
de un historiador. Cuando se llega a considerar que las anomalías plantean al
paradigma serios problemas comienza un periodo de inseguridad profesional
marcada. Cuando un paradigma ha sido debilitado hasta el punto que sus
defensores pierden la confianza en él, ha llegado el momento de la revolución
científica.
b. Feyerabend
Para Feyerabend el elevado respeto por la ciencia es considerado como
religión moderna. Insinúa que la elección entre distintas teorías se reduce a
una elección determinada por los valores y deseos subjetivos de los individuos.
c. Hume
Hume rebate a Feyerabend diciendo que: los individuos nacen en una sociedad
que preexiste y que en cierta medida tiene características que ellos no eligen ni
están en posición de elegir. Las opciones que les están abiertos estarán
determinadas por el acceso que puedan tener en la práctica los recursos
necesarios para varias opciones. Los científicos serán libres de seguir sus
deseos solos en la medida que puedan elegir entre una serie restringida de
opciones que les son posible.
2. Propuesta de un canon científico
¿Qué ideas científicas debemos integrar en nuestra cultura humanística, para
lograr un mejor entendimiento y comprensión del mundo?. La pregunta es
pertinente en esta época compleja en la que es cada vez más difícil, pero
también más necesario, derribar las barreras que dividen las especialidades
para mirar al mundo en su globalidad. Necesitamos disponer de alguna ayuda
orientadora, algún criterio para establecer ese canon porque la tradición se ha
escindido aquí en compartimentos casi estancos a partir de mediados del siglo
XIX.
Para A. Fernández, la evidencia de que la ciencia actúe tanto sobre las ideas
como sobre las cosas, nos sugiere una hipótesis: el canon sería el conjunto de
conceptos, teorías o procedimientos científicos que nos servirían para dos
fines: entender el mundo y valorar las consecuencias de la técnica. Esta
formulación se hace operativa cuando nos fijamos en una de las revelaciones
más interesantes de la ciencia actual: el mundo es un complejísimo proceso, un
ingente conglomerado de evoluciones adaptativas, donde todo está sometido,
desde el universo en su totalidad hasta cada persona, pasando por las
galaxias, las estrellas y los planetas, las especies biológicas o la cultura
humana. Y en esta esencia que cambia, a cuyo sentido sólo podemos
acercarnos combinando el azar y la necesidad -la antinomia descubierta por
Demócrito- encontramos un terreno común a ámbitos tan distintos pero
complementarios como lo científico y lo técnico, y lo literario: lo humanístico.
Todas ellas, entre otras, son motores de la proyectividad humana y de la
evolución cultural. Y además, promueven nuevos modos de actuar, de pensar y
de decir, esto es, de vivir.
El canon literario no sirve sólo para disfrutar de la belleza del lenguaje o para
evadirse de las penalidades y la frustración cotidiana, más allá de eso, nos
ayuda a entender mejor nuestras mentes, pasiones y sentimientos, las
complejidades de las relaciones humanas o la sintonía entre fantasía y
realidad, gracias a autores como Shakespeare, Cervantes, Balzac, Kafka o
Borges.
Así, un canon científico debe servirnos para acercarnos al mundo y sus
interrogantes. Y es en este acercamiento donde observaremos las cosas del
mundo, desde una objetividad pura y simple de los astros, hasta la compleja y
subjetiva visión de nuestros yoes, porque los humanos no podemos renunciar a
hacernos preguntas sobre lo que vemos y sentimos. Esta reflexión nos sugiere
una pregunta en tres apartados ante la propuesta del canon científico:
1. Los orígenes
El origen del universo , con la cosmetología del Big Bang y la idea del cosmos
histórico y evolutivo, incluyendo la manera en que nacieron las estrellas, las
galaxias, el sistema solar y la Tierra; el origen de la vida en este planeta, con la
idea de evolución prebiótica y la necesidad de entender cómo surgieron el
metabolismo y la replicación, o cómo funcionan la evolución de las especies, la
herencia biológica o el genoma; el origen del hombre y la evolución del cerebro
hasta la inteligencia humana en particular, y el nacimiento del lenguaje y lo que
llamamos cultura en especial.
2. De qué están hechas las cosas
Cómo son los constituyentes de la materia inerte- desde los átomos hasta las
partículas elementales- y de los seres vivos- desde lo que hay dentro de la
célula hasta los grandes organismos y sociedades.
3. La articulación del azar y la necesidad, apartado que intentamos entender
desde que fuera descubierto por Demócrito como compromiso entre las
visiones antagónicas de Heráclito y Parménides, es decir, entre lo que cambia
y lo que permanece.
La reflexión nos acercará hasta una posible articulación de las distintas
aproximaciones a la realidad, que son las distintas maneras en que los
humanos intentamos salir de la caverna de Platón. La construcción de modelos
teóricos, la investigación en disciplinas básicas y la aplicación práctica de los
avances tecnológicos gozan, hoy más que nunca, de una gran influencia en
todos los órdenes de la vida y en la opinión pública. Este ascenso de las
ciencias y de la tecnología en nuestras sociedades, es uno de los grandes
retos que plantea el siglo XXI.
Esos avances ayudan al desarrollo de los pueblos y de los Estados. Y al mismo
tiempo constituyen un desafío armónico y equilibrado de los avances científicos
y tecnológicos, con la herencia cultural de Occidente.
Según Víctor Weisskopt el científico tiene la obligación de ser el guardián, el
colaborador y defensor del conocimiento y de la visión científica. Este gran
edificio de ideas no debe descuidarse durante un tiempo de crisis. Tenemos
necesidad de la ciencia no sólo para la solución de problemas prácticos, sino
también para mantener vivo el espíritu de ese gran esfuerzo humano. Tenemos
que conseguir que este mundo sea un mundo bueno y habitable, pero también
tenemos que crear valores e ideas por las que la gente pueda vivir y pueda
luchar.
3. En el s. XXI: nuevos comunicadores
Martín Redfern, periodista científico de la BBC de Londres, nos ha
recordado la mejor razón de ser del periodismo científico: "Los periodistas son
lo único que tiene el público para poder comprender un aspecto de las cosas".
Para Manuel Calvo: La obligación de quienes hemos elegido esta
sugestiva y arriesgada especialización de divulgar la ciencia es transformar el
periodismo en instrumento positivo y creador al servicio de la educación
popular y del desarrollo integral del ser humano, en un sistema de ayudas para
que el hombre de nuestra era aprenda a responder al más gigantesco e
impresionante desafío de todos los tiempos, el desafío de la adaptación.
1.2
El enfoque neopositivista en torno a la unidad de la
ciencia
Hay voces que anuncian que la filosofía analítica está en crisis y que nos
encontramos ya en un periodo decididamente post-analítico. Aunque no todos
coincidirían en esta afirmación, todo el mundo sí está de acuerdo en que la
filosofía analítica, nacida de los trabajos de Frege, Russell y Wittgenstein en las
últimas décadas del siglo pasado y en las primeras de éste, ha sido la tradición
dominante en el ámbito angloamericano en el siglo que ahora termina. En esa
situación han influido múltiples factores sociológicos y culturales, y muy en
particular, el liderazgo que la filosofía que se hace en los departamentos
universitarios de los Estados Unidos —mal que nos pese a veces a los
europeos— ha asumido de hecho en el contexto mundial. Más aún, puede
decirse que la historia de la filosofía norteamericana en la segunda mitad de
este siglo ha sido sobre todo la historia de la filosofía analítica y de sus
sucesivas transformaciones desde el más estricto positivismo lógico del Círculo
de Viena hasta sus más recientes versiones pragmatistas.
Dar cuenta del desarrollo de la filosofía analítica durante los últimos cien años
para discernir qué queda de ella para el nuevo siglo o el nuevo milenio no es en
absoluto una tarea sencilla, más aún cuando la tradición analítica es un
abigarrado mundo en el que sus representantes no comparten más que un
vago aire de familia. En los últimos años asistimos a resultados tan dispares
dentro del ámbito analítico como el "marxismo analítico" o el "tomismo
analítico" de Geach, Haldane o Kenny. Por mi parte, para hacer ese balance de
la filosofía analítica he optado por un enfoque histórico de nuestro siglo, pues
pienso —en palabras de Gordon Baker— que "la comprensión en filosofía es
esencialmente histórica".
Precisamente, uno de los rasgos que más llaman la atención en la filosofía
analítica de las dos últimas décadas es el creciente interés en la propia
comprensión histórica del movimiento analítico. Willard V. Quine caracterizó —
no totalmente en broma— como dos actividades distintas la filosofía y la
historia de la filosofía, y de hecho la filosofía analítica constituyó durante
décadas un área de saber casi totalmente ahistórica. Este desinterés por la
historia tiene su origen también en la autocomprensión que la filosofía analítica
tuvo de sí misma como una ampliación de la ciencia o una explicación del
conocimiento científico. Como para esta tradición la filosofía venía a ser una
continuación de la actividad científica, puso siempre un gran empeño en no
parecer una disciplina humanística mediante el rechazo de la aproximación
histórica típica de las humanidades y la ocultación de sus diferencias respecto
de las ciencias. Por el contrario, hoy en día, desde dentro de la tradición
analítica se sostiene mayoritariamente —en particular gracias a los trabajos de
Hilary Putnam y Charles Taylor— que sólo una comprensión histórica del
movimiento analítico está cabalmente legitimada para dar cuenta de su efectivo
progreso. Así como los resultados de las ciencias naturales se juzgan a fin de
cuentas en función de la historia de esas ciencias, los logros de la filosofía se
juzgan en última instancia en función de su historia: la historia de la filosofía
sería en este sentido la parte de la filosofía que manda sobre el conjunto de las
diversas áreas que la componen.
El creciente interés de muchos filósofos analíticos por reconstruir los diversos
capítulos de la historia de la filosofía analítica se orienta precisamente en esta
dirección: se desea llamar la atención sobre la brecha abierta entre la imagen
que la filosofía analítica elaboró de sí misma a modo de pariente cercano de la
ciencia y su desarrollo efectivo en la práctica. De esta manera la filosofía
analítica ha comenzado a reconocer abiertamente sus diferencias con la
ciencia —durante décadas por completo reprimidas— para reconocerse "como
una disciplina humanística, y a ver sus temas y problemas como los temas y
problemas comunes a las humanidades". Para la tradición analítica la inserción
de la filosofía en el marco general de las humanidades supone un punto de
inflexión de importancia. Los filósofos que se consideran analíticos no se ven
ya a sí mismos como la culminación del proceso por el que la actividad
filosófica se ha convertido en ciencia, sino que, en particular a través del
estudio de la historia de la filosofía, tienden a insertar su discurso en la
conversación general de la humanidad: incluso puede decirse que sólo en
estos últimos años y gracias a esta aproximación expresamente histórica la
filosofía analítica ha llegado a reconocerse a sí misma plenamente como
filosofía.
De acuerdo con este enfoque histórico, el presente balance está organizado en
tres secciones distintas: una primera dedicada al neopositivismo o positivismo
lógico de las primeras décadas de nuestro siglo, la segunda y central destinada
a hacer una rápida historia de la filosofía analítica, y finalmente en la tercera
parte se hace un balance de los resultados mejores de esta tradición de
pensamiento para el nuevo siglo. Muchos aspectos importantes de la tradición
analítica quedarán fuera de este estudio, en particular la investigación analítica
en filosofía moral y en filosofía de la religión que —quizá sorprendentemente
para algunos— ha adquirido cierto relieve y personalidad propia en los últimos
años.
2. El neopositivismo o positivismo lógico
El movimiento filosófico desarrollado en torno al Círculo de Viena ha recibido
habitualmente la denominación de positivismo lógico en el mundo
angloamericano, mientras que en el ámbito académico en lengua alemana ha
sido identificado más frecuentemente como neopositivismo. Con este prefijo
"neo-" se alude a una cierta continuación del positivismo del siglo XIX,
desarrollado por Auguste Comte, John Stuart Mill, Richard Avenarius y Ernst
Mach, mientras que con el adjetivo "lógico" se destacaría más el genuino rasgo
diferencial de los miembros del Círculo de Viena, pues aspiraban a resolver de
una vez por todas mediante la clarificación lógica del lenguaje los atolladeros
de la filosofía hasta lograr su encaminamiento científico. En Italia, quizá por
influencia del libro de Francesco Barone Il neopositivismo lógico se difundió esa
denominación sintética todavía más compleja.
La cuestión terminológica no es importante en estos momentos, aunque quizá
sea más acertada la denominación inglesa "positivismo lógico" o también
"empirismo lógico", porque destaca con nitidez la tesis nuclear del Círculo de
Viena acerca de la significatividad del lenguaje: sólo son significativas las
proposiciones empíricas y las proposiciones lógicas. En una filosofía científica
todas las proposiciones que no sean casos de fórmulas lógicas o que no sean
reducibles por caminos lógicos a proposiciones empíricamente verificables han
de ser descartadas como no significativas, pues no tienen valor cognitivo
alguno, sino, por ejemplo, simplemente un valor emotivo.
Aunque el manifiesto del Círculo de Viena de 1929 reconocía el papel de sus
predecesores, se presentaban a sí mismos como un movimiento decididamente
revolucionario respecto de la filosofía académica tradicional. Aspiraban a
reformar la filosofía —o incluso a sustituirla del todo— para ponerla en
consonancia con la nueva ciencia, que de hecho era casi por completo
ignorada por la escuela fenomenológica en Alemania y Austria. Los miembros
del Círculo de Viena eran científicos de profesión y eran bien conscientes de
los recientes avances en la física moderna (Planck, Einstein, Bohr): pretendían
sustituir la estéril disputa entre las escuelas filosóficas por un método riguroso
que permitiera una fundamentación científica de los saberes. Merece la pena
transcribir algunas líneas de la introducción programática de Reichenbach con
la que se inauguraba en 1930 la nueva etapa de los Annalen der Philosophie,
rebautizada ahora como Erkenntnis:
"... los actuales editores han considerado siempre como su tarea el practicar la
filosofía en el sentido de crítica de la ciencia, y, mediante métodos científicoanalíticos, ganar aquel discernimiento en el sentido y significado del
conocimiento humano que la filosofía de las escuelas históricas, fundada sobre
la supuesta legalidad propia de la razón, ha buscado sin éxito. (...) del objetivo
que nos hemos impuesto se deduce que el núcleo de la revista está en
aquellos trabajos que tengan sus fuentes en el productivo suelo de la
experiencia. (...) Pedimos a todos aquellos que se dedican a las ciencias
particulares (...) que colaboren con nosotros en la edificación de una filosofía
de la ciencia.
Es convicción nuestra que con ello, la misma filosofía recibirá una nueva
fundamentación como ciencia. (...) Hasta tal punto nos hemos acostumbrado
en filosofía a las escisiones en las direcciones y sistemas que casi se ha
renunciado a pensar en una ciencia filosófica unitaria, y se ha intentado
establecer como particularidad de la filosofía el que en ella haya opiniones y no
doctrina, el que haya puntos de vista pero no conocimiento. (...) Sin embargo, si
se mira a lo que ya se sabe, se advierte también en el ámbito de la filosofía un
amplio acuerdo. (...) Nuestra revista no quiere opiniones, ni sistemas
preconcebidos, ni poesía conceptual: quiere conocimiento".
Los miembros del Círculo de Viena encontraron el instrumento para el
encaminamiento científico de la filosofía en la nueva lógica desarrollada en las
décadas precedentes por Peano, Frege, Schröder, Russell, Whitehead y
Wittgenstein. Merece la pena recordar cómo Moritz Schlick en su artículo
programático "Die Wende der Philosophie" (1930) anunciaba "estoy convencido
de que nos encontramos en un punto de viraje definitivo de la filosofía, y que
estamos objetivamente justificados para considerar como concluido el estéril
conflicto entre los sistemas". Las sendas para este encaminamiento científico
se encuentran en la lógica, concretamente —proseguía Schlick— en el análisis
lógico del lenguaje propuesto en el Tractatus Logico-Philosophicus de Ludwig
Wittgenstein de 1922.
Una de las causas principales del permanente atractivo del Círculo de Viena se
encuentra muy probablemente en su decidido apoyo del carácter cooperativo
del trabajo en filosofía: creyeron que la filosofía era una empresa colectiva
como las ciencias naturales en la que era posible progresar. "El tema principal
de este libro —escribe Alberto Coffa en el arranque de su To the Vienna
Station— es una década de lo que en filosofía podría llamarse Viena. Entre
1925 y 1935 en la vecindad de Viena, el paso usualmente lento del Espíritu se
aceleró de repente cuando algunas de sus más ilustres voces comenzaron a
hablarse unas a otras. Wittgenstein, Tarski, Carnap, Schlick, Popper y
Reichenbach no eran quizá más sabios que sus contemporáneos, pero las
circunstancias les llevaron a influirse recíprocamente en aquella década, y el
resultado de aquel diálogo merece todavía nuestra atención". En efecto, en
torno a la figura de Schlick, catedrático de Filosofía de las Ciencias Inductivas
en la Universidad de Viena se reunió un valioso grupo de científicos como
Reichenbach, Carnap, Neurath, Gödel y Waismann, que comenzaron a
escucharse unos a otros y comenzaron a hablar con quienes en Berlín, Praga y
Varsovia estaban movidas por esos mismos ideales científicos.
Además del afán cooperativo, aúna también a los miembros del Círculo un
decidido talante común antimetafísico. "La concepción científica del mundo
rechaza la filosofía metafísica" escriben Hahn, Neurath y Carnap en el
Manifiesto del Círculo de Viena de 1929. La metafísica es la especulación
filosófica que se considera a sí misma como ciencia. La metafísica —
explican— es una aberración del pensamiento causada principalmente por dos
errores lógicos básicos: la confusión entre los sentidos diversos de las palabras
en las lenguas ordinarias y la concepción apriorística del pensamiento puro: "el
análisis lógico barre no sólo la metafísica en el sentido clásico propio de esa
palabra, especialmente la metafísica escolástica y la de los sistemas del
idealismo alemán, sino también la metafísica escondida del apriorismo kantiano
y moderno". Alfred J. Ayer, el gran divulgador del Círculo en Inglaterra,
participaba también de este furor antimetafísico en su Language, Truth and
Logic de 193617, pero no así el propio Moritz Schlick o, por supuesto, Ludwig
Wittgenstein. El Manifiesto había sido pensado y escrito como un homenaje a
Schlick, que se encontraba en 1929 de profesor visitante en Stanford, y a su
regreso a Viena mostró su disgusto por ese sesgo panfletario antimetafísico del
documento.
El rechazo frontal del discurso metafísico está en el núcleo dogmático del
Círculo de Viena. La caricatura más gráfica de esta actitud es quizá la lectura
de Was ist Metaphysik? de Heidegger por parte de Carnap en su Überwindung
der Metaphysik durch logische Analyse der Sprache, y la imposibilidad de
conferir un sentido empírico, factual, un control experimental a afirmaciones
como la de "la Nada misma nadea". Para el Círculo de Viena una proposición
es significativa sólo cuando puede determinarse qué circunstancias en el
mundo la hacen verdadera y qué circunstancias la harían falsa. La concepción
metafísica a la que se oponen los miembros del Círculo es aquella que sostiene
que puede legítimamente hacer afirmaciones fácticas y al mismo tiempo afirma
que esos hechos están más allá de toda experiencia posible. Se trata de una
concepción de la metafísica —sugiere Blasco— basada en el modelo de las
ciencias naturales: la metafísica vendría a ser una presunta 'física de lo no
sensible', una presunta ciencia de noúmenos y de totalidades inaccesibles a la
experiencia. Sin embargo, como escribió Ayer, "la originalidad de los
positivistas lógicos radica en que hacen depender la imposibilidad de la
metafísica no en la naturaleza de lo que se puede conocer, sino en la
naturaleza de lo que se puede decir".
Al disolverse el Círculo en 1938 tras la anexión de Austria a Alemania por parte
de Hitler, sus miembros huyeron a Inglaterra y Estados Unidos, donde a lo
largo de los años cuarenta y cincuenta lograrían un extraordinario influjo en el
ámbito de la filosofía académica. Sin embargo, la desaparición del positivismo
lógico no se debió sólo a la disgregación de los miembros del Círculo, sino
también al reconocimiento general de los defectos de esta concepción,
particularmente su pretensión de eliminación de la metafísica. El golpe de
gracia definitivo del movimiento sería asestado por Quine con su denuncia de
la distinción entre lo analítico y lo sintético en "Dos dogmas del empirismo"
(1951) y una década después por Kuhn con La estructura de las revoluciones
científicas (1962).
Sesenta años después de la disgregación del Círculo de Viena puede afirmarse
que el legado del positivismo lógico se encuentra —más que en aquel talante
antimetafísico que ha dominado una parte considerable de la filosofía analítica
angloamericana— en el empeño por la atención a la experiencia y en el rigor
lógico y la claridad conceptual, que por otra parte han sido siempre rasgos
distintivos de la mejor filosofía. En todo caso, cabe afirmar también que el
resurgimiento en los años ochenta y los noventa del interés por el Círculo de
Viena ha puesto de manifiesto tanto la conexión de este movimiento con la
tradición filosófica general como el genuino talante filosófico que animaba a sus
miembros. Para muchos de nuestros contemporáneos resulta mucho más
atractivo el estudio del positivismo lógico, e incluso de sus errores, que las
veleidades postmodernas del pensamiento débil en sus múltiples
formulaciones.
3. El giro lingüístico de la filosofía y la tradición analítica
Suele considerarse que uno de los rasgos más característicos del siglo XX ha
sido lo que Gustav Bergmann denominó el giro lingüístico de la filosofía.
Aunque a lo largo de toda la historia quienes se dedicaron a la filosofía siempre
prestaron una gran atención a las palabras, asistimos en este siglo a una
expansión sin precedentes de la investigación filosófica sobre el lenguaje,
hasta el punto de que el conjunto de problemas constituido por las conexiones
entre lenguaje, pensamiento y mundo ha venido a constituir el eje de la
reflexión y el debate filosóficos. Si esto puede decirse de la mayor parte de las
tradiciones filosóficas de nuestro siglo, ha de afirmarse por antonomasia de la
tradición analítica, en la que la atención a la significatividad del lenguaje,
heredada tanto del Círculo de Viena como de Ludwig Wittgenstein, ha sido el
'motor' de la investigación filosófica.
El giro lingüístico de la filosofía se caracterizó tanto por la concentración de la
atención en el lenguaje como por la tendencia a abordar los problemas
filosóficos a partir de la forma en que aparecen en el lenguaje. Los filósofos
analíticos no se preguntaron por la posibilidad o legitimidad del conocimiento,
por la malicia o bondad de las conductas humanas o los atributos de Dios, sino
que trataron más bien de hacerse cargo, de esclarecer, el significado o alcance
del lenguaje cognitivo, ético o religioso. Es cierto que el replanteamiento en
términos lingüísticos de algunos de los problemas tradicionales de la filosofía
con la pretensión de aclararlos o incluso de disolverlos, llevaba implícito en
bastantes casos la convicción de que buena parte de aquellos problemas eran
espejismos o engaños tendidos por las propias palabras. Sin embargo, vale la
pena resaltar que los filósofos analíticos no creyeron ingenuamente que los
problemas que desde siempre habían preocupado a los seres humanos fueran
"problemas de palabras", sino que más bien pensaron que la causa de que
hasta entonces no hubieran podido ser resueltos se encontraba en buena
medida en que no habían podido ser formulados con exactitud y claridad. Así
como la física no avanzó decisivamente hasta el descubrimiento de los
métodos matemáticos, pensaron que la filosofía no progresaría hasta que no se
esclareciera de una vez por toda la estructura lógica y significativa del lenguaje
humano.
Siguiendo la certera caracterización de Alejandro Llano, resulta muy luminoso
entender la filosofía analítica no sólo como la última transformación de la
filosofía trascendental kantiana, sino también como una forma más rica, es
decir, con mayor sensibilidad epistemológica, de reflexión filosófica que
recupera los mejores resultados de la tradición metafísica realista. La clave de
esta inflexión de la filosofía —el paso de la filosofía de la conciencia al
realismo— se sitúa nítidamente en la crítica del representacionismo, en el
rechazo de la primacía epistemológica del concepto como imagen mental, que
aparece tan vivamente descrito en los trabajos de Richard Rorty. Las raíces
históricas de ese rechazo se encuentran en la crítica del psicologismo
acometida por Frege, pero también en la crítica sistemática del cartesianismo
desarrollada por Peirce y el pragmatismo. En este sentido, Peirce —según von
Wright— podría ser contado junto con Frege, Russell y Wittgenstein, como uno
de los "padres fundadores de la filosofía analítica".
Identificar la filosofía analítica—como hace Dummett— con la filosofía postfregeana, es quizás una simplificación excesiva. Sin embargo, resulta certero
buscar el origen de este giro lingüístico de la filosofía de nuestro siglo en los
trabajos del matemático alemán Gottlob Frege. Frege aspiraba a encontrar un
lenguaje conceptual que expresara perfectamente la estructura de los
razonamientos de la matemática. Estaba persuadido de que hay un paralelismo
entre pensamiento y lenguaje, de que el lenguaje es, por así decir, la expresión
sensible del pensamiento. A Frege le interesaba el pensamiento, no tanto el
lenguaje en sí mismo; se preocupó del lenguaje en la medida en que afecta a la
expresión del pensamiento para eliminar todos aquellos elementos del lenguaje
que resultaban irrelevantes o incluso eran engañosos para la expresión
genuina del pensamiento. Su estrategia para analizar el pensamiento fue la de
analizar las formas de su expresión lingüística y fue aquella estrategia la que
finalmente se convirtió en la marca distintiva de la filosofía analítica.
Una de las características de la filosofía analítica en cuanto movimiento es la
de convertir la relación entre lenguaje y pensamiento en una de las cuestiones
centrales —para algunos la cuestión central— de la filosofía. De hecho la
relación entre lógica y lenguaje fue el resorte problemático de la producción
filosófica del Círculo de Viena y del positivismo lógico. Esta característica de la
filosofía analítica es la que Dummett encuentra plenamente anticipada en
Frege:
"El principio básico de la filosofía analítica, común a tan distantes filósofos
como Schlick, el primer y el segundo Wittgenstein, Carnap, Ryle, Ayer, Austin,
Quine y Davidson, podría definirse como la tesis de que la filosofía del
pensamiento es equivalente a la filosofía del lenguaje: o más exactamente, (i)
que una explicación del lenguaje no presupone una explicación del
pensamiento; (ii) que una explicación del lenguaje proporciona una explicación
del pensamiento, y (iii) que no hay otra manera adecuada por la que pueda
darse una explicación del pensamiento".
Esta definición sirve a Dummett como aval de la influencia decisiva de Frege en
el giro lingüístico de la filosofía contemporánea, y sirve también para dudar del
acierto de quienes caracterizan la filosofía analítica como una reducción de los
problemas filosóficos a problemas lingüísticos. La filosofía analítica
contemporánea —deudora de su origen fregeano y de su "alta traición"
representada por Russell, Carnap y el Círculo de Viena— se interesa por el
lenguaje porque le interesa el pensamiento, y está movida además por un afán
de integración sistemática semejante al que ha caracterizado siempre a la
mejor tradición filosófica.
3.1. El desarrollo de la filosofía analítica
La denominación "filosofía analítica" a pesar de su extraordinaria difusión y de
su indudable éxito, es un nombre vago e impreciso, pues no están establecidas
las condiciones necesarias y suficientes para ser un filósofo analítico. Sin
embargo, esta denominación conforma con toda claridad una tradición de
investigación contemporánea en filosofía, desarrollada predominantemente en
inglés, que remonta su origen inmediato a los trabajos de Frege, Russell,
Wittgenstein y el positivismo lógico del Círculo de Viena. Suele decirse que el
común denominador de los filósofos analíticos es una peculiar concepción
acerca de la naturaleza y los métodos de la filosofía. Para la tradición analítica
muchos problemas filosóficos vendrían a ser problemas básicamente
lingüísticos, esto es, cuestiones que en muchos casos se disuelven, aclarando
los enredos conceptuales que nos han tendido nuestras propias palabras. Los
seres humanos estamos sometidos a la tiranía de las palabras, tanto porque
disfrazan el pensamiento como porque sólo por mediación de las palabras nos
hacemos con el mundo. Es tarea de la filosofía —afirmó Frege con solemnidad
en el prólogo del Begriffsschrift— liberar a la mente humana de esa
servidumbre descubriendo las ilusiones que aparecen casi de modo inevitable
en el uso del lenguaje.
La tarea de la filosofía es concebida, por tanto, como una tarea de análisis,
esto es, de comprensión de los problemas complejos mediante su
descomposición en sus elementos más simples. "Una cosa se torna inteligible
primeramente cuando es analizada en sus conceptos constituyentes", escribió
G. E. Moore en 1899 al exponer su programa filosófico. Como Russell
reconoció siempre, esta concepción de Moore fue la que inspiró desde los
comienzos su propio programa analítico. Baldwin ha señalado que esta actitud
analítica, reacción a los excesos del idealismo de finales del siglo XIX, puede
detectarse también en otros filósofos muy relevantes de principios de nuestro
siglo. No sólo la psicología de Brentano y la fenomenología de Husserl eran
programas expresamente analíticos, sino que también el pragmatismo de
Peirce puede ser considerado cabalmente analítico. En este sentido, es
relevante destacar —como ha hecho Dummett— la fuente común de la
fenomenología y la filosofía analítica que se encuentra en la filosofía del XIX
escrita en alemán.
Aunque el término "análisis" se encuentre ya entre los griegos aplicado a la
explicación de estructuras complejas mediante la identificación de sus
elementos simples, la tesis fundamental del análisis filosófico de nuestro siglo
tiene un sentido bastante más preciso: el análisis es primordialmente un
análisis lógico, esto es, consiste en el esclarecimiento de la forma lógica, de la
estructura lógica subyacente al lenguaje. El ejemplo paradigmático de análisis
sería el del Tractatus Logico-Philosophicus de Wittgenstein, discípulo de
Russell y de Moore, que se basaba en el supuesto de que "Una proposición
tiene uno y sólo un análisis completo". Poco después los miembros del Círculo
tratarían de aplicar los análisis de Russell y Wittgenstein como soporte
metodológico de la concepción científica del mundo. Para ellos la filosofía es un
método, es una actividad mediante la cual se esclarecen las proposiciones de
la ciencia. La filosofía no tiene como resultado unas proposiciones filosóficas, la
filosofía no es un sistema de proposiciones, no es una ciencia. La filosofía es
una actividad por medio de la cual se descubre o determina el sentido de los
enunciados: "Por medio de la filosofía se aclaran las proposiciones, por medio
de la ciencia se verifican". De esta forma se configura el papel asignado a la
filosofía:
"Estoy convencido de que nuestra concepción de la naturaleza de la filosofía
recibirá en el futuro general aceptación; y la consecuencia ha de ser que ya no
se intentará enseñar la filosofía como un sistema. Enseñaremos las ciencias
especiales y su historia con el espíritu verdaderamente filosófico de búsqueda
de la claridad, y, al hacer esto, desarrollaremos la mente filosófica de las
generaciones futuras. Eso es todo lo que podemos hacer, pero ello constituirá
un gran paso en el progreso mental del género humano".
Baldwin señala que es en este contexto explícitamente antimetafísico del
positivismo lógico donde acontece la transición del "análisis filosófico",
concebido como un método importante de investigación, a la "filosofía
analítica", que reduce toda genuina filosofía a análisis lógico-lingüístico. En
este proceso la figura y el pensamiento de Wittgenstein tienen una importancia
decisiva.
3. 2. La influencia de Wittgenstein
La influencia ejercida por Ludwig Wittgenstein en la difusión de la filosofía
analítica fue impresionante. Para muchos, Wittgenstein ha sido simplemente "el
pensador más profundo de este siglo". Así como el Tractatus se convirtió en el
libro de cabecera del Círculo de Viena en su aspiración de encaminar
científicamente la filosofía mediante el análisis lógico del lenguaje, las
enseñanzas de Wittgenstein en torno al lenguaje ordinario a su regreso a
Cambridge y su actitud personal del todo opuesta a las ciencias, los sistemas
de filosofía y las escuelas de pensamiento, supusieron una segunda oleada de
influencia que llega hasta nuestros días y que en parte es opuesta a la primera.
Mientras que el positivismo y el atomismo lógicos denunciaron que el origen de
los problemas filosóficos, en especial los metafísicos, se encontraba en la
imperfección del lenguaje como instrumento natural para la expresión de los
pensamientos, la filosofía analítica británica consideró con Wittgenstein que el
lenguaje está bien como está y que la fuente de las confusiones filosóficas se
encontraba más bien en la transposición de los métodos científicos a la
filosofía. Mientras para Carnap y el Círculo de Viena la filosofía había de ser
científica y la tarea del filósofo consistía en el análisis del lenguaje y su reforma
para mostrar con claridad su estructura lógica, el segundo Wittgenstein rechaza
abiertamente esta concepción:
"Los filósofos han tenido ante sus ojos constantemente el método de la ciencia,
y han sido tentados irremisiblemente a plantearse cuestiones y a responderlas
como lo hace la ciencia. Esta tendencia es la fuente real de la metafísica y lleva
al filósofo a una completa oscuridad".
Para Wittgenstein la filosofía no ha de aspirar ya a explicar nada, sino tan sólo
a aclarar nuestro pensamiento, pues el lenguaje ordinario penetra toda nuestra
vida y continuamente tiende nuevos lazos a nuestro pensamiento. Los
problemas filosóficos no se resuelven, sino que se disuelven mediante el
análisis crítico del uso que tienen los términos en el lenguaje ordinario. Escribe
Wittgenstein:
"Debemos dejar de lado toda explicación, y sólo la descripción ocupará su
lugar. Y esta descripción se ilumina, es decir, dice su propósito, a partir de los
problemas filosóficos. Estos no son, por supuesto, problemas empíricos. Se
solucionan más bien mirando cómo funciona nuestro lenguaje, y esto de tal
modo que nos haga reconocer su funcionamiento: a pesar de la tendencia a
comprenderlos mal. Los problemas se solucionan no dando nueva información,
sino reorganizando lo que ya sabíamos. La filosofía es una batalla contra el
embrujamiento de nuestra inteligencia por el lenguaje".
Los escritos de Wittgenstein aparecen al lector contemporáneo parágrafo a
parágrafo como una penetración reflexiva e intuitiva, de extraordinaria
perspicacia habitualmente, en los problemas más insolubles de la filosofía. Por
así decir ha renunciado a las soluciones simplistas y rápidas del positivismo
lógico para enfrentarse una y otra vez con los problemas relativos a la
interrelación de lenguaje, conocimiento y mundo. "La filosofía es una
herramienta que sólo es útil contra los filósofos y contra el filósofo que llevamos
dentro", dejó escrito Wittgenstein en un manuscrito. No es la búsqueda de
soluciones a los viejos problemas lo que mueve su reflexión, sino que es la
propia investigación filosófica la que le seduce y son las respuestas simplistas
lo que rechaza.
La importancia de Wittgenstein no ha dejado de crecer después de su muerte
en 1951. A mi entender, su legado más permanente está constituido por dos
aspectos muy distintos: de una parte, la comprensión del lenguaje como una
conducta comunicativa y, de otra, su concepción del trabajo filosófico.
Respecto de lo primero, como ha señalado Donald Davidson46, Wittgenstein
nos puso en el camino real para encontrar en la comunicación interpersonal el
origen de la noción de verdad objetiva. Si se sostiene que el lenguaje es
esencial al pensamiento y se está de acuerdo con Wittgenstein en que no
puede haber lenguaje privado y en que sólo la comunicación con los demás
nos proporciona el uso correcto de las palabras, entonces, de la misma manera
y con la misma rotundidad, ha de afirmarse que no puede haber pensamiento
privado y que es la comunicación interpersonal la que proporciona también la
pauta de objetividad en el ámbito cognoscitivo. La objetividad de la verdad está
mezclada con el carácter público del pensamiento, con el carácter solidario,
social, del lenguaje y con el carácter razonable de la realidad. Los tres
elementos —pensamiento, lenguaje y realidad— que intervienen en la
discusión filosófica acerca de la verdad se confieren sentido respectivamente
en su interrelación y es la comunicación interpersonal la que establece esa
constelación de sentido.
Respecto de lo segundo, en los escritos de Wittgenstein puede advertirse —
siguiendo a Kenny— una doble concepción de la filosofía: por un lado, la
asimilación de la filosofía a una técnica terapéutica de disolución de los
problemas filosóficos mediante la clarificación del uso de nuestro lenguaje y,
por otro lado, su consideración de la filosofía como aquella actividad humana
que nos proporciona una comprensión global, una visión más clara del mundo.
Esta concepción más optimista de la filosofía se manifiesta, por ejemplo, en su
metáfora de la filosofía como guía del funcionamiento del lenguaje, entendido
éste como una ciudad. La ciudad de los lenguajes tiene muchas partes
diferentes: está el casco viejo con sus antiguos edificios, apretujados en poco
espacio, pero muy interesante y atractivo, y están más allá los nuevos edificios
de las afueras, las ciencias, ordenadas y reglamentadas. De la misma forma
que hay nuevos barrios, hay nuevas áreas para la exploración propia del
filósofo. Los problemas filosóficos son en última instancia insolubles, pero cabe
avance en filosofía mediante el progreso en la comprensión de los problemas,
de modo semejante a como el visitante que explora las diferentes zonas de la
ciudad, las conoce cada vez mejor y conoce la mayor o menor precisión de la
guía que utiliza:
"¿Por qué es tan complicada la filosofía? Después de todo, debería ser
completamente simple. —La filosofía desata los nudos de nuestro
pensamiento, que hemos liado de manera absurda; pero para deshacerlos, ha
de hacer precisamente unos movimientos tan complicados como los nudos.
Aunque el resultado de la filosofía sea sencillo, sus métodos para llegar allí no
pueden serlo".
Para Wittgenstein, como para Kant, la filosofía es el nombre de esa inevitable
forma de enredo racional que es síntoma natural de nuestro pulso intelectual,
pero, al mismo tiempo, es el nombre de nuestro afán, igualmente natural, de
claridad intelectual que nos consuela en nuestras recurrentes crisis de
confusión. Enterrar el impulso que nos mueve a filosofar dentro de nosotros
para descansar de una vez por todas sería tanto como renunciar a nuestra
capacidad de pensar.
3.3. La filosofía analítica en la segunda mitad del siglo XX
Como muestra la propia figura de Wittgenstein, en el giro lingüístico de la
filosofía que tuvo su foco en los años cincuenta en Cambridge y Oxford
confluyeron —ha señalado Burge— dos tradiciones muy distintas: de una parte
la tradición del positivismo lógico, que tenía su antecedente en el intento de
Frege de encontrar un simbolismo perfecto para expresar la estructura del
razonamiento matemático, y de otra la tradición procedente de G. E. Moore que
otorgaba primacía a los juicios de sentido común y a las prácticas ordinarias
para abordar los problemas filosóficos. Ambas tradiciones consideraban la
filosofía del lenguaje como el punto de partida de la filosofía y ambas
mostraban un notable desdén hacia la historia de la filosofía. La actitud
respecto de la ciencia y el lenguaje ordinario separaba, en cambio, a estas dos
tradiciones: mientras la tradición de origen fregeano tomaba la ciencia, la lógica
o las matemáticas como la fuente de inspiración para la investigación filosófica,
la tradición que procedía de Moore consideraba las prácticas ordinarias como
la piedra de toque del juicio filosófico y lingüístico. En el pensamiento de
Wittgenstein —que fue discípulo de ambos— se encuentran encarnadas ambas
tradiciones en sus dos épocas sucesivas.
Bajo la influencia de John L. Austin floreció en Oxford en los años cincuenta y
sesenta la denominada "filosofía del lenguaje ordinario", que aspiraba a
disolver los puzzles filosóficos atendiendo a los usos efectivos del lenguaje y a
las distinciones conceptuales que estos atesoran. Figuras destacadas en este
ámbito fueron Gilbert Ryle y Peter Strawson. Aunque el rendimiento filosófico
de estas investigaciones fue más bien escaso, ha supuesto un espaldarazo
para el estudio de la dimensión pragmática del lenguaje y la comunicación
humanos, que tendían a ser obviados en los análisis lógico-lingüísticos o
gramaticales precedentes. Las nociones de actos de habla y de implicaturas
conversacionales desarrolladas en esta dirección por Searle y Grice han
pasado ya a engrosar la sabiduría lingüística común de nuestro siglo.
La filosofía de corte analítico llegó tímidamente a los Estados Unidos a
principios de los años cuarenta por mediación de Willard Quine y de Rudolf
Carnap, pero a lo largo de la década de los cincuenta, de la mano de los
grandes emigrados europeos —Carnap, Hempel, Feigl, Reichenbach,
Bergmann, Tarski— se hizo con el control de los más prestigiosos
departamentos de filosofía de los Estados Unidos hasta convertirse desde los
sesenta hasta nuestros días en la filosofía dominante. Puede decirse de modo
general que, aun habiendo grandes diferencias entre los autores y entre las
tendencias dominantes en Inglaterra y en los Estados Unidos, se difunde en
estos años un modo de hacer filosofía en el que el estudio de la lógica y la
filosofía del lenguaje vino a sustituir casi por completo al estudio sistemático de
la historia de la filosofía.
A finales de los sesenta la mayor parte de los profesionales de la filosofía en
los países de habla inglesa y en Escandinavia se consideraban filósofos
analíticos. Su dominio cuantitativo coincidió además con la explosión de la
enseñanza universitaria y la creciente especialización profesional de la filosofía.
Durante esas décadas en gran parte del mundo angloparlante, "un filósofo —
describe Brian Magee— debía compartir el enfoque analítico si quería que sus
colegas le consideraran como filósofo. Aunque había batallas fieras y sin
perdón entre los filósofos analíticos, todos estaban de acuerdo en que los
filósofos continentales (como se les apodaba en Inglaterra) no eran
propiamente filósofos, sino más bien charlatanes con los que no convenía
relacionarse". El éxito además de la filosofía analítica en los países de habla
inglesa se tradujo también en su expansión a otras áreas culturales como
Europa continental o Sudamérica y también a otras disciplinas como el derecho
o incluso la geografía.
La figura más influyente en los últimos cincuenta años de la filosofía
norteamericana ha sido Willard V. O. Quine, que aun considerándose del todo
afín al positivismo lógico vienés fue su principal contradictor al cuestionar no
sólo la distinción humeana analítico-sintético que los positivistas habían
empleado contra la metafísica, sino también la tesis empirista de la justificación
observacional de los enunciados simples y la reducibilidad de los enunciados
abstractos a enunciados básicos de contenido empírico. De hecho, el
pensamiento del segundo Wittgenstein y el pragmatismo de Dewey han tenido
un creciente papel en la defensa quineana del holismo semántico: las palabras
no derivan su significado de las ideas mentales de sus hablantes, sino más
bien de las prácticas sociales en las que se insertan.
En realidad, desde finales de los setenta y principios de los ochenta la filosofía
del lenguaje dejó de ser considerada el saber propedéutico para abordar las
cuestiones centrales de la filosofía, y pasó a ser considerada más bien como
una disciplina metodológica o instrumental de la reflexión filosófica. De hecho,
en las últimas décadas el centro del escenario del debate analítico ha pasado a
estar ocupado por la filosofía de lo mental y en años más recientes por las
llamadas ciencias cognitivas, que confían —con una dosis renovada del
cientismo vienés— en que la integración de las aportaciones de neurólogos y
psicólogos, junto con las herramientas y los conceptos desarrollados por los
informáticos y los teóricos de la comunicación, dará luz definitiva sobre qué son
la información y comunicación humanas, cómo se almacena la información en
las estructuras cerebrales, cómo se recupera luego y se transmite
lingüísticamente. Sin embargo, los autores de la ciencia cognitiva ya no se
consideran filósofos, sino más bien científicos que anuncian de nuevo que van
a solucionar pronto y de una vez por todas la mayor parte de los problemas que
han venido ocupando a los filósofos y a los lingüistas durante tantos años: en
cierto sentido esta tendencia se alía con aquellos que anuncian el final de la
filosofía analítica.
Efectivamente, quizás el hecho más llamativo en el desarrollo de la filosofía
analítica a fines de este siglo es que aquella filosofía que pretendía resolver
todos los problemas genuinamente filosóficos, ya no se define ni por un
conjunto de problemas sistemáticamente estudiado ni por unos métodos
comunes para abordarlos. Aunque la mayor parte de los departamentos de
filosofía del área geográfica angloamericana sigan siendo todavía más o menos
analíticos, el entusiasmo original del Círculo de Viena ha desaparecido y se ha
generalizado en muchos casos una sensación de cansancio, de desorientación
o de pérdida de la dirección general. La filosofía analítica —escribía Rorty a
principios de los ochenta— se ha institucionalizado académicamente en la
Universidad norteamericana, quedando solamente de su espíritu fundacional
una cierta unidad de estilo y una cierta unidad sociológica totalmente
semejante a la de los demás departamentos de humanidades, aunque quizás
en estos la pretensión de rigor y de estatus científico sea menor. Posiblemente
el único rasgo característico de los departamentos de filosofía sea la especial
habilidad de sus miembros para la argumentación: la filosofía científica que
Reichenbach propugnaba no es ahora más que filosofía argumentativa, esto
es, capaz de introducir sus términos por definición y de explicitar las premisas
de sus razonamientos.
"Pienso que esto es lo que ha sucedido con la filosofía analítica al pasar en el
curso de los últimos treinta años de su estadio positivista al estadio postpositivista. Pero no considero esto una observación denigratoria. No pretende
sugerir que los filósofos estén haciendo algo que no deban hacer. Si, como yo
creo, se considera que la filosofía no es de la clase de cosas que tengan una
esencia o misión históricas, se entenderá que no estoy diciendo que el
movimiento analítico haya abandonado el camino verdadero. 'Filosofía' en un
sentido estricto y profesional es justamente todo lo que hagamos los profesores
de filosofía. Tener un estilo común y un lugar habitual entre los departamentos
académicos, es suficiente para hacer a nuestra disciplina tan identificable y
respetable como cualquier otra".
El examen que hace Rorty de la filosofía analítica culmina en la constatación de
que la imagen actual del filósofo es la del abogado capaz de construir hábiles
argumentos en defensa de una posición para que parezca la mejor, de triturar
mediante un razonamiento inteligente la posición opuesta o de encontrar
precedentes relevantes, y no es ya la del científico, ni la del historiador de las
ideas o la del pensador. La causa de este cambio cultural ha de buscarse en la
carencia de un paradigma de la actividad filosófica que reemplazara al
fracasado programa positivista que aspiraba a proporcionar una
fundamentación científica del conocimiento. El estudiante de filosofía en los
Estados Unidos no se siente involucrado en la solución de los problemas que
afectan al desarrollo de la ciencia ni tampoco en el estudio de las graves
cuestiones culturales y sociales que atañen a la sociedad que le rodea, sino
que simplemente es entrenado —sostiene Rorty— en una mera habilidad
dialéctica.
Esta imagen cuadra bien con el final de la filosofía en cuanto disciplina
académica con unos problemas específicos y unos métodos propios, y su
disolución en la conversación general de la humanidad, pero deja como legado
un agresivo relativismo cultural que se manifiesta en amplias áreas de la
filosofía académica norteamericana.
3.4. Actualidad de la tradición analítica
En estos últimos años no sólo han arreciado las críticas hacia la filosofía
analítica desde muy diversas ópticas, sino que son muchos los que incluso han
expedido el certificado de defunción de este movimiento. Por ejemplo, Juan
José Acero, buen conocedor de la tradición analítica, escribía "la Filosofía
Analítica es ya un movimiento filosófico finalizado y, por tanto, agua pasada.
Las razones por las que pueda hoy instalarse a un filósofo en esa línea
filosófica son muy distintas de las que nos llevan a juzgar a Frege, Russell,
Wittgenstein o Austin como representantes del Análisis". Sin embargo, desde
un punto de vista sociológico la filosofía de cuño analítico sigue siendo la
tradición dominante en el mundo académico de habla inglesa, hasta el punto de
que John Perry hace escasos meses podía hablar en Stanford de "The Many
Deaths of Analytic Philosophy" al mismo tiempo que constataba su buen estado
de salud. Por el momento, haciendo eco a la conocida frase de Gilson, cabe
decir con Putnam que la filosofía —también la de estirpe analítica— acaba
enterrando siempre a sus sepultureros.
Para poder dar una respuesta a la pregunta acerca de la vigencia de la filosofía
analítica en el ámbito de la cultura académica angloamericana sería necesario
poner límites entre qué es filosofía analítica y qué es filosofía a secas. Por una
parte, el examen de los programas de los encuentros anuales de la American
Philosophical Association muestra con claridad que, aun cuando muchas de las
ponencias y comunicaciones tienen un marcado carácter típicamente analítico,
se abordan todo tipo de temas y problemas pertenecientes a las tradiciones
más diversas. Por otra, el congreso celebrado en Southampton en abril de
1999 con el título "The Crisis in Analytic Philosophy" terminaba así su
convocatoria: "El objetivo de este congreso es explorar los diagnósticos acerca
del sentido de crisis en la filosofía analítica y ofrecer pronósticos acerca de las
futuras direcciones de la investigación filosófica: ¿Cuál podría ser el carácter de
una 'filosofía post-analítica'?". La reciente difusión de este marbete "filosofía
post-analítica" para referirse a las últimas inflexiones de la tradición analítica no
facilita tampoco esa delimitación, más aún cuando a lo que se alude es
precisamente a la confluencia de las tradiciones hermenéutica y
fenomenológica en el ámbito de la filosofía angloamericana.
Por lo que se refiere al ámbito académico continental en el que conviven quizá
más pacíficamente la filosofía analítica con otras corrientes de pensamiento, la
creación en 1992 de la Sociedad Europea de Filosofía Analítica para aglutinar
los esfuerzos de los pensadores analíticos europeos, aspira a superar la
división de la filosofía occidental en "analítica" y "continental". Esta división es
inexacta y borrosa en sus límites, pero ha resultado efectiva y operativa en la
vida real. Su origen se encuentra en Moore y Russell y su rechazo del
idealismo a principios del siglo, pero el auge del nazismo y la contienda bélica
subsiguiente consagraron aquella división. Ahora, los intentos de superarla
aportan dos razones para justificar su inadecuación: la primera, una cuestión
fáctica como es la efectiva existencia de filósofos analíticos en el continente y
de filósofos hermeneutas y fenomenólogos en el ámbito angloamericano; la
segunda, el reconocimiento de que los valores de la filosofía analítica son
universales o aspiran a serlo. La filosofía analítica se caracteriza —declara con
solemnidad la presentación de la Sociedad Europea de Filosofía Analítica— por
su afán de claridad, su insistencia en la argumentación explícita y su exigencia
de que toda opinión se someta al rigor de la discusión y evaluación críticas por
parte de los iguales.
Para poder dilucidar esta cuestión de la vigencia o, por el contrario, del
acabamiento de la filosofía analítica resulta indispensable precisar un poco la
situación presente y sus componentes históricos. Por mi parte, estoy
convencido de que asistimos a un declive de la filosofía analítica que puede ser
atribuido a su aplastante triunfo académico en el área angloamericana y a la
estéril escolástica que ha seguido no pocas veces a ese triunfo, junto a una
cierta abdicación de la peculiar responsabilidad que en tiempos precedentes
correspondió siempre al filósofo. Al mismo tiempo, pienso que dentro de ese
declive general se advierten síntomas de una recuperación que adopta
crecientemente un marcado carácter pragmatista, tanto por el redescubrimiento
de la tradición clásica norteamericana como por la inserción de la filosofía en el
ámbito de las humanidades.
Cuando en 1990 Wolfgang Spohn se hizo cargo como editor de la mítica revista
Erkenntnis en su nueva época, se refería a aquellos ocho primeros volúmenes
(1930-1940) en los que se publicaron los trabajos del Círculo de Viena como
"un singular monumento histórico, que marcó una nueva era de entusiasmo y
optimismo en la filosofía", pero setenta años después de la fundación de
Erkenntnis parece difícil mantener aquel entusiasmo y optimismo. Ha habido
cambios fundamentales en la escena analítica, entre los que no es el menos
importante el declinar del empirismo lógico. Además se advierte por doquier
una extraordinaria especialización y ramificación de la discusión filosófica, así
como un distanciamiento respecto de las ciencias. Spohn detectaba incluso
una mayor desintegración en la filosofía analítica que, por ejemplo, diez años
antes. Consideraba este proceso como una consecuencia inevitable de la
diversificación del diálogo filosófico en temas cada vez más especializados,
pero también como una consecuencia del difuso desacuerdo entre los filósofos
analíticos acerca de la viabilidad del tratamiento de los problemas perennes
con métodos formales, entendiendo por estos no sólo la efectiva formalización
lógica, sino cualquier tipo de conceptualización y argumentación rigurosas. A
juicio de Spohn hay pocas razones materiales para tal desacuerdo:
"Algunas respuestas a los problemas filosóficos desarrolladas con un espíritu
ampliamente formal pueden haberse tornado dudosas, o incluso algunas otras
totalmente inadecuadas, pero hay también ejemplos positivos que muestran
que las cuestiones perennes son accesibles con toda profundidad a la claridad
y la precisión, y por tanto que ni los métodos son inútiles ni los problemas
incomprensibles. El proyecto analítico, tal como Reichenbach y Carnap lo
concibieron, no está en un callejón sin salida ni en una encrucijada; es un
empeño prometedor que sigue adelante y que merece todavía optimismo y
entusiasmo y que, si se prosigue con habilidad y tenacidad, producirá una rica
y abundante cosecha".
Sin embargo, muchos filósofos analíticos piensan que la filosofía analítica ha
llegado a su punto final por haber agotado su propio proyecto, y desde fuera de
esta tradición se advierte de manera creciente "una crítica externa a la filosofía
analítica consistente en que sus problemas y soluciones o bien ya no interesan
o bien conducen a callejones sin salida y en que, en cualquiera de ambos
casos, han dejado de tener sentido". Para entender ambas posiciones hay que
tener en cuenta que —siguiendo a Putnam— el 'motor' de la filosofía analítica
era el positivismo lógico, y antes el atomismo lógico. La causa de esto no se
encontraba en que todos los filósofos analíticos fueran positivistas, sino en que
los argumentos en favor o en contra del positivismo eran los que mantenían en
movimiento a la filosofía analítica. Al desaparecer la fuerte corriente ideológica
que estaba en el centro del debate analítico éste se estancó y la filosofía
analítica comenzó a perder forma en cuanto movimiento: ese estancamiento es
lo que muchos han detectado como el final o el acabamiento de la filosofía
analítica.
La filosofía analítica se entiende mejor si se la inserta como parte del fenómeno
más amplio de la modernidad. Lo que la filosofía analítica tenía en común con
el modernismo de los años treinta era especialmente la forma extrema de
rechazo de la tradición tan característica del modernismo en sus comienzos, y
que todavía pervive ocasionalmente en el lenguaje de los filósofos analíticos
contemporáneos cuando hablan de un enemigo llamado la "filosofía
tradicional". El modernismo no era un movimiento unificado, pero las tensiones
y conflictos de la filosofía analítica reflejan las tensiones y conflictos del
modernismo en general. Por eso, así como asistimos a un postmodernismo en
las artes, resulta razonable pensar en un postmodernismo en filosofía que —a
juicio de Putnam— "no tendrá la forma ni del cientismo ni del quietismo
wittgensteiniano, pues tanto el cientismo como el quietismo son un peligro para
la filosofía, como lo son para la vida del espíritu en general".
A mi modo de ver, la filosofía analítica postmoderna guardará relación con
aquella idea kantiana del filósofo como un cierto ideal de maestro, que busca
promover los fines esenciales de la humanidad. Aquel ideal lleva a concebir la
filosofía como una forma de vida más que como una disciplina técnica y está
relacionada con la idea de la responsabilidad de la filosofía y del filósofo en su
actividad profesional. La recuperación de este sentido de responsabilidad en
algunos de los representantes de la filosofía analítica es quizá la mejor
reacción a la crítica frecuente de que la filosofía analítica ha limitado sus
aspiraciones y se ha encerrado escolásticamente en una serie de polémicas
especializadas que resultan a fin de cuentas irrelevantes para la vida de las
personas concretas:
"Quizá lo más importante que trato de defender —explicaba Putnam— sea la
idea de que los aspectos teóricos y prácticos de la filosofía dependen unos de
otros. Dewey escribió en Reconstruction in Philosophy que 'la filosofía se
recupera a sí misma cuando cesa de ser un recurso para ocuparse de los
problemas de los filósofos y se convierte en un método, cultivado por filósofos,
para ocuparse de los problemas de los hombres'. Pienso que los problemas de
los filósofos y los problemas de los hombres y las mujeres están conectados, y
que es parte de la tarea de una filosofía responsable extraer la conexión"69.
Con toda seguridad, una de las causas del declive de la filosofía analítica se
encuentra en el hecho de que siempre se concibió a sí misma como una
filosofía fragmentaria, renunciando —o diciendo que renunciaba— al sueño de
una concepción integrada que era precisamente lo más característico de la
llamada filosofía continental. Realmente esto no era más que una pretensión,
pues tanto los positivistas lógicos del Círculo de Viena como sus herederos
americanos —Quine, por ejemplo— presentaron una concepción muy integrada
de su trabajo y de su orientación general. Tal como veo yo las cosas, la
tradición analítica en el final del siglo XX se regenera y toma nuevo vigor al
tratar de insertar la reflexión filosófica en los problemas de los hombres,
acortando así la enorme distancia existente entre la filosofía como disciplina
académica y las más profundas aspiraciones de los seres humanos.
3.5. La transformación pragmatista de la filosofía analítica
El pragmatismo ha sido considerado habitualmente como una peculiar tradición
americana, muy alejada de las corrientes de pensamiento que constituyen el
centro de la reflexión filosófica occidental. Entre los filósofos europeos se le
considera como un "modo americano" de abordar los problemas del
conocimiento y la verdad, pero, en última instancia, como algo más bien ajeno
a la discusión general. Como señaló Rorty, aunque los filósofos en Europa
estudien a Quine y a Davidson "tienden a quitar importancia a la sugerencia de
que estos filósofos actuales compartan unas mismas perspectivas básicas con
los filósofos americanos que escribieron antes del denominado giro lingüístico".
Sin embargo, entre las causas que dan razón del éxito del trasplante del
Círculo de Viena a los Estados Unidos ha de asignarse un papel decisivo a la
base común que la orientación pragmatista general de la filosofía académica
americana había asentado en las décadas precedentes. Con escasas
excepciones, esta profunda afinidad entre la filosofía analítica y la tradición
pragmatista ha sido pasada por alto, pero no sólo eran comunes muchos de
sus temas e ideas básicos, sino que ambos movimientos compartían en líneas
generales unos objetivos similares y tenían opiniones parecidas acerca de las
relaciones entre ciencia y filosofía y acerca de cómo debía llevarse a cabo el
trabajo filosófico.
De una manera creciente en los últimos años se ha tratado de comprender el
pragmatismo y la filosofía analítica como dos aspectos diferentes de una
misma actitud filosófica general. Una fuente clave para el desarrollo de un
estudio integrado de ambas corrientes se encuentra en Charles S. Peirce
(1839-1914), el fundador del pragmatismo, que Karl-Otto Apel caracterizó como
la piedra miliar de la transformación de la filosofía trascendental en filosofía
analítica angloamericana contemporánea. En este proceso retrospectivo,
puede reconocerse incluso una tradición continuada en el pensamiento
americano, que tiene sus raíces en la obra de Peirce, James y Dewey y que
florece en Quine, Putnam y Rorty. Pero quizá lo más llamativo es que en la
última década —como ha señalado Bernstein brillantemente— asistimos a un
resurgimiento del pragmatismo en amplios estratos de nuestra cultura.
Con toda seguridad las causas de este proceso de resurgimiento del
pragmatismo son muchas, pero me gusta destacar, frente a la tesis del
agotamiento de la filosofía analítica —diagnosticada en particular por los
deconstruccionistas y por los defensores postmodernos del pensamiento
débil—, que en el seno de la tradición analítica se está produciendo una
profunda renovación de signo pragmatista. En lugar de considerar al
movimiento analítico como una abrupta ruptura con el pragmatismo, el
resurgimiento más reciente del pragmatismo parece avalar, por el contrario,
una profunda continuidad entre ambos movimientos: el último puede
entenderse como un refinamiento, como un genuino desarrollo del movimiento
precedente. Así el redescubrimiento del pragmatismo en el seno de la más
reciente filosofía analítica angloamericana puede ser entendido como señal de
una radical renovación.
Frente a las dicotomías simplistas entre hechos y valores, entre hechos y
teorías, entre hechos e interpretaciones, la aproximación pragmatista sostiene
la interpenetración de todas esas conceptualizaciones con nuestros objetivos y
nuestras prácticas. Aun a riesgo de ser descalificada como "pensamiento
blando" desde los cuarteles del cientismo o de la ortodoxia analítica, la
aproximación pragmatista avala un acercamiento del pensamiento a la vida, de
forma que el rigor del pensamiento gane la hondura, la relevancia humana que
es condición indispensable de fecundidad. Por esto, la renovación pragmatista
de la filosofía analítica avala el pluralismo, pero rechaza el relativismo
comúnmente asociado con el "pragmatismo vulgar" de Richard Rorty. Con esto
lo que se quiere decir es que la imagen rortyana del final de la filosofía no es la
única descripción posible en nuestra cultura de la postmodernidad. El giro
pragmatista de la filosofía analítica es probablemente capaz de hacer frente
tanto a ese relativismo escéptico como a aquellas acusaciones de
escolasticismo estéril, pues recupera tanto la aspiración a una visión integral de
la realidad como la comprensión del carácter esencialmente comunicativo y
conversacional del lenguaje.
4. Resultados para el nuevo milenio
El extraordinario atractivo que el positivismo lógico del Círculo de Viena ha
ejercido —y en cierto modo sigue todavía ejerciendo— en la filosofía y en toda
la cultura occidental se debe, en buena medida, a que prometía resolver los
problemas filosóficos construyendo una imagen más científica del mundo. A
estas alturas del siglo XX el proyecto del positivismo lógico ha naufragado, pero
ha dejado como legado una manera de entender la filosofía y la actividad
misma del filósofo como la del pensador que mediante su reflexión —en
estrecho contacto con los resultados más avanzados de las ciencias
positivas— anticipa cómo la ciencia resolverá nuestros problemas filosóficos.
Se trata de un "pancientismo" ingenuo que piensa que el progreso de la ciencia
acabará resolviendo finalmente todos los problemas, que en los últimos años
se manifiesta particularmente en "la avalancha de libros sobre 'Inteligencia
Artificial' y 'Ciencia Cognitiva' que llegan todos los días de ultramar" —ha
escrito Alejandro Llano— cuyo "contenido, además de ser frecuentemente
dogmático, también es no pocas veces trivial".
En este sentido, puede afirmarse que la filosofía analítica es la filosofía de una
era marcada ante todo por la ciencia y la técnica y, por eso, en una perspectiva
más amplia es una genuina heredera de la Ilustración. Cuando en la segunda
mitad de este siglo la filosofía analítica se institucionalizó en el ámbito
angloamericano, adoptó los rasgos típicos de una corriente filosófica
académica, perdiendo su perfil revolucionario y encerrándose muchas veces en
una estéril escolástica. Pero en las dos últimas décadas del siglo ha cambiado
el clima intelectual de la época, y la ciencia y la técnica se han tornado
problemáticas por sus repercusiones en las vidas de los seres humanos78.
Algunos filósofos de la tradición analítica han reconocido abiertamente el
peligro del cientismo y han volcado decididamente su atención hacia todas las
dimensiones de lo humano, apelando a la mejor herencia de Wittgenstein y de
la tradición pragmatista y abriéndose a la denominada filosofía continental.
En este proceso el filósofo de Harvard Hilary Putnam ocupa un puesto muy
singular. En cierta medida en su biografía intelectual —como escribió
Stegmüller— compendia buena parte de la historia de la filosofía de nuestro
siglo. Por esta razón ha sido el autor más veces citado a lo largo de este
trabajo y querría cerrar mi exposición con unas declaraciones suyo respecto al
futuro de la filosofía analítica bajo el título Should Analytic Philosophy Continue:
"Si 'filosofía analítica' significa simplemente una filosofía que esté informada por
un conocimiento de la ciencia, un conocimiento de los logros de la lógica
moderna y un conocimiento de las grandes obras de los filósofos analíticos
pasados desde Russell, Frege, Reichenbach y Carnap hasta el presente, con
seguridad no estoy pidiendo su terminación. Lo que me preocupa son
determinadas tendencias de la filosofía analítica —la tendencia al cientismo, la
tendencia a 'utilizar' la historia de la filosofía, el rechazo a oír otros tipos de
filosofía—, pero luchar contra estas tendencias no es lo mismo que luchar
contra la filosofía analítica. Como filósofo cuyos escritos están llenos de
referencias a Frege, Russell, Wittgenstein, Quine, Davidson, Kripke, David
Lewis y otros, me considero a mí mismo en ese sentido un 'filósofo analítico'.
Pero, para mencionar una última tendencia que desapruebo, me parece una
mala cosa la tendencia a considerar la filosofía analítica como un 'movimiento'
(tendencia que ha llevado a la creación de nuevas —y excluyentes—
asociaciones de filósofos analíticos en varios países europeos). Desde mi
punto de vista, la única función legítima de los 'movimientos' en filosofía es la
de ganar la atención y el reconocimiento en favor de ideas que no han sido
todavía recibidas o que han sido desatendidas o marginalizadas. La filosofía
analítica lleva mucho tiempo y es con seguridad una de las corrientes
dominantes en la filosofía mundial. No es necesario convertirla en un
movimiento y eso sólo preserva los rasgos que lamento. Así como podemos
aprender de Kant sin llamarnos a nosotros mismos kantianos, y de James y de
Dewey sin llamarnos pragmatistas, y de Wittgenstein sin llamarnos
wittgensteinianos, de la misma manera podemos aprender de Frege, Russell,
Carnap, Quine y Davidson sin llamarnos a nosotros mismos 'filósofos
analíticos'. ¿Por qué no ser simplemente 'filósofos' sin adjetivo alguno?".
Estas palabras de Hilary Putnam permiten poner punto final a la apretada
exposición histórico-crítica del neopositivismo y la filosofía analítica a lo largo
de nuestro siglo desarrollada en estas páginas. Sólo resta ya extraer algunas
conclusiones, algunos resultados, que sean por así decir los mejores frutos que
esta tradición ofrece para la filosofía del nuevo milenio. La mayor parte de ellos
han sido explicados ya en las páginas precedentes, por lo que ahora
simplemente se enuncian con una brevísima descripción. A juicio de quien
escribe este trabajo, puede considerarse que los cinco resultados más
fructíferos de este siglo de neopositivismo y filosofía analítica son los
siguientes:
1. Atención a la experiencia y a los resultados de las ciencias naturales
Frente a otras corrientes, la filosofía analítica defiende con el realismo clásico
que nuestro conocimiento comienza siempre con la experiencia. El trabajo
filosófico se torna especulación estéril si no se atiene en primer lugar a la
experiencia y, por tanto, a los mejores resultados de las ciencias naturales a las
que aporta su capacidad de discernimiento crítico.
La capacidad teórica típica del trabajo filosófico requiere el permanente
contraste con la experiencia disponible, de forma que teoría y experiencia se
potencien mutuamente para lograr progresar en la comprensión de los
problemas que suscitan la atención del filósofo y en algunas ocasiones en su
efectiva solución.
2. Defensa de la claridad lógica, de la argumentación explícita y del
sometimiento de la propia opinión a la crítica de los iguales
El fruto más conocido de la tradición analítica es el papel central asignado en la
formación filosófica a la lógica y a la filosofía del lenguaje, que han visto en
nuestro siglo el mayor desarrollo de su historia. Además, frente a la imagen
cartesiana del pensador solitario, la filosofía analítica encarece la necesidad de
argumentar explícitamente la propia posición, presentando las razones y los
datos que la avalan, para someterla al escrutinio de los iguales. Esta manera
científica de hacer filosofía destaca el carácter cooperativo y discursivo de la
búsqueda de la verdad: la confrontación con la evidencia empírica y con las
opiniones opuestas son la mejor garantía disponible para el acierto en el
trabajo filosófico.
Frente a los excesos del formalismo, conviene recordar con Kripke que "no ha
de suponerse que el formalismo pueda producir resultados filosóficos de tipo
superior a la capacidad del razonamiento filosófico ordinario. No hay un
sustituto matemático para la filosofía".
3. Denuncia del cientismo e inserción de la filosofía en el ámbito de las
humanidades
La tradición analítica ha renunciado al programa del positivismo lógico que
encuadraba la filosofía junto con las ciencias, pasando ahora a insertar la
filosofía entre los saberes humanísticos. La autoridad de la filosofía no radica
en otorgar un fundamento al conocimiento científico, sino que ha de ganársela
línea a línea: "Si estoy de acuerdo en algo con Derrida —afirma Putnam— es
en esto: que la filosofía es escritura, y que debe aprender ahora a ser una
escritura cuya autoridad ha de conquistarse siempre de nuevo, porque no la
tiene heredada o regalada por ser filosofía".
La filosofía analítica puso en sus primeras décadas gran empeño en reprimir
sus diferencias respecto de la ciencia para no parecer una disciplina
humanística, sino más bien algo así como una ampliación de la ciencia o una
explicación del conocimiento científico. La insistencia ahora en su carácter
humanístico implica que la filosofía ha de plantearse de nuevo la pregunta
acerca de cuáles son sus aspiraciones y cuál es la mejor manera de
alcanzarlas. En este sentido, la autoridad de la filosofía analítica para el nuevo
siglo pende muy probablemente de que sus proponentes logren aunar en un
mismo campo de actividad intelectual el rigor lógico y la relevancia humana,
que durante décadas constituyeron los rasgos distintivos de dos modos
opuestos de concebir la filosofía. Articular el rigor de la filosofía académica con
los más profundos anhelos de los seres humanos viene a ser lograr una
genuina "forma de vida" filosófica en el sentido wittgensteiniano.
4. Necesidad de una comprensión histórica de la filosofía y de la propia
evolución del movimiento analítico
La inserción de la filosofía entre las humanidades entraña una comprensión
histórica de la propia disciplina que la distancia del paradigma científico
dominante en las décadas precedentes. En las últimas décadas la tradición
analítica ha descubierto que la comprensión en filosofía es esencialmente
histórica y sus componentes han comenzado a considerar la historia del propio
movimiento analítico en el contexto de la historia general de la filosofía83.
De esta manera el estudio de los aciertos y los errores de esta corriente y de su
inserción en la tradición general de la filosofía alimenta el florecimiento de la
racionalidad humana, al tiempo que lleva a descartar las formas postmodernas
del escepticismo.
5. Defensa del pluralismo y afán de integración
Frente a la acusación de relativismo que una comprensión histórica de la
filosofía puede suscitar, la renovación pragmatista de la filosofía analítica alza
la bandera del pluralismo como vía para ganar en la cabal comprensión de los
problemas. Como la realidad es multilateral, como tiene una ilimitada
multiplicidad de aspectos, la verdad no puede ser agotada por ningún
conocimiento humano, sino que queda siempre abierta a nuevas
formulaciones.
La defensa del pluralismo no implica una renuncia a la verdad o su
subordinación a un perspectivismo culturalista. Al contrario, el pluralismo
estriba no sólo en afirmar que hay diversas maneras de pensar acerca de las
cosas, sino además en sostener que entre ellas hay —en expresión de Stanley
Cavell— maneras mejores y peores, y que mediante el contraste con la
experiencia y el diálogo racional somos capaces de reconocer la superioridad
de un parecer sobre otro. El pluralismo no relativista sostiene que la búsqueda
de la verdad es enriquecedora, porque la verdad es perfeccionamiento
(Putnam). Por el contrario, la posición relativista que afirma que sólo hay
diálogo, que sólo hay diversidad de perspectivas radicalmente
inconmensurables (Rorty), no solo se autorrefuta en la propia formulación, sino
que sacrifica la noción de humanidad al negar la capacidad de
perfeccionamiento real y de progreso humano.
Este es el foco actual del debate en el seno de la filosofía analítica. No
sabemos cuál será el resultado. El deseo de integración ha sido siempre
central en la reflexión filosófica; sin embargo, hay que ser conscientes de que
todos los intentos de integración excesivamente ambiciosos se han colapsado.
Entre los últimos intentos, los fracasos más clamorosos —escribe Putnam—
han sido el del "realismo científico" en la cultura norteamericana y el de la
dialéctica marxista en el continente europeo: "Como filósofos nos encontramos
atrapados entre nuestros deseos de integración y nuestro reconocimiento de la
dificultad. No sé cuál será la solución de esta tensión"
1.3
El problema de la aplicabilidad del método de las ciencias
naturales en ciencias humanas y sociales
En las ciencias humanas y sociales se han utilizado de forma profusa términos
que han sido acuñados desde el tratamiento de las ciencias naturales y de la
Física como ciencia natural por excelencia. La economía no ha sido ajena a
este tratamiento, por ende la contabilidad como disciplina científico-económica
en su afán por adquirir un grado de rigor científico, ha utilizado de forma prolija
en la construcción y reconstrucción de su estructura conceptual los elementos
que han permitido el avance teórico de las ciencias naturales.
Así, se aborda el estudio de las teorías contables que han utilizado para su
elaboración las teorías de Popper, y en su evolución o crítica han abordado de
igual forma criterios que hacen referencia a Tomas Samuel Kuhn, Imre Lakatos
y Paúl Feyerabend. Entendiendo las construcciones de estos autores
desarrolladas en dialogo continuo, que permite descubrir un problema central
común pero con soluciones lógicas en el primero, histórico-sociológicas en el
segundo, histórico-logicismo en el tercero y pluralistas metodológicas en el
tercero.
Epistemología y contabilidad
Si en el estudio de la contabilidad se utilizan instrumentos propios de las
ciencias naturales, se podría estar frente a tres elementos que permitirían o no
tal transferencia:
- El primero que la contabilidad no sea una ciencia y por ende este utilizando
un lenguaje propio de otra categoría del saber.
- El segundo que la contabilidad es una ciencia, pero estaría clasificada en las
ciencias sociales, en este sentido estaría utilizando para una ciencia un
instrumental propio de un conocimiento con características diametralmente
opuestas.
- Una tercera opción es que la contabilidad es una ciencia social, y permite la
utilización del instrumental metodológico que utiliza la ciencia natural, porque el
método no es propio de la ciencia natural, sino de todas las ciencias, lo que se
puede denominar un monismo metodológico.
Para ampliar los elementos de juicio, se presenta unas consideraciones
específicas en cuanto a los términos. Karl Popper en su obra “la lógica de la
investigación científica” publicada originalmente en Viena en 1934. aborda el
problema de la demarcación y el problema de la inducción; estas
consideraciones y las posteriores del autor permiten calificar su teoría como un
“racionalismo crítico”
Considera Popper “el hombre de ciencia ya sea teórico o experimental,
propone enunciados y los contrasta paso a paso”; se opone radicalmente a los
“métodos inductivos”, entendido como “inferencia que pasa de enunciados
singulares –observaciones y experimentos- a enunciados universales –
hipótesis o teorías-“, esta crítica es tratada con elementos que ya había
formulado David Hume conocido como el “problema de la inducción”.
Hume arguye “incluso después de observar que se da frecuentemente una
conjunción constante de objetos, carecemos de razones para extraer inferencia
alguna acerca de ningún objeto que trascienda aquellos de los que hemos
tenido experiencia”, “¿por qué a partir de dicha experiencia formamos
conclusión alguna que vaya más allá de los casos de que hemos tenido
experiencia?”.
Kant intento resolver el “problema de la inducción” (Popper, 1982, p.29), a
través de lo que él llamaba el “principio de causación universal”, era “valido a
priori”, pero Popper concluye que “no tuvo éxito en su ingeniosa tentativa”. La
solución Kantiana la desarrolla en “la crítica de la razón pura y prolegómenos a
toda metafísica del porvenir”.
Popper se opone a todo tipo de inducción, aún a la probabilística, que plantea
que las teorías (Lakatos, 1983, p.12) “pueden alcanzar cierto grado de
seguridad o de probabilidad”, pues dice” que la probabilidad matemática de
todas las teorías científicas o deudo-científicas, para cualquier magnitud de
evidencia es cero”.
En el apéndice “probabilidad nula y estructura fina de la probabilidad y del
contenido, (Popper, 1982a, pp. 338-351), sostiene que y desarrolla “la teoría
probabilística de la inducción – o idea de una probabilidad inductiva es
insostenible”.
Frente a la inducción, Popper propone “la teoría del método deductivo de
contrastar” – método que surge fruto de un problema que formuló en los
siguientes términos “yo quería distinguir entre la ciencia y la seudo-ciencia,
sabiendo muy bien que la ciencia a menudo se equivoca y que la seudo-ciencia
a veces da con la verdad”.
El camino de contrastación es presentado en cuatro etapas, (Popper, 1982, p.
32) “podemos distinguir cuatro procedimientos de llevar a cabo la contrastación
de una teoría: la comparación lógica de las conclusiones unas con otras...,
estudio lógico de la teoría..., comparación con otras teorías... y contrastar por
medio de la aplicación empírica de las conclusiones que pueden deducirse de
ella”
Bajo estos criterios, los contables han utilizado el leguaje de Popper para
desarrollo de teorías en la contabilidad; el profesor Richard Mattessich ha
presentado la propuesta de la Teoría General Contable como el marco
universal de orientación conceptual de los diferentes sistemas contables
existentes, esta Teoría General, es validada a partir de un criterio de
falsacionismo popperiano en sentido clásico, mientras que las interpretaciones
de esta Teoría General tendrá una validación de carácter teleológico, es decir
en función utilitarista. (¿Qué pertinencia tiene la aplicación de este criterio?)
El profesor Tua Pereda señala “los supuestos básicos de la teoría general son
proposiciones eminentemente positivas, cuyo origen es la búsqueda de puntos
comunes entre los diferentes sistemas contables en presencia y el medio que
operan... la comprobación de una teoría general de la contabilidad tiene que
estar invariablemente unida a proposiciones específicas que rigen sistemas
contables particulares; utilizando el criterio popperiano de la falsación o
verificación negativa”.
Tua haciendo cita de Mattessich indica “en la práctica real pueden encontrarse
sistemas distintos a los caracterizados en la teoría general, los cuales,
evidentemente constituyen una refutación potencial. Si estos sistemas
defectuosos cumplieran sus propósitos correctamente, constituirían una
refutación de nuestra teoría, pero si no es así, lo único que queda claro es su
exclusión de la anterior teoría”...
Bajo este criterio se evidencian las consecuencias de la transferencia de
instrumental de una ciencia – la física- a una disciplina –la contabilidad-,
cuando esta última tiene consideración muy particulares, (Tua, 1983, 605) “el
carácter universal de las leyes nomológicas ha de ser entendido en términos
relativos en la contabilidad, una ley contable o mejor una asunción contable, es
universal en tanto cumple en todos los sistemas contables, pero al ser estos
mutables, la ley universal está sujeta a cambio”.
Evaluemos el tema de la demarcación, abordado también por Popper en “La
lógica de la investigación científica”, “el problema de la demacración consiste
en encontrar un criterio que nos permita distinguir entre ciencias empíricas y
sistemas metafísicos”, el problema de la demarcación es esencial y como
afirma Lakatos “tiene serias implicaciones éticas y políticas”
Pero qué es para Popper la ciencia y qué determina el rigor científico de las
teorías, el criterio propuesto por este autor es el de la falsabilidad de los
sistemas, apuntando que las teorías no son nunca verificadas empíricamente,
por el contrario el sistema científico se caracteriza por que “ha de ser posible
refutar por la experiencia un sistema un sistema científico empírico”.
Para poder aplicar la falsación debe de tenerse un conjunto de enunciados
singulares, que sirvan de premisas en las inferencias falsadoras; El contable
José María Requena en su libro “Epistemología de la contabilidad como teoría
científica” en referencia a los “enunciados singulares” dice “... obtendremos dos
subclases no vacías: la que incluye el conjunto de los enunciados que la
referida teoría excluye o prohíbe y el conjunto de los que no se hallan en
contradicción con la misma”
El problema de la base empírica concierne al carácter empírico de enunciados
singulares y a su contrastación; en las ciencias naturales, este problema ha
generado gran discusión, encontrando sólo respuestas provisionales, es decir
paradigmas en el sentido de Kuhn, en la acepción más sociológica del término.
Si se presenta ésta discusión sin solución única en las llamadas ciencias duras,
con mayor énfasis se presentarán alternativas múltiples de solución a la
justificación de la base empírica en las ciencias sociales, pues como dice Kuhn
“me asombré el número y el alcance de los desacuerdos patentes entre los
científicos sociales, sobre la naturaleza de problemas y métodos científicos
aceptados”
En contabilidad la posibilidad de aprehensión de conceptos propios, a través
del lenguaje de la epistémico-metodológica de las ciencias sociales es
altamente inapropiada. En la base empírica la referencia a la “percepción
sensorial” como alternativa de solución no da una salida concluyente; pues los
contables no tratan de determinar “si esta mesa es roja o azul”, sino que
intentan determinar el “valor” de la misma. Concepto de “valor” que genera una
disimilitud de apreciaciones en la determinación cuantitativa específica del valor
de un bien y/o servicio, con las técnicas utilizadas y permitidas dentro de la
contabilidad para calcularlo, además del mayúsculo problema de la orientación
que desde la economía se adopte de este término “valor”, si es que la
contabilidad no llega a contar con su propia orientación.
Para Popper la solución del problema de la base empírica, no está en la
“percepción sensorial” –para la contabilidad tampoco-, ni en la regresión
infinita, de justificación de enunciados a través de enunciados, ni en el
psicologismo, donde los enunciados se justifican por enunciados y por
experiencia perceptiva. En contabilidad se aproximan a este concepto de
rechazo de las justificaciones no aceptadas por Popper, enfocado en la
construcción de Mattessich donde se comparte el teorema de incompletitud de
Goëdel, por tornarse hacia el infinito.
En ese sentido el racionalismo crítico propone las características que los
enunciados básicos deben satisfacer: (Popper, 1982, p.96)
1. No se podrá deducir enunciado básico alguno a partir de un enunciado
universal no acompañado de condiciones iniciales.
2. Un enunciado universal y un enunciado básico han de poder contradecirse
mutuamente.
Un enunciado básico tiene la forma de un enunciado existencial singular como
“hay un cuervo en la región espacio temporal K”. El elemento al que se refiere
el enunciado básico ha de ser “observable”, es decir, contrastable
intersubjetivamente por “observación”.
En Contabilidad la formulación de las premisas básicas formuladas por
Mattessich en los veintiún asunciones, están referidas a fenómenos empíricos,
en ese sentido son contrastables con la realidad; Entendiendo que si existe un
sistema contable con características diferentes a las formuladas en la Teoría
General polivalente y que cumple satisfactoriamente los objetivos del sistema,
es un sistema que cumple las funciones de un enunciado falsador. Esta
orientación hace énfasis a los objetivos para los cuales fue diseñado un
sistema contable, consideración no compatible con Popper, donde el “hecho
crucial” es un elemento del conjunto no vacío de enunciados falsadores, que se
contrastan con la realidad empírica objetivizada por la no-intervención subjetiva
del investigador y no un criterio de validación teleológica, como el sistema
contable.
Tua en el acápite de Epistemología y Principios contables (Tua, 1983, pp. 637634), “la epistemología contable presenta unas peculiaridades específicas
derivadas del objeto material de la misma... hay que insistir una vez más en la
distinción entre los dos planos posibles de la epistemología contable: las
vertientes cognoscitiva y deóntica”, es decir Tua reconoce para la contabilidad
una estructura positiva y una teleológica, reconociendo la derivación de
principios desde la teoría general como una orientación teleológica y olvidando
que la teoría general, se construye sobre la base de unas características
comunes y universales a los sistemas contables, con justificación en su utilidad
técnica y metodológica y no por referencia a una realidad existente de forma
aséptica, donde el hombre es un simple observador cómo calificaría el
positivismo el conocimiento como tal.
El traslado de herramientas propias de las ciencias duras, a otros tipos de
conocimientos, como es el caso de la economía y la contabilidad no las hace
unas ciencias duras, muy por el contrario, obstaculiza su desarrollo y no les
permite el cumplimiento de objetivos específicos –razón de su existencia- peor
aun cuando pretenden seguir el camino de la neutralidad de las ciencias
naturales en su estadio más abstracto, abandonando por completo las
exigencias que la sociedad hace y debe hacer a los conocimientos que tienen
la función clara y determinada de responder a los problemas que se plantean a
diario y en condiciones singulares y regionales y no en generalizaciones
universalistas, trabajo propio de la ciencia, para los deterministas, defensores
de lo absoluto.
En la falsación el proceso debe aceptar un enunciado básico, como punto de
partida, la defensa de este acuerdo Intersubjetivo por parte de los científicos es
una respuesta no lógica en sentido riguroso que ofrece Popper al problema al
problema de la justificación de los enunciados, tal como él mismo lo reconoce
“es un tipo de dogmatismo inocuo”.
La preferencia de una teoría obedece a la capacidad de competencia de las
existentes, “la que por selección natural muestra ser más apta para sobrevivir”,
además afirma (Popper, 1982, 104) “la elección viene determinada, en parte,
por consideraciones de utilidad”; éste último criterio permitiría un acercamiento
con el conocimiento económico-contable, donde la referencia a la verdad es
desplazada por la preferencia hacia las teorías más útiles.
Si se comparte este principio convencionalista las hipótesis instrumentales de
la contabilidad, entendidas como macro-reglas para la acción, siguen un
método científico en su criterio de validación teleológica, en la contrastación del
cumplimiento de los objetivos, para la cual es aplicada; además su inferencia
obedece a una estructura lógica, en la derivación de enunciados de más bajo
nivel, a partir de un itinerario lógico deductivo en la construcción de principios
contables.
Lo que Popper pretende es alcanzar un alto grado de “objetividad”, el término
objetivo y subjetivo de utilizado por éste racionalista crítico con una acepción
muy cercana al utilizado por Kant; pero difiere en el criterio de certeza diferente
que ambos manejan, es decir mientras Kant cree en la posibilidad de la ciencia
absoluta y verificable completamente –inspirado en la ciencia de Newton-,
Popper es un defensor del provisionalismo teórico y en la verificación negativa
con la utilización del Tollendo Tollens: “la negación del consecuente es la
negación del antecedente”; y concluye en que “la objetividad de los enunciados
científicos descansa en el hecho que pueden ser contrastados
intersubjetivamente”. Llegando a la siguiente conclusión “los sistemas teóricos
se contrastan deduciendo de ellos enunciados de un nivel más bajo”.
En esta línea Mattessich resume la validación para las proposiciones contables
en tres puntos (Tua, 1995, 350).
1. Las proposiciones de alto grado de abstracción, correspondientes a la teoría
general contable, se verifican en relación con la gama completa de los sistemas
que emplean la doble clasificación.
2. Las proposiciones del más bajo grado de abstracción, las últimas hipótesis
específicas de cada sistema contable, deben verificarse asegurando la utilidad
neta positiva en relación con los objetivos perseguidos y no menor que la
utilidad neta de la mejor alternativa no elegida.
3. Cada proposición de los niveles intermedios de abstracción debe estar en
conformidad, por un lado, con la proposición superior más próxima y por otro,
con todas las proposiciones inferiores que se deriven dela misma.
Esta orientación de Mattessich con respecto a la doble validación en la
contabilidad (cognoscitiva y teleológica), es particular de las ciencias aplicadas.
Además advierte el profesor Romero[9] en el acápite “es científica la teoría
contable”, “para que una teoría se considere científica debe reunir una serie de
requisitos mínimos y antes de eso se constituye como una sistematización de
leyes o fórmulas legaliformes, mediante la cual se puede prever
acontecimientos... esta concepción de teorías queda descartada para la
contabilidad, primero porque es formulada para las ciencias factuales, las que
estudian hechos, y la contabilidad no se ocupa de hechos”.
La propuesta de Durkheim –en desarrollo de la idea de Augusto Comte de
aplicar el positivismo al análisis de los hechos sociales- es una potencial
respuesta a Romero León, propuesta que consiste en: entender que las cosas
sociales cobran realidad sólo a través de los hombres, son un producto de la
realidad humana y su estudio exige, tal como lo formularon Bacon y Descartes,
prescindir de todo tipo de ídolos y nociones preliminares, que nos entrega el
sentido el común, para abordar el hecho social como una cosa que es para
nosotros totalmente desconocido; se formula así la regla de la “ignorancia
metódica” y el necesario criterio para “desechar sistemáticamente todas las
prenociones”en buena medida tomando como fuente la consideración de
Descartes.
Descartes formula en esta dirección la primera regla del método “el primero
consistía en no recibir nunca cosa alguna como verdadera que yo no conociese
evidentemente como tal; es decir evitar cuidadosamente la precipitación y la
prevención; y en no incluir en mis juicios nada más que aquello que se
presentase a mi espíritu tan clara y tan distintamente, que no tuviese ocasión
alguna de ponerlo en duda”
Formula Durkheim que “los hechos sociales se deben tratar como cosas”, “todo
objeto de la ciencia es una cosa, salvo, acaso, los objetos matemáticos”, es en
este sentido que reconoce que su método no tiene nada de revolucionario y es
esencialmente conservador, además afirma (Mardones, 1991, p.148) “los
hechos sociales son cosas cuya naturaleza, aunque flexible y maleable, de
todos modos no puede modificarse a voluntad”.
El tratamiento que los autores como Mattessich, Cañibano, Tua Pereda,
Requena y Montesinos, entre otros han dado a la contabilidad es el de ciencia,
además coinciden en utilizar la metodología –separada y/o conjuntamente- de
Popper, Kuhn, Lakatos, Laudan, Balzer, Bunge y Stegmüller, como
instrumental para su estudio y validación; lo que exige determinar cuáles son
las teorías de la contabilidad, sus hipótesis y enunciados y criterios de
contrastación.
Mauricio Nieto (Universidad de los Andes, Colombia) dice con respecto al
traslado de este tipo de metodologías: “la propuesta de la filosofía de la ciencia
tradicional del positivismo lógico o los trabajos de Karl Popper y sus criterios
formales y a-históricos, eran inapropiados para describir el desarrollo del
conocimiento científico” y resalta la orientación historicista “la ciencia debe ser
susceptible de un estudio sociológico de idéntica manera que cualquier otro
tipo de conocimiento o cultura” –hace referencia a Kuhn, Lakatos y
Feyerabend-. “La ciencia occidental ha sido tradicionalmente vista como
benevolente, apolítica y neutral; y su extensión como una incuestionable
contribución al progreso material y a la civilidad”, este enjuiciamiento permite
pensar en sí lo más acorde con el conocimiento es su transferencia irreflexiva o
el estudio y la construcción de nuestra propia historia científica –me refiero a
Latinoamérica-; además afirma el Nieto “la ciencia occidental también ha
contribuido al estancamiento de otros”, “la implantación de la ciencia y la
tecnología occidentales pueden también contribuir al despojo de los nativos del
control de sus propios recursos, restándoles poder de forma sistemática”.
Finaliza Nieto “la historia y la filosofía de la ciencia, en demasiadas ocasiones,
han sido un poderoso instrumento para quienes se interesan en legitimar el
presente, quienes quieren ofrecernos un futuro determinado por “fuerzas
históricas inquebrantables”[13], pero es categórico Nieto “no hay razón que nos
impida pensar las cosas diferentes y no estamos obligados a embarcarnos en
una carrera de modernización y competitividad científica cuyas reglas de juego
están determinadas por los intereses de grupos sociales específicos”. Este
análisis crítico de la filosofía y la historia de la ciencia, se podría aplicar casi
textualmente al debate actual del modelo económico único impuesto y
desarrollado en Colombia en la década del noventa y la implementación de las
Normas Internacionales de Contabilidad a partir del 1 de enero de 2005.
No es sólo el método el que da la categoría de ciencia a un conocimiento,
cuando un conocimiento que no tenga el rango de ciencia –de mayor aplicación
el análisis para los conocimientos sociales y humanos- y utiliza los métodos y
herramientas propios de la ciencia natural –ciencias duras-, no sólo no alcanza
su pretendido rango científico, sino que además puede estar alejándose de su
verdadera razón de ser, como para los conocimientos sociales es la resolución
satisfactoria de los problemas concretos de la sociedad; que se pueden
alcanzar con un rigor instrumental, finalista y participativo; mientras las ciencias
naturales tienen un estatuto de neutralidad, objetividad no teleológica.
Con respecto a la ciencia dice (Kant, 1985, p. 29), “si se quiere representar un
conocimiento como ciencia, debe ante todo, poder determinar exactamente lo
diferenciado, lo que en ella no es común a alguna otra y constituye
peculiaridad...” esta afirmación hay que entenderla en el sentido de necesaria,
pero no suficiente.
(Requena, 1981, p.157) da respuesta a este criterio de la contabilidad “es la
ciencia empírica, que con respecto a una unidad económica, nos permite en
todo momento el conocimiento cualitativo y cuantitativo de su realidad
económica con el fin genérico de poner de relieve la situación de dicha unidad
y su evolución en el tiempo”... (Requena, 1981, p.149) “la contabilidad posee
un objeto material común a la economía “la realidad económica”, pero un objeto
formal propio el conocimiento cualitativo y cuantitativo de esta realidad”. Este
concepto se cita como ejemplo de la preocupación por la identificación del
objeto de estudio de la contabilidad, pero al mismo tiempo hay que entenderlo
como reduccionista del radio de acción, función y alcance de la contabilidad.
Se abordó el problema del objeto de estudio de la contabilidad, término que se
transfiere de las ciencias naturales; Popper aborda un problema que dará luces
a la pertinencia de utilización del mencionado término, este análisis se abordó
en su texto “Conocimiento objetivo”, en el capítulo V “el objeto de la ciencia”.
Parte de la afirmación “la propia ciencia carece de metas”, paro acepta que la
actividad científica como racional ha de tener metas, así, “el objeto de la ciencia
consiste en dar explicaciones satisfactorias de todo aquello que nos parece
precisar una explicación” y “explicación es un conjunto de enunciados mediante
los cuales se describe el estado de la cuestión a explicar” y en este sentido se
prefieren “teorías que tengan un contenido cada vez más rico, un grado de
universalidad cada vez más elevado y un grado de precisión cada vez mayor”.
Desarrolla Popper, la tesis de la existencia de sistemas físicos que son
altamente regulares y los sistemas biológicos y sociales que son altamente
irregulares, desordenados –en contraposición al término clásico de orden- y
más o menos imprevisibles. Los sistemas físicos regulares, ordenados y de
comportamiento similar en el tiempo los relaciona con los relojes de predicción
–reloj de péndulo- los sistemas imprevisibles, los relaciona con las nubes.
No indica esta analogía que unos sistemas sean más perfectos y mejores que
otros, sino que muestra dos naturalezas diferentes, que requieren unas
condiciones específicas y particulares de estudio, esta afirmación es contraria a
la línea propuesta por Popper con respecto al monismo metodológico- el
falsacionismo- que no hace distinción metodológica entre un sistema y otro, ni
entre la ciencia natural y las humanas.
(Popper, 1982, 195) “Como ejemplo típico e interesante de nube recurrirá a una
nube o enjambre de moscas o mosquitos. Los mosquitos individuales que
como moléculas de un gas, forman todos un enjambre se mueve de un modo
asombrosamente irregular).
El sistema contable estaría clasificado dentro de la analogía de las nubes; en
su parte científica y cercano a los relojes en su parte técnica. “La contabilidad,
como ciencia encaminada al conocimiento de las unidades económicas es
distinta de la técnica de la contabilidad, pudiendo decir que aquella es a ésta lo
que el pensamiento a la acción. La ciencia es principio, la técnica normas de
aplicación”
Si la ciencia contable tiene como “objeto de estudio formal” “la realidad
económica en cuanto a sus características cualitativas y cuantitativas”, ésta
frente a un objeto dinámico, evolutivo y en constante movimiento, difícilmente
predictible.
Pero el determinismo físico, que formula que “todas las nubes son relojes”,
indicaría que el hecho de que no conozcamos las leyes que rigen ciertos
movimientos aparentemente irregulares, es sólo “un acuerdo de nuestra
ignorancia”, pero que un día podremos llegar a determinar esas regularidades.
En contabilidad aceptan los algunos contables que la técnica tiene el
funcionamiento de un reloj de péndulo, de lo contrario no podrían formular la
ecuación patrimonial A = C + P, Activo es igual a pasivo más patrimonio, esta
es una consecuencia de la aceptación de una teoría del valor y unos criterios
de medición y valoración, que son altamente falibles y de fácil refutación
empírica. Con esto se demuestra que el funcionamiento lineal y preciso es fruto
de acomodar la realidad a la teoría, pero no existe una explicación satisfactoria,
contrastable y contrastada de la realidad, que es la razón de la ciencia.
Como una nube funcionaría en la contabilidad las interpretaciones o
aplicaciones de la teoría general contable que dependen de las condiciones de
los entornos, de los objetivos específicos de los sistemas donde se instalan y
en buena medida de los juicios de valor de quien diseña e implementa el
sistema, en una clara orientación interdisciplinaria, tal como en la misma línea
popperiana con respecto a que los problemas no logran una solución desde
una sola disciplina del conocimiento sino que requieren el concurso activo de
diferentes parcelas del saber.
El físico americano Pierce formuló “todos los relojes son nubes” es decir “sólo
existen nubes”, lo que lo lleva a precisar un determinismo en el conocimiento;
para Compton el indeterminismo físico “resolvía no sólo problemas físicos, sin
también biológicos y filosóficos”. Esta influencia de la física es evidente en las
distintas épocas, para los diferentes autores de filosofía que asumen posición
en el determinismo o el indeterminismo, como lo muestra Kant en su obra, bajo
el predominio de la ciencia clásica de Newton, escribió con criterio de
absolutista sobre ciencia, ética y estética. – es de anotar que este absolutismo
es parcial, pues el noúmeno, permanece incognoscible-.
¿Qué es la contabilidad?, una “ciencia social” –responden algunos autores- y
en este sentido, la ética constituye un fundamento del desarrollo y aun de la
validación de la misma y en la definición de la estructura en la que ha de
sustentar sus bases, aún con la posibilidad de hacer un paralelo de
equivalencia entre hipótesis auxiliares en un programa de investigación
científico –lenguaje de Lakatos- y una hipótesis instrumental en la
interpretación de una teoría general contable con una orientación teleológica.
Para considerar la contabilidad como una ciencia, ésta debe determinar sus
“enunciados” y/o “teoría explicativa”, “enunciados observacionales” o
“enunciados contrastadores” y la “justificación de la pretensión de que una
teoría es verdadera”; pues estos elementos (Popper, 1982b, p.19), resuelve
tentativamente el problema de traducir los términos subjetivos en términos
objetivos; los términos subjetivos o sicológicos eran “creencias” “impresión”,
“justificación de una creencia”.
El problema de la demarcación entre lo que es ciencia y seudo-científico,
incluye el término “experimento crucial”, entendido como el experimento
riguroso que pueda o intente falsar una teoría, a través, de un hecho de un
genuino test falseador; es decir un enunciado singular observable, que lleve a
la falsación de la teoría.
En contabilidad, para cumplir este requisito se debe establecer el número de
teorías aceptadas, (excluyentes e incluyentes- pues en términos kuhnianos,
Hendriksen, hablo de la contabilidad, como disciplina multiparadigmática), al
igual que el conjunto de enunciados singulares falsadores de las teorías
vigentes, rivales o monopólicas.
¿Cómo entender entonces la contabilidad?, el determinismo de los sistemas
físicos, sociales o políticos, es otra variable a tener en cuenta; la economía no
puede entenderse como un sistema cerrado –es posible que no existan
sistemas cerrados-. (Popper, 1982b, p. 204) “por sistema físicamente cerrado
entiendo un conjunto o sistema de entidades físicas como átomos, partículas
elementales, fuerzas físicas o campos de fuerza que interactúan entre sí- y sólo
entre sí- de acuerdo con leyes definidas de interacción que no dejan lugar a
interacciones o interferencias con nada externo a ese conjunto o sistema
cerrado de entidades físicas”.
Si la economía y la contabilidad están analizando un objeto de estudio en un
sistema abierto, cada situación requiere una descripción y una explicación,
independiente; desde esta visión se invalida cualquier intento de universalizar
las condiciones diferentes a partir de la estandarización de técnicas que
busquen dar cuenta de una realidad; es utilizar instrumentos de “relojes” para
abordar “las nubes” en el sentido de sistemas precisos –si existen- y sistemas
caóticos –si existe lo irregular-.
La “doctrina de la necesidad” según la cual “causas semejantes producen
siempre efectos semejantes”, es una doctrina psicológica de seguidores de
Hume, que la reformularon de la siguiente forma: (Popper, 1982b, p. 285)
“nuestras acciones, voliciones, gustos o preferencias son causadas
psicológicamente por experiencias anteriores y en última instancia por nuestra
experiencia y nuestro medio”; esta apreciación final de los seguidores de
Hume, es tan vaga –dice Popper- que es perfectamente compatible con el
indeterminismo físico y no es comparable con determinismo físico.
En continuación de la idea afirma Popper “no todos los acontecimientos del
mundo físico están predeterminados con absoluta precisión en todos sus
detalles infinitesimales”. Este criterio se puede pensar en las ciencias sociales,
aun con mayor posibilidad de percepción, aceptando como lo plantea el
indeterminismo físico que no se pueden negar muchos acontecimientos que
siguen y tienen un grado de regularidad; pero de la aceptación singular y
relativa no se pasa a la aceptación universal y absoluta del determinismo.
La creencia en un determinismo físico y su traslado en la aplicación en las
ciencias sociales, no es un tema, de interés epistemológico exclusivamente,
sino que tiene fuertes implicaciones de carácter social, político y económico.
Pues el intento de buscar objetivos –situaciones ideales- a partir de la
determinación mono-causal o bi-causal o con un reducido número de variables,
que se confía que se comportarán de manera mecánica y absolutamente
precisa, puede llevar a excesos, dogmatismos y consecuencias con altos
costos para la humanidad; -en otra línea aún más rigurosa, se dice, que la
ciencia es neutral y en este sentido no puede buscar objetivos, -un positivismo
puro- aplicado a la economía.La pregunta se puede formular en particular para las ciencias del hombre,
(Popper, 1982b, p. 213) “lo que queremos es comprender de qué modo las
cosas no físicas, como los propósitos, deliberaciones, plantes, decisiones,
teorías, intenciones y valores pueden tomar parte en la introducción de
cambios físicos en el mundo”. Se responde que no es posible explicarlos en
términos absolutos de una teoría física determinista, o una teoría estocástica.
La contabilidad bajo este criterio no puede pensarse como una ciencia
aséptica, libre de juicios de valor e intencionalidades, más cuando su existencia
obedece a los propósitos específicos de las fuerzas que actúan en un mercado
y su técnica está reglamentada y tiende a mayor normalización no ingenua
cada día. -¿cuál es el interés de la Norma Internacional Contable?- y como lo
plante Foucault “cada fuerza tiene un poder de afectar (a otras) y de ser
afectada (por otras)”, esta consideración no justifica la defensa del puro azar,
donde todo y cualquier cosa puede ocurrir, pues no todo y de cualquier forma
emerge.
El método popperiano es el método del ensayo y supresión de errores, que
determina los enunciados a partir de los cuales se falsearán las teorías por
erradas, ¿qué pasa en las ciencias sociales? Que están más orientadas a la
construcción de situaciones ideales, que a la explicación neutral de las
situaciones pasadas. Una vez que el sustento de la explicación está
condicionado por el marco teleológico del modelo posible y provisional con que
cuenta un determinado grupo- varios grupos en lenguaje de Kuhn pueden tener
diferentes lenguajes en diferentes modelos paradigmáticos y no
necesariamente conmensurables-.
La contabilidad en oposición a un positivismo neutral puede ser evaluada
desde un instrumentalismo que evalué teleológicamente las herramientas más
útiles; en ese sentido el pensamiento filosófico lo expresa el profesor Jaramillo
“los instrumentalistas, miraron las teorías científicas de una manera
pragmática, vale decir, como útiles instrumentos de cálculo, al punto de que el
problema de la verdad de las teorías pasó a ser un problema secundario”
Según Popper, ¿qué intencionalidad tiene la ciencia?, (Popper, 1982b, p. 238)
“no partimos de observaciones, sino siempre de problemas... el aumento del
conocimiento va de viejos a nuevos problemas mediante conjuras y
refutaciones”, cita a Darwin y manifiesta “es extraño que hay quien no vea que
toda observación tiene que estar a favor o en contra de algún punto de vista”; lo
que muestra que la observación no es independiente o neutral, por el contrario
está sujeta a unos condicionantes. En las ciencias económicas las
observaciones están determinadas por unas orientaciones teóricas que nos
permiten describir una realidad económico-social; se ha formulado que “todas
las observaciones son teóricas”. –Hanson, desarrolla un concepto al respecto-.
La objetividad va reduciendo su pretensión de neutralidad universal y va
quedando reducida a una cuestión de grado y es posible de convencionalismo
Intersubjetivo entre los miembros de una comunidad científica. Así mismo se
debe entender la observación, Popper se orienta por una observación que está
determinada y supeditada primero a la formulación previa de la hipótesis o
problema y estará supeditada a condicionantes de endógenos y exógenos en la
captura del dato observado.
Se refleja este caso en una situación propia de las ciencias sociales, como es
el análisis de la situación económica de un país; un humanista estudia –el
término observar es más complejo- el nivel de desarrollo de un país X en
Latinoamérica, en los datos de la observación o estudio, estará viendo las
consecuencias nefastas de implementación de un modelo enajenante,
generador de miseria y pobreza.
La misma situación es estudiada por un analista neoliberal, éste encontrará en
los datos observados el cumplimento de las leyes del mercado libre y las
bondades de la competencia, reflejando en los datos la eficacia, la eficiencia y
la derrota de los no competitivos; en una orientación del pensamiento de
Darwin a la ciencia social, en defensa de la supervivencia de los individuos más
aptos para sobrevivir a la competencia del mercado.
La disertación cobra fuerza además desde la sociología del conocimiento
científico, frente a las alternativas múltiples de estudiar el quehacer científico y
su estrecha relación con mecanismos de poder. Así se puede formular que las
teorías universalistas no son las más adecuadas para pensar los hechos
sociales y que estos requieren una orientación cada día más singular; en
contraposición con la característica tan aceptada de la universalidad de la
ciencia; pues cada hecho requiere un análisis individual y único.
1.4 La aproximación pragmática a la racionalidad en ciencia
El paradigma tríadico en el campo de los sistemas jurídicos
La cultura de la humanidad es producto del modo cómo el hombre ha usado su
mente, es decir, cómo ha usado sus procesos mentales a lo largo de la historia.
En cada momento histórico hubo hegemonía de una cultura inherente a un
conjunto de procesos mentales propios. Primero fueron hegemónicos los
procesos prácticos, inherentes a una cultura operativa y pragmática, con
carácter de agresividad y fuerza, adecuado a un “estado de guerra de todos
contra todos”, según el modelo presentado por Hobbes. Conforme a la teoría
de la evolución, esto es lo que sigue ocurriendo entre los animales de la selva.
Ultrapasada esa cultura de la guerra, emergieron los procesos creadores de lo
sagrado con sus doctrinas civilizadoras, sus corolarios morales, mandamientos
y códigos sagrados. Por otra parte, con la ilustración, comienzo de la edad
moderna, del protestantismo y de la expansión de la cultura anglosajona,
tuvieron hegemonía los procesos lógicos inherentes a la cultura de la razón,
con carácter investigador y ordenador de las leyes científicas y jurídicas. En
cambio, al final de la edad moderna, reaparecieron y recobraron hegemonía los
procesos mentales o modos de ser inherentes a la cultura pragmática, con su
tradicional modo de imponer un orden social dado por medio de la violencia e
irracionalidad, independiente de la ley o ética. Estos procesos y respectivas
culturas pueden representarse
Por otra parte, debe considerarse que el pensamiento humano, en general, y la
ciencia, en particular, son productos de la experiencia humana acumulada,
dependientes de muchos hechos accidentales, actitudes equivocadas y
actitudes críticas o planeadas, que permiten aprender de los errores,
corregirlos y superarlos según nuevas hipótesis4 y paradigmas. Sobre todo su
evolución es cíclica y recurrente, y está sometida a determinaciones externas
de la cultura, de la sociedad, de la historia, etc., y especialmente sometida a
determinaciones intrínsecas al propio pensamiento y a la ciencia, que son sus
principios organizadores, sus paradigmas, sus creencias, sus modelos
explicativos del mundo, que gobiernan y controlan, de forma imperativa y
prohibitiva, la lógica de los discursos, pensamientos, teorías y prácticas.
En esta perspectiva, el hombre es parte del universo y de la ciencia, razón por
la que no es neutral y objetivo en sus investigaciones. No es él un observador o
actor externo que ordena y sistematiza datos inconexos, sino que construye
modelos y paradigmas sobre restricciones, extrapolaciones e hipótesis con sus
tres procesos mentales cargados de elementos subjetivos y de modos de
percepción e interpretación del mundo que le sean más favorables. Por otro
lado, del mismo modo que elabora la racionalidad científica también construye
y estructura las racionalidades morales y pragmáticas alrededor de
determinados paradigmas.
En cuanto a la multiplicidad de perspectivas, en torno a las que los paradigmas
se estructuran, se encuentran fundamentalmente tres, que son, en sentido
amplio, las que corresponden a las percepciones o visiones de mundo
inherentes a los procesos de la cultura: pragmática, mística y racional. Según el
modo de conjugarlas - o si se considera una de esas aislada -, se estructuran
los principales paradigmas o las principales cosmovisiones, que delimitan y
balizan los modos de percepción, comprensión y actuación del hombre en el
mundo, o bien estructura su modo de sentir, pensar y actuar en el mundo.
En la hipótesis de única perspectiva de percepción, que además viene aislada
y sin cualquier interacción con otras, se obtiene una visión monádica, que es la
que percibe, teoriza y actúa en la realidad desde un enfoque unidimensional, o
a partir de una referencia única, de la cual resulta una percepción, una
explicación o una experiencia excluyente de otras posibilidades simultáneas en
competencia o en cooperación.
Si se enfoca desde la perspectiva racional, científica, sólo se considera lo que
pasa por los criterios y cánones de los métodos y lógicas oficiales9. Según este
enfoque, no se admiten otros conocimientos que no sean adquiridos por los
métodos racionales. En esta perspectiva, el conocimiento se resume a lo que
proviene de la ciencia, pertinente a los procesamientos mentales lógicos, y
niega la existencia o la posibilidad de conocer todo lo que no esté bajo su
dominio. Por esto pone al margen todo el conocimiento y la toda realidad que
no se encaje en su estructura lógica o que no cumpla sus criterios. Sus más
expresivas defensas se encuentran en las escuelas del positivismo o
neopositivismo, en contra especialmente de todo lo que tiene carácter
metafísico. Por estos cánones se representan los paradigmas de las ciencias
positivas, de la física clásica, de las especializaciones del conocimiento, etc.
En este sentido, también resulta unidimensional o monádica la perspectiva
funcional, pragmática o utilitaria, cuando se abstiene de reflexiones abstractas
y de fundamentos morales para la consecución de sus fines. Será unilateral o
monádica si sus fundamentos se reducen a uno de estos aspectos, o bien si
sus criterios se resumen al interés por resultados o por la utilidad.
Lo práctico, en general, se refiere a lo que efectivamente se lleva o puede
llevarse a cabo en el terreno de la realidad, o aquello cuyo fin es llegar a ser en
el orden de lo real y no algo meramente ideal; sin embargo, en este campo, a
veces, también se juega con lo útil, y se habla de la inutilidad de las teorías, de
la ética, de la moral, etc.
De la misma manera, resulta monádica la perspectiva de percepción de la
realidad desde un enfoque exclusivamente intuicionista, sentimental, moral o
místico, alejada de suficientes razonamientos y praxis. Así, también resulta
reduccionista y unidimensional.
En la visión monádica, resultante del enfoque unidimensional, la percepción de
la realidad suele presentarse con carácter de universalidad y necesidad,
independiente de variaciones de contextos. Como se trata de enfoque
unidimensional, de ahí resulta una única percepción posible, que se impone
como excluyente, inmutable y verdad absoluta. Se fundamenta en la razón, en
la creencia (mito, fe) o en la práctica (procesos). Cualquier de estos
fundamentos, cuando se adopta excluyendo otras posibilidades, rechaza todo
lo que no satisfaga a los criterios establecidos en su perspectiva. Por esto
limita, arbitrariamente, el conocimiento y la acción a sus dominios y establece
orden único, excluyente y sectario. Se trata de un enfoque que representa parte
de la realidad como si fuera la totalidad, por esto la distorsiona y la reduce.
El conocimiento en perspectiva monádica resulta del pensamiento lineal y se
realiza en plano único, independientemente de las interconexiones necesarias
en otros planos. Establece vínculos exclusivos y necesarios como los de
causa-efecto, sujeto-objeto, etc. Su carácter lineal le impide abarcar
estructuras complejas. Por su condición de pensamiento unidimensional,
excluyente y reduccionista, las diferencias o variaciones de percepción,
interpretación o conducta deben ser rechazadas, puesto que en otras
dimensiones, planos o perspectivas son patológicos y contrarios a sus criterios.
Ante esto, se concluye que se trata de un paradigma que no tiene estructura y
complejidad suficiente para percibir, interpretar y actuar en realidades con más
de una dimensión. Con un enfoque así, cuando una dimensión de la realidad se
revela, las demás se ocultan, puesto que no se permite que diferentes
perspectivas coexistan. El orden conocido se desvanece si se cambia de
perspectiva, puesto que la verdad reside en único plano o dimensión y se
sostiene en la creencia de que las cosas son absolutas en el mundo objetivo y
que se las conoce directamente y en su totalidad si son aisladas o separadas
de las relaciones con las demás. Se encuadra exclusivamente en la lógica
clásica, donde cada proposición sólo tiene un valor: verdadero o falso, sin
posibilidad de relacionar o agregar elementos de otras dimensiones del mismo
sistema que permitirían respuestas diferentes.
Así pues, desde una percepción e interpretación monádica de la naturaleza del orden natural de las cosas - y del orden social, en un ambiente cultural del
subgrupo social dominante, se crearon innumerables variantes del Derecho
natural, del derecho positivo o bien del derecho consuetudinario, con absoluta
unilateralidad y parcialidad de la responsabilidad o imputabilidad del sujeto
individual o colectivo; todas las demás circunstancias y relaciones
complementarias no son más que efectos o atenuantes colaterales.
Por otro lado, en la segunda perspectiva, está la percepción diádica, la que,
alejándose de la supremacía del orden estático, inmutable y absoluto, se
vuelve al dinámico, al cambio y al transitorio, y se apoya en la contradicción o
complementariedad de las partes, a pares, que van en confrontación o
separadas en polos opuestos. En esta perspectiva, la dimensión operativa o la
de relación de partes reciben más énfasis. Así, desde las grandes esferas de la
realidad, la espiritual y la material, hasta las más diminutas, todo tiene su par:
ricos y pobres, capital y trabajo, ciencia y religión, buenos y malos,
epistemología y fe, forma y contenido, ciencia y tecnología, teórico y práctico,
subjetivo y objetivo, productor y consumidor, público y privado, etc. Y todo se
desarrolla hacía un lado o, al revés, hacia su negación, según el modo de
percepción diádico que se adopte. Hay siempre dos valores y dos fuerzas que
bajo diversos matices determinan la identidad del ser.
Para Bachelard, que comenta la epistemología no-cartesiana, el hombre, en su
esfuerzo de cultura científica, se apoya en dos actitudes filosóficas
fundamentales, asociadas al espíritu científico moderno. Son dos metafísicas
contradictorias, a las que, bajo las etiquetas clásicas, se denomina
racionalismo y realismo. Ellas presentan dos aspectos igualmente necesarios,
uno subjetivo y otro objetivo, dado que no es posible prescindir o cambiar las
leyes del espíritu o las leyes del mundo natural. Con esto se debe respetar la
extraña ambigüedad que exige que todo el pensamiento científico se interprete
a la vez en el lenguaje racionalista y en el lenguaje realista. Con este nuevo
espíritu científico se sustituye la intuición de la doctrina de las naturalezas
simples y absolutas por un estudio discursivo que realiza una especie de
dualidad fundamental. Así, todas las nociones de base pueden de algún modo
ser desdobladas y marginadas por nociones complementarias, que llevan por
tanto a una especie de ambigüedad esencial en la base de la descripción
científica. Esta epistemología perturba el carácter inmediato de la evidencia
cartesiana, puesto que ningún método unidimensional, sea racional sea
experimental, garantiza la fecundidad del proceso científico. Ya no se puede
ser realista o racionalista. Para el sabio, el Ser no se capta en un bloque ni por
la experiencia ni por la razón. Es preciso, pues, que la epistemología se
encargue de la síntesis más o menos móvil de la razón y de la experiencia.
Por otro lado, para Lefebvre, la lógica dialéctica (refiriéndose a la dialéctica
diádica) añade a la antigua lógica la idea de las transiciones, de los desarrollos,
del “enlace interno y necesario” de las partes en el todo. Muestra, a la vez, el
enlace, su necesidad y “el origen inmanente de las diferencias”. Afirma, con
Lenin, que la dialéctica muestra “la lógica interna objetiva” del desarrollo y la
“lucha de las diferencias polarizadas”. Así, de la lógica formal dependen las
relaciones abstractas y generales, como ‘inclusión-exclusión’, y de la lógica
dialéctica dependen las relaciones duales y más concretas, como reciprocidad,
complementariedad, doble determinación, y también recurrencia, simetría,
repetición y diferencia, etc.
Aunque la humanidad se haya dado cuenta del día de, de la interdependencia,
la complementariedad mínima de dos lados, partes o actores, las nociones de
Justicia y de Derecho aún no han asimilado eso en su filosofía y en su práctica
legislativa o judiciaria. Todo sigue monádico, a excepción de las conciliaciones
con o sin mediación; ahí las dos partes desisten de llevar la disputa hasta el
extremo de “todo o nada” y aceptan un acuerdo en que las dos partes pierden y
ganan dentro de los límites de proporcionalidad.
Sin embargo, en la percepción de la realidad conforme los cánones o procesos
inherentes a las tres culturas, simultáneamente, o en la perspectiva que la
considera con tres partes y tres fuerzas elementales entrelazadas y
posicionadas o en cooperación y oposición, “jugando dos contra una”, es decir,
dos en cooperación y una en oposición o dos en oposición y una en
cooperación, se tiene una dinámica tríadica. Esas tríadas componen
estructuras, sistemas y cadenas de sistemas que se repiten en distintos niveles
de complejidad.
En la física cuántica se adopta un paradigma tríadico. Gell-mann, en sus
planteamientos, lo plantea todo en “tríadas”23. En el marco del paradigma de la
física cuántica, la realidad se define como momentos de estructuras triádicas
de partículas interconectadas componiendo un conjunto estructural superior,
según el principio de la incertidumbre y ante la presencia de la ley de
convertibilidad de la energía, según la cual la materia, como masa, puede
transformarse en energía y viceversa a lo largo de cualquier escala o cadena
sistémica24. Así, v.g., se tiene una cadena como la de los quarks, protones,
neutrones, átomos, moléculas, células, organismos o materias más complejas
que convierten en sistemas menos complejos de energía “líquida” o
desmaterializada etc. Así, la energía tríadica, como sustancia básica de la
materia, de las cosas y del todo, en su estructura y movimiento, es tomada
como paradigma para la interpretación de toda la realidad. Las ciencias han
estado reflexionando durante la última mitad del siglo XIX y todo el siglo XX
sobre la interpretación de la realidad según esos dos principios:
- todo está en permanente co-evolución sistémica;
- todo obedece a un patrón o molde tríadico en su composición e interacciones
de supervivencia, reproducción y convivencia.
Por eso se han integrado, cada vez más, la Física con la Química y la Biología,
bajo el título general de Teoría de los Sistemas Dinámicos, conocida también
como Teoría del Caos, cuya aplicación práctica se presenta en la ecología,
ambientalismo, economía, sicología, etc. Con fundamento en estos nuevos
descubrimientos, también las corrientes de la ciencia jurídica y de la filosofía
del derecho tendrán que revisar sus fundamentos.
En el caso que ahora se presenta, se trata de un paradigma que unifica y
relaciona tríadicamente aspectos o elementos de la realidad antes tratados
separadamente, tanto con relación a los aspectos de la estructura, como del
movimiento y del fin de las cosas. En este supuesto, se afirma que en los
debates éticos, por ende en los debates jurídicos, las ciencias positivas
también pueden presentar valiosos elementos de percepción, interpretación y
actuación, especialmente modelos de coherencia para sus paradigmas, que
“no sólo pueden aclarar, sino que hoy no se concibe un debate ético que no se
apoye en resultados científicos”.
En el debate sobre el orden jurídico-social vigente predomina el paradigma
monádico, donde reinan disociados e irreconciliables los imperios del
racionalismo, del realismo y del iusnaturalismo, cada cual intentando
argumentar, respectivamente, por medio de la razón, de la fuerza o de la
creencia y mito, y excluir los demás aspectos de las diversas esferas de los
ordenamientos nacionales o internacionales.
La escasa distribución y garantía de bienes satisfactorios y condiciones
elementales en el campo de las tres culturas (educación, ciencia y ley; bienes
materiales; espiritualidad, disfrute y felicidad) entre los partícipes de una
sociedad indica que la ordenación y ejecución del ordenamiento jurídico se
orientan por un modelo monádico, que representa el pensamiento y las
demandas dominantes (y excluyentes) de un grupo, en detrimento del
pensamiento y de las demandas sociales de los demás. Las consecuencias de
la adopción de un ordenamiento jurídico según un paradigma monádico,
basado en la percepción unilateral de la realidad, son, entre otras, la
intolerancia, la segregación, el fundamentalismo religioso o político, el
totalitarismo y el despotismo, el imperialismo, el monopolio económico, la
concentración de riqueza y poder para unos y la miseria para otros, etc.
Como alternativa al paradigma monádico concentrador de poder y riqueza,
especialmente en contraposición al pensamiento único y a favor de la
diversidad de posiciones y de conocimiento, análisis y crítica del sistema social,
o para dividir el poder, el siglo XX había adoptado el paradigma diádico o
marxista para gran parte de la humanidad. Pero tampoco ha traído respuestas
adecuadas a las necesidades sociales. Las altas tensiones entre las partes
antagónicas no permiten síntesis aceptables, por eso se vuelve al monismo y a
la exclusión de una de las partes y a la posición o verdad del más fuerte.
Conlleva, entonces, el dualismo a una dicotomía insuperable, que divide la
realidad en dos partes antagónicas, irreconciliables e incapaces de
cooperación, donde la síntesis es la sumisión máxima para una y el poder
máximo para la otra. Además de que sigue siendo un paradigma excluyente,
reduccionista y mutilante, por no admitir en un mismo contexto o nivel de
realidad otra afirmación que no sea la oficial y su negación. Le falta, por lo
menos, otro elemento que pueda ejercer la función de mediador.
Por otro lado, la realidad, ya se sabe, en diferentes momentos de su estructura
comporta antagonismos complementarios que no se pueden traducir por
contradicción. Más bien es una invitación al pensamiento complejo, capaz de
absorber las aparentes contradicciones e incertidumbres. “No se trata de tolerar
blandamente la contradicción, ni siquiera de esperar que un nuevo progreso
cognitivo la haga desaparecer, se trata de servirse de ella para reactivar y
complejizar el pensamiento. Hace falta un pensamiento que sepa tratar,
interrogar, eliminar, salvaguardar las contradicciones. Esa es la tarea del
pensamiento complejo”.
Por esto se afirma la necesidad de un paradigma capaz de romper los
estrechos límites monádico del objeto jurídico y reubicarlo e integrarlo en la
dinámica tríadica efectiva de la realidad con su correspondiente representación
formal tríadica, sin mutilarlo en su naturaleza racional, trascendente y
pragmática, puesto que el Derecho lleva en sí una estructura cognoscible, una
esencia trascendente y una relación constitutiva en el espacio/tiempo.
Con referencia al pensamiento lógico/analítico, más identificado con el cerebro
izquierdo, lo que precisamente lo constituye son los vínculos que relacionan las
cosas con todo lo demás, por el principio de la no-contradicción y por el
principio de la identidad. Según el primero, puesto que “A es A”, “A es no-B”; o
conforme el segundo, A es más A, cuanto más se identifica consigo mismo. Por
el primero solo se puede identificar algo si se consigue diferenciarlo de todo lo
demás; por el segundo sólo se puede diferenciarlo si se consigue identificarlo
mostrando que no es como todos los demás28. Pero la identificación implica la
relación y la diferenciación. Se identifica relacionando y diferenciando
elementos de una misma o diferente categoría o sistema. Así, el tercer
elemento no es propiamente excluido sino mediata o inmediatamente
relacionado. Según el orden o las relaciones establecidas, factores
componentes adquieren mayor o menor (o ningún) peso en la identidad,
calificando o descalificando un ente para determinados fines en un contexto.
Son las funciones elementales del pensamiento lógico. Los conceptos,
razones, juicios, resultan de este proceso recurrente de identificación, relación
y diferenciación.
Por su parte, la historia del pensamiento sintético/intuitivo, más relacionado con
el cerebro derecho, en la comunicación de las experiencias humanas al margen
de las leyes físicas, lógicas, y del mundo visible y material, está llena de
registros del pensamiento apoyado en la percepción tridimensional de la
realidad. Esa intuición se manifiesta con toda claridad en las más expresivas
doctrinas religiosas, que retratan la constitución ternaria del hombre (cuerpo,
alma y espíritu) y del universo (mundo divino, humano y natural) y revelan lo
absoluto en su naturaleza unitriádica. En la encíclica “Fides et Ratio - La fe y la
Razón”29, por ejemplo, el Sumo Pontífice Juan Pablo II enseña que en el
camino de la doctrina cristiana, “la fe y la razón (fides et ratio) son como las dos
alas con las cuales el espíritu humano se eleva hacia la contemplación de la
verdad... El fin último de la existencia personal, pues, es objeto de estudio tanto
de la filosofía como de la teología. Ambos, aunque con medios y contenidos
diversos, miran hacia este ´sendero de la vida` (Sal 16[15]11), que, como nos
dice la fe, tiene su meta última en el gozo pleno y duradero de la contemplación
del Dios Uno y Trino”. En esta doctrina, se ve, con claridad, rasgos del
pensamiento tríadico.
También la lógica de la ciencia y tecnología de este nuevo siglo exige un
pensamiento complejo. En las palabras de Hawking, en la mecánica cuántica
“se basa casi toda la ciencia y la tecnología modernas. Gobierna el
comportamiento de los transistores y de los circuitos integrados, que son los
componentes esenciales de los aparatos electrónicos, tales como televisores y
ordenadores, y también es la base de la química y la biología modernas”30.
Para Gregori, según el paradigma dialéctico tríadico, la realidad es una red de
siste­mas en la que se efectúan permanentemente transformaciones
energéticas, de la cual todos participan. Se trata de una transformación
evolutiva recurrente y diferen­ciadora (como entre hijos, padres y ancestros),
en ciclos plausibles o probabilís­ticos, que pueden moverse en cualquier
dirección y en secuencias regula­res o caóticas. Es una red que tiene automovimiento tríadico, formando ciclos y secuencias de juegos unitriádicos
diversos y con diferentes apariencias, como manifestaciones de un gran juego
tríadico universal. Cada sistema y toda la red tienen capacidad de feedback,
que es la capacidad de informarse intuitiva y lógicamente para conseguir
autorregulación y autoconducción en la búsqueda por supervivencia y
reproducción, entre otras metas específicas, según el grado de complejidad de
cada sistema.
En este sentido, según distintos puntos de vista y en todos los niveles de la
realidad, la energía se manifiesta siempre en una triple estructura o unidad
tríadica, sea cuando se manifiesta en forma pura (energía cuántica), material
(minerales, vegetales y animales), noónica (mental: conciencia, pensamientos y
emociones), económico-social (productos, monedas, servicios), como también
en forma gregaria (organizaciones, instituciones, política) o teleológica (ideales,
metas, utopías), etc.
De hecho, la realidad no es una unidad perfecta, ni se compone de unidades
perfectas, o tampoco una pluralidad aleatoria e incomunicable, por eso el
paradigma dialéctico tríadico permite comprenderla con amplitud y profundidad.
Es pues, la realidad, según este paradigma, una relación constitutiva de
sistemas que componen nuevas unidades en la diversidad y en otros niveles.
Cada sistema se constituye en un nudo de una red de relaciones de varios
nudos que en la tríada componen nuevos sistemas en una dinámica de
probabilidad.
La conformación e interacción de las tres fuerzas de un sistema en
competencia y cooperación constituye una realidad unitriádica. Su estructura se
manifiesta ya desde la naturaleza tripartita de la energía, conforme a la teoría
de los quark-lepton, y se hace presente en todos los niveles de la organización
de los sistemas. Son tres tendencias, tres fuerzas o tres cargas de energía que
componen la unidad. De ahí el unitriádico. En cuanto a las cargas, se
denominan: positiva, negativa y neutra; en cuanto a las direcciones: derecha,
izquierda y centro; o bien: neguentropía, entropía y homeóstasis; con relación a
los quarks: up, down y strange, y aún top, bottom y charm.
En el fondo, todo sistema resulta de la interacción o tensión de tres
componentes; por esto se le llama también juego tríadico. Es un concepto más
amplio que el de dialéctica de dos lados o juego diádico, que a su vez es más
amplio que el concepto monádico, en el cual ocurre la percepción de una sola
cosa cada vez. Cuando se toman dos lados a la vez, en contradicción o
competencia, se está usando un paradigma diádico. Y cuando se toma un sólo
lado o aspecto cada vez, sin relacionarlo con sus complementarios
(concurrente y cooperativo), se tiene un “paradigma monádico”.
El juego tríadico resulta del estado de tensión entre los componentes de un
sistema, y puede ser en el sentido de interacción, composición, cooperación,
neguentropía, choque, competencia, entropía, movimiento pendular, circulatorio
u ondulatorio, para transformar, extinguir o perfeccionar el sistema. Es una
relación constitutiva de partes entrelazadas en un sistema en evolución o
involución. La relación puede ser interna, entre sus componentes, o externa
con otros sistemas.
El movimiento puede ser hacia el grado más alto de organización y complejidad
o en dirección a la desintegración del sistema. Cuando es en dirección
ascendente, hacia el perfeccionamiento, lo absoluto, se debe a la fuerza
neguentrópica y cuando es en dirección descendente, hacia la destrucción, la
negación o muerte del sistema, se debe a la fuerza entrópica. La oscilación
alrededor del punto medio, resultante de la atracción de los polos opuestos, es
la homeóstasis o porporcionalidad entre los extremos. Esto significa que las
partes están en permanente movimiento oscilatorio adaptativo, pero siempre
dentro de los límites y proporciones que garanticen las identidades y las
diferenciaciones. Informa Gregori que la homeóstasis no significa igualdad
entre masas, fuerzas, cargas, velocidades, etc. de los elementos integrantes de
un sistema. Más bien significa proporcionalidad (que supone la diferenciación y
la jerarquización) entre los elementos que se equilibran en todo momento entre
sí y con el medio ambiente.
En su trabajo de sistematización del lenguaje tríadico, preexistente en
diferentes campos de conocimientos, Gregori propone, como denominador
común de las tres fuerzas, clases, o subgrupos interactuantes en todas las
ciencias sociales y humanas, las siguientes denominaciones:
- lado o subgrupo oficial para el que está en la posición superior, de dominio,
de mando y dirección; es el dueño de la situación y está direccionado por la
inteligencia operacional, buscando primacía para la riqueza y el poder.
- lado o subgrupo anti-oficial para el que está en contra del primero, en
posición divergente, digresiva, transgresora; manteniéndolo de esa forma
despierto, actuante, renovado; es el competidor, el crítico y está direccionado
por la inteligencia racional, buscando primacía para la razón y la verdad,.
- y lado o subgrupo oscilante para el que está disponible para cualquiera de los
anteriores, porque es neutral, centrista, subordinado, con poca auto conducción
pero que sirve de equilibrio y base de subsistencia de los subgrupos oficial y
anti oficial, cooperando a veces con uno, otras veces con otro, según sus
conveniencias; está dirigido por la inteligencia emocional del cerebro derecho
buscando primacía para el amor, el reconocimiento, el goce.
El lado oficial es el que domina el sistema. Es el organizador y coordinador
interno; es el conductor del sistema para la neguentropía o para la entropía. El
lado anti oficial representa sentido y fuerza divergentes, creando o
manteniendo la tensión necesaria al sistema para renovarse. El lado oscilante
es el que se adhiere tanto al oficial como al anti oficial, según las leyes de
gravedad tríadica; es el estabilizador o moderador de las tendencias opuestas
de los otros dos lados.
Para el paradigma dialéctico tríadico, la interacción ocurre siempre entre los
tres lados en su búsqueda incesante de bienes satisfactorios de sus
necesidades de supervivencia, reproducción, información y convivencia. Una
representación sumaria de las necesidades y sus satisfactorios se pueden
hacer alrededor de los tres cerebros:
El forcejeo por la búsqueda de satisfactorios entre los subgrupos humanos (en
la familia, en la empresa, en la sociedad nacional e internacional) además de
incesante es maximocrático, es decir, con carácter de concentración
monopolístico, insaciable, infinito... En las teorías tradicionales del derecho, de
la política, de la economía, etc., ese carácter se interpreta, eufemisticamente,
como escasez. En realidad, cada subgrupo maneja un arsenal de medios para
imponerse al máximo a sus competidores, con innumerables estrategias y
tácticas para maximizar sus ganancias. Este fenómeno se reduce a los juegos
de competencia/cooperación.
La competencia puede darse entre el antioficial y el oficial ante la cooperación
del oscilante con el oficial, produciendo así la estabilidad del sistema; o puede
darse la cooperación del oscilante con el subgrupo antioficial, en contra del
oficial, produciendo así las huelgas, revoluciones o medios de presión contra el
sistema; o también puede darse la cooperación (o complicidad) entre el
antioficial y el oficial, en las escasas ocasiones en que el oscilante se ponga
en contra de los otros dos, convirtiéndose en antioficial, fenómeno conocido
como desobediencia civil o anarquismo (negación del poder y del orden
establecido), mientras no sea reprimido.
Lo peor y lo mejor - negativo/positivo del juego de los tres subgrupos - se
puede presentar como en el cuadro siguiente.
SUBGRUPO
ANTIOFICIAL:
SUBGRUPO OFICIAL:
Dominante, hegemónico
- sa- cro, socialista o
neoliberal político y
económico.
Revolucionario,
disidente,
hereje,
invasor o competidor
económico.
META: cambio,
renovación, substitución
del oficial con ayuda de
los oscilantes.
COMUNICACION
táctica
VERBAL Y NO-VERBAL
(estrategia de despiste):
Concientización, crítica,
de- nuncia, duplipensar,
retórica
brillante
y
virulenta, pasión por el
debate
sin
fin,
predicación mesiánica a
favor de los pobres y de
la justicia.
COMUNICACION
FACTUAL(estrategias
para ganar):
Asociación, sindicatos,
reivindicaciones,
marchas,
Huelgas, tumultos,
Clandestinidad,
terrorismo,
Guerrilla, revolución.
META: mantenerse en
el poder, liberarse de
los
antioficiales
y
depredar
a
los
oscilantes.
COMUNICACION
táctica
SUBGRUPO
OSCILANTE
populacho
socialista
(fieles).
capitalista,
y
sacro
META: unidad, amor,
paz.
COMUNICACION
táctica
VERBAL
Y
NOVERBAL:
(despiste):
explicaciones
mitológicas,
mágicas,
sagradas,
familiares.
Uso
de slogans y
proverbios.
COMUNICACIÓN
FACTUAL
(estrategias para
ganar):
Inconsciencia y
conformismo de víctima
aliada su verdugo.
Traficar pequeñas
ventajas, suavizar los
extremos. Centrismo
político.
VERBAL Y NOVERBAL
(despiste):
simular
virtudes de civismo y
bien
común.
Autocanonización,
solemnidad.
Fuente
exclusiva de la verdad
monádica (unipensar).
Ritualísmo del poder y
discursos despistadores
con maña sin fin.
COMUNICACION
FACTUAL
(estrategias
para
ganar): Uso de la
burocracia, la ley, la
cooptación, el control de
la
información,
del
dinero, de los empleos,
de
los
favores
notariales. Clientelismo.
Alian zas de países
hegemónicos.
Por otro lado, a continuación se presentan las características inherentes a los
subgrupos positivos o proporcionales.
En cambio, la supervivencia de cualquier sistema u organismo depende de
encontrar, conservar o mantenerse conectado a fuentes de energía que les
abastezcan. Cualquier amenaza al suministro de lo que necesita para
renovarse permanentemente y mantener su estructura u organismo vivo, o en
funcionamiento, conforme a sus fines, será prontamente rechazada38. Cada
parte dentro del mismo sistema u organismo a la vez que interactúa con las
demás también disputa con ellas los satisfactorios de sus necesidades, aparte
de que también interactúan intensamente con el ambiente a su alrededor39. En
medio a la complejidad de tantas acciones, interacciones y retroacciones, surge
entonces la necesidad de mecanismos de regulación de estos procesos, para
que se establezcan límites de tensión y relajación a los sistemas u organismos.
Se trata, pues, de la homeóstasis, que se constituye con los mecanismos
necesarios a la manutención de relativa estabilidad de sus estados internos.
En los sistemas sociales, los límites de tensión y forcejeo incesante por
satisfactorios necesarios a la supervivencia giran en torno a la proporcionalidad
del punto de oro40. En sus proximidades se produce la homeostasis, el
equilibrio del sistema. Sin embargo, cualquier desviación hacia los extremos
tiende a producir reacción y entropía, sea hacia la desigualdad (90% y 10%)
sea hacia la igualdad (50% y 50%). A cada intervalo de distanciamiento del
“punto de oro” impuesto por un lado corresponde a un grado de esfuerzo,
energía y tiempo de reacción por parte del agredido para retornar al dominio
del 62% y del 38 %. Cuanto más lejos uno logra desviar los límites de la
proporcionalidad, en cualquier sistema o sector de la vida, sea por ley
(dictadura, imperialismo, trapacería, etc.) sea por la fuerza (saqueo, expolio,
etc.), más fuerte y violenta será la reacción de los demás para restablecerlos.
La proporcionalidad, en estos términos, crea condiciones e incentivos para
intercambios de bienes, servicios, afectos, etc., en la sociedad, permitiendo
movimiento y equilibrio en las relaciones de grupo, empresarial, nacional e
internacional. El panorama puede representarse como a seguir (90/10%, léase:
xx% de las personas con xx% de los bienes satisfactorios):
El movimiento o juego es a veces sutil, sólo perceptible a ojos bien entrenados;
otras veces es escandaloso, poniéndose de manifiesto a los ojos de cualquiera.
Pero está siempre presente en todos los sistemas sociales.
Lo que hay de nuevo, sin embargo, en el análisis por medio del juego triádico,
es que los límites y gradaciones del orden y desorden, del justo e injusto, de la
violencia y de la paz, del bienestar y malestar social, etc., queden patentes,
porque toma como punto de referencia el principio del proporcionalismo sección áurea o punto de oro - y no sólo los extremos “negativo/positivo”. Así,
se considera como esencia del Derecho la formulación y aplicación de reglas
para mantener el juego de los tres subgrupos, ante los bienes satisfactorios de
sus necesidades e intereses, dentro de los límites de proporcionalidad; y que
sean lo más cercanas posible a las proporciones del punto de oro, con
aplicación de penas según el grado de alejamiento de estas proporciones, para
restablecimiento de la proporcionalidad del sistema.
Con estas proporciones, también, se debe estructurar el juego de los
componentes del sistema jurídico, en sus dimensiones analítico/lógica,
sintético/intuitiva y pragmático/operativa, así como en los contenidos de lo
privado a lo público, y viceversa, o de las tres culturas y de los tres poderes
que las promueven y las controlan.
Así, establecido un fundamento y un paradigma para la estructuración del
fenómeno jurídico, se trata, pues, de buscar un cuadro de referencia para
clasificar, ordenar e integrar los diferentes factores operacionales que lo
componen y convertirlo en un sistema ordenado, coherente y funcional.
UNIDAD II: ESTRATEGIAS DE DESCUBRIMIENTO EN
LA METODOLOGIA DE LA CIENCIA
2.1 La filosofía inductiva de la ciencia desde la Antigüedad
hasta los albores de la ciencia moderna
La historia de la filosofía tiene sus comienzos hace dos mil quinientos años,
pero antes de ella existía una forma de pensar pre-filosófica: el pensamiento
mítico, es decir las primeras explicaciones que el hombre dio de la realidad
fueron de tipo religioso. Ante fenómenos como el rayo, el movimiento de los
astros, la vida de los animales y las plantas o la muerte de los miembros de la
propia tribu, el hombre primitivo carecía de explicaciones racionales. Y al no
disponer de respuestas naturales para sus interrogantes, se refugió en
respuestas que aludían a fuerzas o seres sobrenaturales: un Dios airado
lanzaba sus rayos contra quienes le habían ofendido; el Sol, la Luna y otros
astros eran los dioses que movían el firmamento. A raíz de estas primitivas
respuestas religiosas fueron apareciendo otras, más refinadas y complejas, que
han llegado a nuestros días como doctrinas más o menos fundamentadas en la
filosofía griega. También en el II milenio antes de nuestra era, los hebreos
crearon una religión que por primera vez en la historia incluía la idea de un Dios
único, un Dios que se les había revelado a ellos como pueblo.
La fase del pensamiento científico constituye, sin duda, la etapa más positiva
de la historia de pensamiento. El científico es menos ambicioso que el filósofo:
al científico no le preocupan los grandes problemas especulativos de los
filósofos; solo se ocupan de los hechos de la experiencia. Pero el científico es
mucho más riguroso: explica esos hechos elaborando leyes científicas, es
decir, leyes generales que determinan las relaciones existentes entre los
hechos observados. Además, relacionando varias leyes entre sí, pueden llegar
a elaborar teorías científicas, mediante las cuales da explicaciones más
amplias y acertadas de la realidad.
Aunque los babilonios y los egipcios tenían ciertos conocimientos de
astronomía y de matemática, simplemente se limitaban a coleccionar los datos
observados; no elaboraban leyes que los explicasen, ni por supuesto teorías.
Quienes hicieron esto por primera vez fueron los griegos, por lo que, además
de ser los primeros filósofos, fueron también los primeros científicos.
Para poder dar inicio a la historia de la filosofía tuvieron que haber personas
con grandes incógnitas y que su sentido de curiosidad lo hayan hecho explorar,
estudiar e investigar respecto a eventos curiosos que han hecho que se
plantearse interrogantes, es por ello que dentro de todas las fases que ha
vivido la filosofía se han destacado personajes que de alguna manera
plantearon sus hipótesis formulando su propia teoría y que a través del tiempo
han permanecido en la historia, algunas vigentes en la actualidad, otras han
servido de fundamento para inspirar a otros y seguir en la búsqueda de la
verdad o de alguna explicación lógica que logre complacer a la religión y a la
ciencia. Cabe destacar que cada uno de estos personajes a los que se les
hacen referencia en este trabajo han marcado de una manera muy peculiar la
mayoría de las ciencias (física, química, matemática, trigonometría, geometría,
biología, psicología, entre otras) contribuyendo así al progreso de la filosofía.
Los avances científicos de todos los géneros son numerosos, radicales,
decisivos y apabullantes que nos vemos obligados a recordar la frase de
Russell "Con respecto a lo desconocido, pueden adoptarse dos actitudes. Una
consiente en aceptar la afirmación de gentes que dicen que saben, sobre la
base de libros, misterios u otras fuentes de inspiración. La otra consiente en
examinar las cosas por sí mismo, y este es el camino de la ciencia y la filosofía"
y a pensar que el hombre, enfrentando a la realidad, seguirá siempre
planteándose nuevas preguntas, que respuestas nuevas abrirán nuevas
interrogantes, que las nuevas respuestas no impulsaran al pensador genuino a
adoptar una actitud dogmática sino, antes bien, una postura crítica, libre y cada
vez más racional ante la realidad.
ORIGEN Y DIVISIÓN DE LA FILOSOFÍA
Antes del s. VII a.C. nos encontramos el mito como forma de pensamiento en la
antigua Grecia.
El mito puede ser definido como un conjunto de leyendas imaginativas y
fantásticas que narran el origen del universo, la situación del hombre y el final
de los tiempos en los que volverá a existir la felicidad perdida al comienzo de
éstos; pero del mismo modo, el mito es una actitud intelectual en la que se
produce una personificación de las fuerzas de la naturaleza, es decir, se dota
de voluntad y personalidad a los elementos naturales. Así por ejemplo, en la
mitología griega hay un Dios del mar, otro del Viento,... Estos dioses actúan
según su voluntad y capricho.
A finales del s. VI a.C. se produce el nacimiento del pensamiento racional. Hay
quién lo atribuye a la genialidad griega. Sin embargo, tuvieron lugar una serie
de cambios sociales, económicos e ideológicos que motivaron este nacimiento.
CAMBIOS SOCIOECONÓMICOS: La sociedad griega era en principio una
sociedad aristocrática y guerrera, sociedad donde la nobleza poseía la tierra,
dirigía los ejércitos, La economía estaba basada en la agricultura, existiendo el
trueque como única forma económica de intercambio, esta sociedad está
regida por unos valores propios de la sociedad aristocrática como el linaje, el
éxito y la fama. Alrededor del siglo VII a. C. se produce una revolución sin
precedentes en el desarrollo de las técnicas de navegación, lo cual propicia
que se forme el comercio. El poder económico es arrebatado a la nobleza por
los comerciantes (sustituyéndose la aristocracia por la democracia), se
reemplaza el trueque por el dinero y aparecen las primeras ciudades o polis.
CAMBIOS IDEOLÓGICOS: La sociedad griega carecía de libros sagrados y de
un sistema de enseñanza organizada, por lo cual es fácil de transformar
ideológicamente. Hasta esa época cada tribu poseía su propia mitología
diferente (e incluso se descubrieron nuevas mitologías a medida que se
colonizaban nuevas ideas), que se intentaron unificar en una mitología general
en libros como la Ilíada o la Odisea de Homero. Así se llegó a un escepticismo
en la mentalidad popular, ya que si existían tantas mitologías diferentes es muy
probable que todas fuesen falsas, creándose un vacío ideológico. Además,
existe otro elemento que sólo aparece en la mitología griega: la idea de destino
(fuerza superior a la voluntad de los hombres y de los dioses y que determina
aquello que necesariamente tiene que ocurrir). El paso del mito al logos se
produce, junto a todos los elementos que hemos visto anteriormente, cuando
se convierte o transforma la idea de mito en la idea de necesidad lógica o ley
natural.
Tanto la idea de destino como la idea de necesidad lógica constituyen la fuerza
mayor de la naturaleza, ya que no pueden ser cambiadas por nada. Sin
embargo, mientras que la idea de destino es algo incognoscible, la idea de ley
natural es cognoscible. El pensamiento mítico está basado en lo aparente,
cambiante y múltiple, mientras que el pensamiento racional está basado en lo
que realmente son las cosas, la permanencia y la unidad.
Los presocráticos
Se conoce como filósofos presocráticos a un complejo grupo de pensadores
griegos cronológicamente anteriores a Sócrates, y que están repartidos en
varias escuelas (jonios, efesios, pitagóricos y pluralistas). Son los precursores,
la prehistoria del pensamiento griego.
Antes de la aparición de los presocráticos existió en Grecia una forma de
pensamiento orgánico: la mitología. Los filósofos presocráticos desarrollaron un
vocabulario más original, y a medida que fueron forjando nuevos conceptos
para referirse a la totalidad del mundo (Physis u Naturaleza), inventaron una
nueva racionalidad que les fue diferenciando de los mitólogos.
El fenómeno cultural de la filosofía presocrática nació en los límites fronterizos
del área helénica, en las zonas de su colonización bélica o comercial,
precisamente allí donde los griegos están en contacto con el mundo oriental.
Este contacto les permitió conocer los desarrollos del conocimiento egipcio y
babilónico en el campo de la astronomía, geometría y la aritmética.
Los presocráticos adoptaron sus métodos, pero los despojaron de su finalidad
práctica. Les interesaban los secretos de los astros, de las figuras y de los
números por su belleza y por la excitación y satisfacción intelectual que
provoca su comprensión.
La preocupación presocrática fue eminentemente científica; pretendían explicar
fenómenos y comportamientos de la naturaleza, y comunicarlos a un público
aún inmerso en un mundo tradicional mítico-religioso; de ahí la forma
sacralizada de muchos de sus fragmentos filosóficos.
Los modelos de pensamiento desarrollados por los presocráticos fueron
imaginativos y fantasiosos: no se circunscribían estrechamente dentro de los
límites de la lógica y el sentido común, sino que evidenciaban independencia
de criterio, así como una gran capacidad creativa.
El pensamiento presocrático representó el primer esfuerzo fructífero del
hombre frente al problema del conocimiento del mundo. En aquel momento
histórico todavía no se había delimitado el campo de la filosofía respecto del de
la ciencia, y ambas constituían una misma cosa. El problema fundamental era
un problema físico, naturalista; ¿Está el mundo hecho de una sustancia
fundamental única? ¿Cuál es esa sustancia o material? Los primeros filósofos
no eran antropólogos (del griego anthropos, hombre), pues su preocupación no
era humanista. Aristóteles les llamó oi fisiologoi (los físicos). La mayoría de las
obras de los presocráticos presentan el mismo título: Peri fiseos (Acerca de la
naturaleza). Así el problema fundamental de estos primeros filósofos fue
averiguar cuál era la sustancia primera (argé) de la que están hechas todas las
cosas de la naturaleza (physis). La historia del pensamiento presocrático fue la
sucesión de respuestas distintas a este mismo problema.
La escuela Jonio-Milesia
Tales de Mileto (624-548 a, de C.)
La historia considera a Tales como uno de los siete sabios clásicos de Grecia.
Se ganó la vida como comerciante, vendiendo aceitunas. Una anécdota de su
vida nos narra que cuando iba por la calle mirando los astros se cayó en un
pozo, lo que provocó las burlas de sus conciudadanos.
El primer filósofo de la historia fue. Pues, ya ridiculizado por sus
preocupaciones filosóficas, alejadas del sentido común de la vida cotidiana. Sin
embargo, Tales no careció de sentido práctico: dirigió en Mileto una escuela de
náutica, construyó un canal y tuvo veleidades políticas, entre las que se cuenta
la elaboración de una constitución para la ciudad de Teos. Predijo un eclipse de
sol que le dio fama de semidiós en un momento en que la ciencia estaba en
embrión, y que permite saber exactamente que el filósofo vivía el día 28 de
mayo del año 585 a. de C.. Fecha en que se produjo el eclipse, según los
astrónomos.
Los griegos distinguían dos tipos distintos de realidades: una natural, que se
desarrollaba por sí misma (la physis o naturaleza) y otra artificial, producto de
la actividad humana y que no tenía en sí misma poder de auto desarrollarse (la
techné o técnica).
Se ha dicho ya que el problema presocrático fue averiguar cuál era el principio
material último de la physis. Este principio material o argé sería la esencia
misma de las cosas, aquello de que están hechas todas las cosas del mundo,
su sustancia material (en griego, su ousia).
Tales creyó que el primer principio era el agua, y quizá llegó a esta conclusión
al observar que todos los seres vivos precisan del elemento húmedo para
seguir viviendo: las semillas precisan ser regadas para generar las plantas; los
animales y el hombre precisan el agua para vivir o mueren de sed. Esta idea de
Tales no era absolutamente original: los poetas Hornero y Hesíodo habían
afirmado que el dios Océano (que puede interpretarse como e! elemento
húmedo) era el padre de todas las cosas; también en la mitología oriental se
habla a menudo de un caos acuoso como fundamento del que todo surge. Por
otra parte, la importancia concedida al agua pudiera ser un reflejo inconsciente
de la importancia sociológica del mar como elemento esencial de la vida de
Mileto, ciudad que basaba su subsistencia material en la pesca y en el
comercio marítimo.
El principal mérito filosófico de Tales fue el de acuñar el concepto de «principio
originario del que proviene todo ser», aunque la palabra urge que expresa
exactamente este concepto sea de época posterior.
Tales tenía una visión antropomórfica del mundo. Utilizó su conocimiento del
hombre como punto de referencia para su conocimiento de lo real (proyección
antropomórfica). Así, creyó que todo lo que se mueve tiene un alma, lo que le
indujo a creer que el hierro tenía alma, puesto que era atraído por el imán. Esta
doctrina se conoce con el nombre de hilozoísmo (de hyie, materia y zoé, vida);
es decir, es aquella concepción que cree que toda la materia natural es, en
cierto sentido, materia viva. También se la puede denominar animismo.
Anaximandro (611-546 a. de C.)
También era habitante de Mileto. Suyo es e! Primer escrito filosófico de
Occidente, ya que de Tales no se conserva nada escrito: ferifiseos o Sobre la
Naturaleza. Lo mismo que Tales, no fue sólo un teórico especulativo, sino que
demostró un cierto saber práctico: construyó un mapa de las tierras conocidas
en su época, un globo celeste y un reloj solar.
Anaximandro creía que la respuesta de Tales al problema del argé. O sustancia
primera de la que provienen todas las cosas, era ilógica: es absurdo suponer
que las cosas de naturaleza seca (el fuego, por ejemplo) provienen del
elemento húmedo, que es su contrario. Así, pues, para solucionar este
problema imaginó que todas las cosas provenían de una sustancia eterna,
completamente indeterminada, es decir, que no tenía ninguna cualidad
definida, y que, por tal razón, podría llegar a adquirir cualquier determinación,
podría convertirse en cualquiera de las cosas de este mundo. A esta sustancia
indeterminada le llamó apeirón. Los primeros intérpretes concibieron el apeirón
como el fondo infinito e inagotable del que todo se nutre.
La concepción de Anaximandro se conoce en filosofía con el nombre de
monismo (de monos, uno) porque imagina que todas las cosas de este mundo
provienen de una única realidad de fondo: el apeirón.
Para Anaximandro, las cosas del mundo se engendran a partir del apeirón y,
cuando mueren, vuelven al apeirón. Ahora bien, este continuo engendrarse y
perecer hace que algunas cosas dominen sobre otras, lo que, para
Anaximandro, es una injusticia cósmica (una adikía). Además de esto, creyó
que, como compensación, existe una justicia cósmica (una dike) que
restablecerá tarde o temprano el equilibrio, con lo que desaparecerá la
injusticia. Esta noción de la justicia cósmica prefigura la idea de que la
naturaleza está dominada por leyes, idea que tendrá fructíferas consecuencias
para el pensamiento científico.
Intuyó también, adelantándose a su época, una de las ideas básicas de la
filosofía del siglo XIX: la de que la especie humana procede por evolución de
otras especies inferiores. En efecto, Anaximandro considero que los
antepasados de los hombres fueron peces y, en consecuencia, poco a poco,
éstos se acostumbraron a vivir en tierra.
Anaxímenes (588-534 a. de C.)
Era discípulo de Anaximandro y también ciudadano de Mileto. Para
Anaxímenes, el principio de todas las cusas naturales era el aire. Opinó esto al
concebir que el aire es aquello que permite existir a todos los seres vivos. Para
él, el aire era el fluido vivificador. El aire es lo que da origen a la vida, lo que
hace que tenga un alma (alma viene del latín anima, que. a su vez, proviene
del griego uñemos, aire),
La escuela de Éfeso
Heráclito (536-470 a. de C.)
Nació en Éfeso (Jonia). Se saben muy pocas cosas de su vida. Parece ser que
era de familia acomodada, incluso aristocrática. De carácter retraído, se retiró a
vivir solo a las montañas, donde se dedicó a la meditación, alimentándose de
hierbas.
Se le atribuye un libro, que lleva el mismo título que los de la mayoría de
presocráticos (Sobre la naturaleza), escrito en un estilo premeditadamente
enrevesado, de oráculo o adivino, hecho en forma de aforismos o refranes
breves. La dificultad de la comprensión de esta obra le valió el sobrenombre de
«el oscuro».
Heráclito consideraba la realidad como algo esencialmente móvil y fluyente, en
devenir.
Expresó esta idea metafóricamente: «No podemos bañarnos dos veces en el
mismo río porque sus aguas fluyen constantemente y el río deja de ser el
mismo que era antes». Todo pasa constantemente de un estado a su contrario,
de la vida a la muerte, de lo seco a lo húmedo, etcétera. Todo cambia, pero no
de forma anárquica, sino siguiendo un orden que impone la Ley (Logos). Para
Heráclito, el origen de esta realidad en flujo continuo es el fuego. («Este
cosmos no fue hecho por dioses o por hombres, sino que siempre fue, es y
será, al modo de un fuego eternamente viviente, que se enciende y se apaga
con medida».) De este fuego surgen los cuatro elementos básicos (aire, agua,
fuego y tierra) que combinados constituyen todas las cosas del cosmos. La
combinación de los cuatro elementos se produce mediante un enfrentamiento,
una lucha. Así, para Heráclito, la lucha era una idea necesaria para la creación
de la realidad. Esto le indujo a alabar el concepto de la guerra, y no sólo en un
plano filosófico, sino también en un plano sociológico: en la sociedad, la guerra
es buena porque decide qué hombres son los hombres superiores y qué
hombres deben ser tratados como esclavos.
La escuela de Elea
Jenófanes (570-480 a. de C.)
Nació en Colofón (Jonia) y llevó una vida errante, de rapsoda y poeta, hasta
establecerse en Elea, donde fundó una escuela filosófica. Era un hombre de
mentalidad independiente; sus viajes le enseñaron a pensar por cuenta propia,
con un sentido crítico y antidogmático.
Jenófanes fue el primer teólogo de la historia de la cultura, el primero que trató
el problema de Dios. Criticó a los dioses de la mitología griega porque estaban
cortados en patrón humano, pareciéndose demasiado a los hombres. Y, si bien
no llegó a una concepción monoteísta (creencia en la existencia de un solo
Dios), sí creyó en una especie de politeísmo jerarquizado (hay varios dioses,
pero uno de ellos es superior a todos los demás).
Jenófanes se rebeló contra la concepción de la cultura como un don de la
divinidad y dijo: «Los hombres lo han conseguido todo mediante sus esfuerzos
inquisidores». También se enfrentó con la escala de valores tradicionales que
daban lugar preeminente a la fuerza; afirmó que la sabiduría es superior a la
fuerza, la belleza y la destreza.
Parménides (540-470 a. de C.)
Era de la misma ciudad de Elea. Parece ser que fue discípulo de Jenófanes,
pero como filósofo puede considerársele como muy superior. Se dedicó a
cuestiones políticas, dando leyes civiles a su ciudad natal. Lo que se conserva
de su obra se halla en un extenso poema titulado Sobre la Naturaleza.
La preocupación de Parménides no fue tan naturalista o física como la de sus
predecesores. Con él, nace una nueva disciplina filosófica: la Metafísica, o
ciencia que estudia el ser. El ser es la única cualidad que tienen en común
todos los objetos del mundo; unos son blancos, otros negros; unos suaves,
otros rugosos; unos circulares, otros rectos, pero todos los objetos son, todos
poseen la cualidad de ser.
Las características especiales que según Parménides tiene e! ser (el ser es
único, inmóvil, eterno, continuo etcétera) hacen que el concepto de ser se
aproxime al concepto de Dios.
Zenón de Elea (siglo V a. de C.)
También era de Elea. Parece ser que fue el Discípulo predilecto de
Parménides. Gracias a él, la escuela eleática recibió aquella forma típica que
se ha conocido con el nombre de erística o dialéctica. La erística (de éris,
lucha) es el arte del diálogo, de la disputa filosófica, de la argumentación.
En la escuela eleática se dio más importancia a los resultados de la
argumentación abstracta que a tos testimonios de los sentidos (racionalismo
epistemológico). Así, por ejemplo, Zenón negó la existencia del movimiento
porque conceptualmente, mentalmente, es imposible imaginárselo, dado que el
espacio es divisible en un número infinito de puntos, y para moverse de un
punto a otro habría que atravesar infinitos puntos, lo cual es imposible.
La escuela Pitagórica
El primer problema que se presenta al estudiar esta escuela es la verosimilitud
de la existencia de un personaje llamado Pitágoras. Algunos estudiosos
consideran que fue un individuo realmente existente, que nació en Samos
(¿570-496 a. de C.?), ciudad de la que emigró por las dificultades que le
causaba el gobernante Polícrates, estableciéndose en Cretona (Italia) cuando
tenía 40 años. En esta ciudad desplegó su principal actividad matemática y
filosófica, fundando una escuela.
Parece ser que Pitágoras no escribió nada, pero supo reunir a un grupo de
hombres sabios, con los que realizó investigaciones filosóficas, a la vez que
fundó una especie de comunidad con una estructura religioso-científica,
fuertemente impregnada de ascetismo y misticismo. El estudio de la
matemática fue considerado como un medio de perfeccionamiento espiritual.
La sociedad pitagórica fue un movimiento continuador de una religión primitiva;
el orfismo, una religión pagana en la que se rendía culto al dios Dionisos
(Baco), dios del vino y de la sangre, en cuyo honor se realizaban frecuentes
orgías.
Históricamente cabe distinguir dos corrientes pitagóricas distintas: el círculo
pitagórico antiguo y el círculo pitagórico nuevo.
El Antiguo Círculo Pitagórico es el grupo que el mismo Pitágoras fundó en
Cretona. A este grupo pertenecieron una serie de sabios, entre los que
podemos destacar a Alcmeón de Crótona, descubridor del cerebro como
órgano central de la vida psíquica, y a Filolao, que supo, anticipándose a su
época, que la tierra no ocupa el lugar central del cosmos. Esta primitiva secta
se deshizo en la segunda mitad del siglo V a. De C. por razones políticas: los
demócratas en el poder los expulsaron por sus ideas aristocratizantes y
autoritarias.
Una vez expulsados de Cretona, los pitagóricos se establecieron en Tárente,
formando el Nuevo Círculo Pitagórico. Este se subdividió en dos grupos: los
acusmáticos, ascetas pordioseros que seguían al pie de la letra los
supersticiosos preceptos prácticos, y los matemáticos, interesados por las
ciencias y las artes, particularmente la música, la geometría, la medicina y la
astronomía.
En la sociedad pitagórica se admitían en plena igualdad de derechos a
hombres y mujeres; la estructura de la propiedad era comunitaria, lo mismo que
la forma de vida. Cuando la secta realizaba algún descubrimiento científico o
matemático, se consideraba como un hallazgo colectivo o se le atribuía a
Pitágoras, aún después de su muerte. Estos descubrimientos eran propiedad
de la escuela y no podían ser revelados al vulgo.
La importancia de los números
Para los pitagóricos, los números eran la esencia misma de realidades tan
heterogéneas como el cielo, el matrimonio y la justicia.
Anteriormente, los griegos habían representado los números con letras del
alfabeto. Los pitagóricos los representaron con puntos, estableciendo una
estrecha relación entre matemáticas y geometría. El 1 era el punto, el 2 la
línea, el 3 el plano o el triángulo y el 4 el cuadro o el sólido.
La teoría pitagórica del número implicó que se considerase que la naturaleza
es un todo bien organizado y estructurado, que existía una legalidad cósmica
subyacente a los fenómenos naturales. Dos ideas que, a partir de esta teoría,
adquirieron plena importancia, son las ideas de armonía y proporción, que
influyeron en múltiples aspectos de la vida griega: la poesía, la retórica, la
arquitectura, la religión, la ética, etcétera.
La influencia del pitagorismo ha sido inmensa. En Platón, San Agustín, Santo
Tomás de Aquino, Descartes, Spinoza, Leibniz, Hegel, etc., aparece esa
mezcla de religión y razonamiento, de misticismo y lógica. Esta mezcla dio
origen a la teología intelectualizada de Occidente, distanciándole del profundo
misticismo contemplativo, metafísico e introspectivo de las civilizaciones
orientales.
Los pluralistas
A esta escuela se la denominó así para distinguirla de las anteriores, que eran
monistas (del griego monos, uno). Los pluralistas creían a diferencia de los
monistas, que la realidad se origina a partir de la conjunción de varios
principios y no a partir de un solo principio o argé. Los principales pensadores
pluralistas fueron: Empédocles, Anaxágoras, Leucipo y Demócrito.
Empédocles de Agrígento (492-430 a. de C.)
Fue un personaje muy extraño, mezcla de poeta, adivino y filósofo. Ejerció
entre sus contemporáneos una fascinación enigmática. Creyéndose inmortal,
se arrojó al cráter del volcán Etna, muriendo abrasado. Sus dos obras
conocidas son Las Purificaciones y Perifiseos, escritas en verso y de las que
sólo se conservan algunos fragmentos.
Para Empédocles, todo lo que existe se ha formado por combinación y mezcla,
en determinadas proporciones. De las cuatro sustancias fundamentales: agua,
aire, tierra y fuego, que son los cuatro elementos de que se compone toda
realidad y que a su vez están compuestos de partículas inmutables. El mérito
de Empédocles radicó en anticipar la idea científica de «elemento químico» (o
«constituyente último cualitativo de la realidad»). Así, un objeto concreto del
mundo empieza a ser (unión de partículas) o deja de ser (disgregación), pero
las partículas básicas ni empiezan a ser ni dejan de ser; son eternas e
indestructibles. De esta forma prefiguró otra idea científica que más tarde se
tradujo como Ley de conservación de la materia (la materia no se crea ni se
destruye; sólo se transforma), elaborada por Lavoisier.
Junto a estos cuatro elementos, y para explicar el origen del movimiento que
los pone en contacto y Justifica su combinación, Empédocles introdujo la idea
de «fuerza», pero con una envoltura religiosa. Hay dos tipos de fuerzas divinas:
una agregadora o Filia (el amor) y otra disgregadora o Neikos (el odio). Estas
dos fuerzas dominan alternativamente, sucediéndose una a otra en un proceso
cíclico, y así el mundo se va formando (dominio del amor) y destruyendo
(dominio del odio) en un movimiento eternamente repetido. La evolución del
cosmos sería un eterno retorno.
Para Empédocles, en el origen de los tiempos, en el albor de la formación del
mundo, el predominio del amor hizo que las cosas se unieran
indiscriminadamente unas con otras y así se formaron multitud de seres
monstruosos y deformes, de los que sólo sobrevivieron los más aptos, que son
las especies existentes en la actualidad. Los seres humanos eran ambiguos,
hermafroditas y estériles; en ellos cohabitaban dos principios: uno masculino y
otro femenino; el odio separó estos dos principios y el amor humano emprendió
una búsqueda desesperada de la otra mitad de uno mismo para retornar a la
unidad primigenia, en la que hombre y mujer eran una y la misma cosa.
Anaxágoras de Klazomenes (500-428 a. de C.)
Expuso sus doctrinas en la Atenas de Pericles, de donde tuvo que huir a la
muerte de éste, acusado por el vulgo de ateísmo y de falta de respeto a la
religión tradicional.
Para Anaxágoras, la realidad no se compone tan sólo de cuatro elementos,
sino de infinitos elementos cualitativamente distintos, de las partes
pequeñísimas de que están hechas todas las cosas a las que llamó
homeomerías o spérmata (gérmenes). En cada cosa material hay infinitas
spérmata, pero la cosa toma aspecto exterior de la spérmata más abundante
en ella. La formación de las diversas cosas las explicó por la unión de las
homeomerías y el cambio de una cosa en otra por una reestructuración de las
homeomerías que la componen.
Las cosas, pues, aunque estén formadas por los mismos constituyentes
últimos, eran para Anaxágoras diferentes entre sí, porque estos constituyentes
se agrupan en distintas formas, según la posición que ocupan.
¿Y así, la diferencia entre toda? las cosas no es una diferencia material
cualitativa, sino una diferencia formal cuantitativa. Las cosas son distintas
porque es distinta su disposición o estructura interna.
Anaxágoras introdujo la idea del Nous o Mente Universal, que es una especie
de sustancia espiritual, un principio divino que combina las infinitas
homeomerías causando la multiforme variedad de lo existente.
Los atomistas: Leucipo y Demócrito
El fundador de la escuela atomista fue Leucipo (460-370 a. de C.), pero su obra
está mezclada con la de su discípulo y continuador Demócrito (460-370 a. de
C.) hasta un punto en que es difícil deducir cuál es la aportación personal de
cada uno. Normalmente, se estudian sus ideas como si fueran expresión de un
solo pensador.
La concepción del mundo de los atomistas es profundamente materialista: no
admiten ningún principio espiritual, todo es materia, incluso el alma humana,
Para los atomistas, los principios últimos de todas las cosas eran los átomos
(los indivisibles). Los átomos se diferencian de las homeomerías en que no son
sustancias con cualidades distintas, sino sustancias homogéneas; lo que
diferencia unos de otros es una serie de aspectos cuantitativos, como la forma,
el tamaño, el peso, etcétera.
Los átomos son impenetrables, pesados, eternos, indestructibles, ocupan un
lugar del espacio en el seno de una especie de no ser o nada relativa que es el
vacío. Los átomos son infinitos en número: no tienen cualidades materiales de
ninguna clase que los distingan entre sí: todos son de la misma naturaleza,
pero con una enorme variedad de formas distintas, que les hacen aptos para
engarzarse, para complementarse unos a otros formando las múltiples formas
aparentes de lo real.
Los aspectos cualitativos de las otras realidades no atómicas, tales como el
sabor, el color, el calor, etc., constituyen algo que, según los atomistas,
pertenece no tanto al objeto físico cuanto al sujeto que los percibe. Esta opinión
de que la apariencia de las cosas se ve afectada por la subjetividad humana se
conoce en filosofía con el nombre de subjetivismo.
Para explicar el movimiento de los átomos, Leucipo y Demócrito no recurrieron
a principios espirituales exteriores a la materia (como Filia, Neikos, Nous, etc.),
sino que su explicación es puramente materialista. Los átomos se mueven
porque son pesados y están en el vacío; es decir, su movimiento es una caída,
y en esta caída a distintas velocidades se produce la unión de unos con otros,
formándose así la totalidad de lo existente.
Los sofistas
Con el término «sofistas» se designa a un grupo de eminentes personalidades
de la cultura y la filosofía griegas que vivieron en el siglo V a. de C. En la
actualidad el término «sofista» tiene un valor semántico esencialmente
negativo, debido a la tradición iniciada por los tres grandes clásicos de la
filosofía griega (Sócrates, Platón y Aristóteles). En realidad, en su origen, el
término sofista significaba sabio, hábil, competente, y era en este sentido que
lo usaban quienes lo ostentaban.
Los orígenes del movimiento sofístico están estrechamente relacionados con el
vasto cambio político y social que, después de vencer a los persas, implantó en
Grecia regímenes democráticos (salvo Esparta). La democracia ateniense era
una democracia directa, no representativa (como las actuales); es decir, todos
los ciudadanos tenían la posibilidad de participar directamente en las
decisiones públicas, a través de las frecuentes asambleas populares y
tribunales públicos convocados. En estas intervenciones públicas, la posibilidad
de hacer prevalecer las propias tesis dependía única y exclusivamente de la
capacidad expresiva, retórica. Y aquí intervinieron los sofistas: su principal
función (función que realizaban en forma de profesores ambulantes y cobrando
un sueldo) consistía en enseñar un nuevo arte: la erística (de eris, lucha),
concebida como el arte de persuadir y argumentar en forma dialéctica; la
erística era un procedimiento retórico, discursivo, que enseñaba la capacidad
de sostener indiferentemente el pro y el contra de cualquier tesis, sin
preocuparse de la verdad o la falsedad de lo defendido.
Aunque los sofistas explicaban sus técnicas y procedimientos a todo aquel que
tuviera dinero para pagarlo, su objetivo pedagógico primario no era tanto formar
al pueblo como educar a los que debían ser caudillos de ese pueblo.
Para conseguir sus objetivos, los sofistas se dedicaron a estudiar
profundamente toda una serie de cuestiones gramaticales y lingüísticas.
El lenguaje adquirió con ellos el carácter de instrumento. Enseñaron a los
jóvenes atenienses a considerarlo como si fuese un arma, con un objetivo casi
agresivo, que consistía en la mayoría de los casos en convencer a los demás
para ocupar uno mismo puestos sociales de responsabilidad.
En política, los sofistas fueron los fundadores de la demagogia (conducción del
pueblo) y la psicagogia (conducción de almas); en teoría del conocimiento
fueron los fundadores del escepticismo (doctrina que niega la posibilidad del
conocimiento).
Con los sofistas, el hombre y las cosas humanas pasaron al primer plano de la
problemática filosófica. Eran humanistas; creían que el único saber que merece
realmente tal nombre es el saber práctico, útil para el hombre. Desde esta
perspectiva, rechazaban la filosofía de la naturaleza de los primeros
presocráticos.
A partir de sus críticas, los sofistas fundaron el subjetivismo o relativismo («la
verdad de la cosa conocida es relativa al sujeto que la conoce»). Este
relativismo subjetivista lo expresó perfectamente Protegerás (480- 410 a. de
C.): «El hombre es la medida de todas las cosas».
Los sofistas fueron individuos cosmopolitas, apartidas, que viajaron
frecuentemente por todo el mundo conocido. En este continuo viajar conocieron
gran cantidad de costumbres y leyes, lo que les llevó a rechazar la idea
imperante de que la ley era algo eterno y universalmente válido. Los sofistas
fueron, en este punto, convencionalistas, no naturalistas.
Sócrates, Platón y Aristóteles fueron unos declarados antisofístas. Aristóteles ni
siquiera los consideró en sus escritos y Platón habló siempre de ellos como
hombres prácticos, como activistas políticos, pero no como pensadores
teóricos, como filósofos, tratándoles siempre despectivamente.
LA FILOSOFÍA CLÁSICA GRIEGA
Sócrates (469-399 a. de C.)
Nacido de padre escultor y madre comadrona, fue un buen ciudadano de su
patria natal, Atenas, a la que sirvió como soldado en varias batallas de la
guerra del Peloponeso. Sin embargo, jamás quiso participar en actividades
políticas, por impedírselo sus convicciones filosóficas. Al final de su vida se
presentó contra él la acusación de no creer en los dioses de la ciudad y
corromper a la Juventud; fue considerado culpable y se le condenó a suicidarse
bebiendo cicuta. Su discípulo Platón haría más tarde, la apología del sereno
comportamiento de Sócrates frente a la muerte.
Los restos conservados de las obras que nos hablan de Sócrates (los diálogos
de Platón, Antístenes y Esquines) difieren en muchos aspectos concretos, pero
todos ellos están orientados a ensalzar la personalidad del maestro.
El punto de partida de la filosofía socrática es el problema moral, la
autoconciencia ("conócete a ti mismo»). Desarrollando esta idea. Sócrates se
preocupó fundamentalmente por problemas éticos y procuró investigar
conceptualmente la esencia permanente de lo justo, lo bueno, lo bello, etc. Sus
investigaciones revisten la forma de preguntas sobre conceptos generales de
carácter moral: ¿Qué es la piedad?, ¿qué es el valor?, ¿qué es el autodominio?
Sócrates conoció muy a fondo las obras de los antiguos filósofos de la
naturaleza, pero trasladó su interés del universo al ser humano.
El conocimiento, auténtico para Sócrates, no era el saber por el saber, el saber
teórico, sino la techne o saber práctico, que tiene una utilidad para el hombre; y
enceste sentido la medicina era el saber por excelencia.
Sócrates pretendió fundamentar un conocimiento riguroso, hacer de la filosofía
una ciencia. Para ello defendió el método inductivo y condenó el método
deductivo de los presocráticos: no hay que partir de afirmaciones sobre la
totalidad del mundo, como hacen los primeros filósofos, sino observar
empíricamente, experimentalmente, la realidad concreta y. en todo caso,
inducir de aquí leyes o principios generales.
Platón (428-347 a. de C.)
Nació en Atenas. Su verdadero nombre era Aristocles; el de Platón, con que ha
pasado a la posteridad, era un mote que significaba «ancho de espaldas».
Perteneció a una clase social acomodada, lo que le permitió recibir una
educación esmerada en diversas materias: literatura, gimnasia, músicapintura, poesía, etc. Inició sus estudios filosóficos con Cratilo, discípulo de
Heráclito y los perfeccionó, a partir de los 20 años. Con Sócrates- Fue discípulo
de éste y recibió su influencia hasta un punto tal que ha sido difícil decidir
cuáles de sus aportaciones filosóficas son originales y cuáles son obra de su
maestro.
Tras la muerte de Sócrates. Platón se dedicó a viajar por el mundo conocido:
en Egipto y Cirené entró en contacto con el saber matemático y astronómico de
su tiempo: en la Magna Grecia pasó algún tiempo con una secta de pitagóricos,
y en sus tres viajes a Sicilia trató de crear un régimen político en el que
experimentar sus teorías sobre el Estado, expuestas en su obra La República,
pero sin conseguir resultados positivos.
A los 40 años de edad fundó la Academia, primera escuela filosófica
organizada en plan pedagógico. Enseñó en ella durante veinte años los más
diversos temas: filosofía, matemática, astronomía, zoología, etcétera.
Los años de la Academia fueron los de su madurez creadora y durante ellos
escribió sus obras más importantes: una Apología de Sócrates, 34 diálogos y
13 cartas (quizás apócrifas). La obra platónica es una de las primeras obras
verdaderamente filosóficas por lo que tiene de saber totalizador y universal, ya
que trata de los más diversos aspectos de la cultura: político, ético, físico,
astronómico, teológico, etcétera.
Platón sufrió la influencia de cuatro grandes filósofos: de Pitágoras adoptó
elementos del orfismo: la tendencia religiosa, la creencia en la inmortalidad del
alma humana, el tono sacerdotal: de Parménides aprendió que la auténtica
realidad es eterna, inmutable e intemporal, y que el cambio que parecen captar
nuestros sentidos corporales no es más que eso: apariencia, ilusión; de
Heráclito extrajo la visión crítica del inmovilismo parmenídeo: el dinamismo
heraclíteo afirma que nada es permanente («todo fluye») en el mundo sensible;
de Sócrates, la preocupación por problemas éticos y sus ideas políticas
aristocráticas y antidemócratas.
Platón expuso su doctrina en forma de diálogos, tal vez porque en su época era
preponderante la forma de comunicación oral y porque el diálogo es la forma
de escribir que más se asemeja a la de hablar.
Para Platón, el mundo inteligible es el único mundo que se merece
verdaderamente el nombre de realidad. Pues él es quien proporciona las
formas, tas ideas, los modelos, de los cuales el mundo natural no es más que
mera copia, reflejos, imitación. Por otra parte, la distinción platónica entre un
mundo sensible y un mundo inteligible lleva aparejada la distinción entre
conocimiento empírico (sensitivo) y conocimiento intelectivo.
Platón fue el autor de la primera utopía política de la historia de la cultura. Una
utopía es la descripción de una imaginaria sociedad perfecta, con un carácter
programático (es decir, con la intención de que la sociedad existente se rija, en
un plazo mayor o menor de tiempo, por los principios políticos enunciados en la
utopía).
La utopía de Platón se encuentra en su obra más conocida: La República. Su
planteamiento político es muy original. Se basa en su propia teoría de que la
sociedad no será perfecta hasta que los filósofos se hagan reyes o los reyes se
conviertan en filósofos. En términos actuales, diríamos que lo que nos propone
Platón es una especie de régimen de dictadura de los intelectuales (Política).
Aristóteles (384-322 a. de C.)
Nació en Estagira (región de Tracia). Fue hijo del médico de cabecera del rey
Amintas de Macedonia. A los 18 años entró en la Academia platónica, y en ella
permaneció durante dos décadas, hasta la muerte de Platón, por quien siempre
sintió una gran admiración. En el año 342 a. de C. fue llamado por el rey Filipo
de Macedonia para que se encargara de la educación de su hijo Alejandro
Magno. En el año 335 a. de C. regresó a Atenas y fundó su propia escuela: el
Liceo (así llamado por estar en la plaza de Apolo Licio), que al principio tuvo
características similares a las de la Academia, pero que con los años se
convirtió en un círculo de investigación científica y cultural. Los peripatéticos
(que así fueron llamados los componentes de la escuela aristotélica) realizaron
estudios de diversas materias y acumularon sus conocimientos enciclopédicos
en una especie de archivos.
Aristóteles dividió sus escritos en dos grandes familias:
Exotéricos: destinados a la publicidad (la mayoría se han perdido).
Esotéricos o acromáticos: usados como apuntes de clases en el Liceo, fueron
publicados casi todos tres siglos después de su muerte.
La primera época de Aristóteles es puramente platónica, tanto en la forma
como en el contenido. En su época de transición se enfrentó con algunas de
las ideas del maestro, especialmente con su teoría de las ideas, aunque
siempre con mucho respeto («Siendo Platón y la verdad igual de amigos míos,
siento el imperioso deber de colocar a la verdad por delante»). Y, por fin, ya en
su época de madurez, en el Liceo, elaboró sus propias teorías filosóficas.
La obra de este período de esplendor puede dividirse así;
Escritos lógicos: Categorías. Predicamentos, Analíticos, Tópicos, agrupados
más tarde bajo el nombre de Organon (o Instrumento).
Escritos metafísicas: ocho libros de la filosofía natural y catorce libros de la
filosofía primera o metafísica.
Escritos físicos: Sobre el cielo. Generación y corrupción, Meteorología, Historia
de los animales, del alma, De la sensibilidad. De la memoria, del sueño y la
vigilia, De la respiración, etcétera.
Escritos ético-políticos: Ética a Nicómaco. Política, Ética a Eudemo, Gran ética,
Constitución de Atenas.
Escritos estéticos: Poética, y Retórica.
La lógica, como ciencia formal del saber, nació con Aristóteles. Y con él quedó
perfectamente constituida en su forma clásica.
Las ideas lógicas más relevantes de Aristóteles se encuentran en su obra
Analíticos. En ella concibe a la lógica como un análisis, y en este sentido la
compara con la anatomía.
La lógica
Mientras la ciencia anatómica sería un análisis de los cuerpos, la ciencia lógica
sería un análisis del pensamiento o del medio con el que se expresa este
pensamiento: el lenguaje. Aristóteles descubrió que el espíritu (el pensamiento,
el lenguaje) posee una estructura interna similar a la de la materia. Así,
desmenuzó el espíritu humano y extrajo tres elementos fundamentales: el
concepto, el juicio, y el raciocinio.
El concepto es la representación intelectual abstracta de un objeto. El hombre
conoce las cosas que le rodean de una manera sensible (este monte, esta silla,
este hombre), pero tiene una facultad (abstracción) que le permite prescindir de
las características concretas y accidentales de los objetos y referirse a sus
aspectos esenciales, es decir, le permite saber qué es el monte, la silla, el
hombre, etcétera, Estos aspectos esenciales constituyen la idea, el concepto o,
en términos aristotélicos, el universal.
Aristóteles clasificó los conceptos en 10 grupos distintos: una sustancia y
nueve accidentales (cualidad, cantidad, relación, tiempo, lugar, acción, pasión,
estado, posición).
Cuando se unen dos o más conceptos para obtener un enunciado acerca de la
realidad, se forma un juicio. Un juicio es verdadero cuando se adecua con la
realidad, es decir, cuando los dos conceptos que se unen en el juicio se
refieren a dos objetos efectivamente relacionados en la realidad.
El raciocinio es aquella forma lógica que consiste en inferir un juicio
desconocido a partir de otros conocidos. Hay dos clases de raciocinios: los
deductivos (que a partir de una afirmación universal deducen una afirmación
particular).
Y los inductivos (que siguen el camino inverso: van de la recolección de datos
particulares a la afirmación de una verdad universal). Para Aristóteles, la forma
perfecta de raciocinio es el deductivo, al que llamó silogismo. La teoría de los
silogismos (descripción de su forma, de su empleo, de sus leyes, etcétera)
constituye el núcleo de la lógica aristotélica.
La metafísica
Aristóteles es también el fundador de una nueva disciplina filosófica: la
metafísica.
El objeto fundamental de estudio metafísico es el ser de las cosas. Las distintas
ciencias particulares estudian los objetos de este mundo ateniéndose a
características específicas de ellos; así, la física estudia los objetos en cuanto
móviles, la química, en cuanto mutables y reorganizables, la biología, en
cuanto vivos, etcétera. La metafísica estudiará a los objetos en cuanto
existentes y la definió así: «Es la ciencia del ser en cuanto ser». Ahora bien,
Aristóteles no dedicó su atención a todos los seres, sino a aquel ser modélico,
arquetípico que es Dios, el más perfecto de todos los seres. Así, la Metafísica
se convirtió en una especie de teología. Las concepciones éticas de Aristóteles
no son muy originales, limitándose a ser la formulación en términos filosóficos
de las ideas dominantes sobre el ethos (comportamiento, conducta) en la
sociedad de su tiempo.
La política
La obra política de Aristóteles es una de las primeras grandes
sistematizaciones de la política de los pueblos. En ella partió de un enorme
cúmulo de material empírico (el estudio de las constituciones políticas de la
mayoría de las ciudades conocidas de su época). Para él, el Estado es la forma
superior de las comunidades humanas. La primera institución natural es la
familia (basada en dos tipos de relaciones: marido-mujer, amo-esclavo). La
unión de varias familias constituye una aldea y la unión de varias aldeas
autónomas y autosuficientes constituye un Estado, una polis. Según Aristóteles
el hombre sólo puede realizarse plenamente en el interior de una comunidad
política. Lo definió como zoon politíkón, o sea, «animal político».
En cuanto a las formas de gobierno, delineó especulativamente un cuadro de
regímenes políticos posibles, considerando tres formas de gobierno aceptables
y tres formas condenables:
Monarquía: Gobierno de uno solo.
Aristocracia: Gobierno de los mejores
Democracia: Gobierno de la multitud
Todos estos sistemas deben buscar el bien y la felicidad de todos. Cuando esto
no ocurre aparecen perversiones o degeneraciones:
La Monarquía da lugar a la Tiranía
La Aristocracia da lugar a la Oligarquía
La Democracia da lugar a la Demagogia
Aristóteles insinúa que el gobierno ideal puede ser el de una clase intermedia.
De cualquier forma, afirma que cualquier forma de gobierno es buena si
respeta la felicidad, el bien y utilidad de todos.
Un gobierno que actúe correctamente ha de cumplir:
Esté de acuerdo con la naturaleza humana.
Esté de acuerdo con las condiciones históricas concretas que se dan.
EL PENSAMIENTO FILOSÓFICO CRISTIANO
El cristianismo no es una filosofía propiamente dicha, sino una religión que, tal
como queda expresado en los dogmas de la Iglesia católica, «fue fundada por
Jesucristo, hijo de Dios, enviado por Dios Padre como Mesías, para salvar a los
hombres según habían anunciado los profetas hebreos».
La designación de cristianos se dio por primera vez a los habitantes de
Antioquía que profesaban la fe predicada por San Pablo.
La religión cristiana se convirtió en menos de tres siglos en la religión oficial del
Imperio romano y se arraigó tan profundamente a los más esenciales aspectos
de la cultura occidental que logró sobrevivir a la caída del propio imperio y
convertirse en el substrato básico de la civilización occidental.
Los pensadores que aportaron los elementos decisivos para permitir que el
cristianismo se configurara como religión oficial del Estado fueron los
apologetas, así llamados porque en sus escritos se dedicaron a hacer la
apología del cristianismo.
La esencia definitoria del cristianismo como religión es su monoteísmo
trascendente (la creencia en la existencia de un solo Dios, que es algo
completamente distinto del hombre y del mundo, algo que los trasciende a
ambos). Esta concepción monoteísta, cuya proyección actual es casi universal
entre todos los creyentes, fue en un principio elaborada exclusivamente por la
civilización israelita, que la consideraba verdad exclusiva y revelada
directamente por Dios.
En la historia sagrada del pueblo judío se encuentra el núcleo básico de la
gestación del cristianismo.
Los filósofos cristianos adoptaron muchas ideas del pensamiento griego
pagano. De los escépticos epicúreos adoptaron argumentos contra el
politeísmo. Aristóteles les prestó una serie de conceptos filosóficos (como los
de sustancia, causa, materia) que eran imprescindibles para tratar los delicados
y sutiles temas de la teología cristiana (la creación del mundo a partir de la
nada. la Santísima Trinidad, etc.). La moral estoica aportó algunos elementos a
la ética cristiana. El platonismo, con su desprecio del mundo sensible, su
creencia en la inmortalidad del alma humana y la afirmación de la existencia de
un mundo celestial fue una prefiguración del cristianismo, refiriéndose a Platón
dijo San Agustín: «Nadie se ha acercado tanto a nosotros».
Podemos dividir la filosofía cristiana medieval en dos grandes periodos: la
Patrística y la Escolástica.
LA PATRÍSTICA: Es el conjunto de dogmas elaborados por los Padres de la
Iglesia y los concilios.
San Justino fue el primero que trató de conciliar la fe reveladora y el
conocimiento filosófico racional. Para él, la filosofía era el don más precioso
que Dios había hecho a los hombres, por lo tanto no podía haber contradicción
entre filosofía y religión.
Tertuliano (siglos II y III) dio una respuesta menos sensata, más fideista y
religiosa, al anunciar Credo quia absurdum («Solo creo lo que es absurdo, lo
que repugna a la razón»).
Lactancio fue un ecléctico: consideraba que tomando las verdades parciales
que se contenían en las especulaciones de los filósofos griegos se obtendría
un corpus doctrinal filosófico racional equiparable con la verdad teológica
revelada.
El gnosticismo fue una fusión de elementos escriturísticos y cristianos, griegos
y orientales (pitagorismo, platonismo, judaísmo y teosofía esotérica se
entremezclaban). Trataron los mismos temas que la ortodoxia cristiana, pero
cayeron en la herejía. Sus principales aportaciones fueron: sustitución de la fe
por una forma de conocimiento racional llamada gnosis afirmación de un
dualismo entre Dios y la materia, posteriormente mejor desarrollado por otra
herejía: el maniqueísmo desarrollo de la noción de Dios desconocido (el Dios
del Antiguo Testamento no es el verdadero Dios, pues ha creado la materia,
origen del mal).
Orígenes (184-253) abogó por la utilización de pruebas filosóficas en la
especulación teológica; como Parménides. Creía que la esférica era la forma
perfecta y en un texto, afirma que los bienaventurados entrarán en el cielo
rodando porque habrán resucitado en la más perfecta de las formas, la
esférica.
El Concilio de Nicea, celebrado el año 325, estableció las verdades de la
religión cristiana en forma dogmática e indiscutible. A partir de este momento,
la especulación de los Padres de la Iglesia fue limitada, no pudiendo
enfrentarse a ninguno de los dogmas y verdades oficialmente decretadas, salvo
riesgo de excomunión. Esta intangibilidad del dogma impuso la definición de la
filosofía como ancilla theologiae, es decir, como esclava de la filosofía de Dios,
como sierva de la teología.
San Agustín (354-430)
San Agustín nació en Tagaste, una ciudad del norte de África, de padre pagano
y madre cristiana (Santa Ménica). Durante su juventud llevó una vida
turbulenta, entregado a diversiones y placeres de carácter pagano.
El problema filosófico que impulsó a San Agustín hacia el cristianismo es un
problema que ha movido a grandes sabios de todas las épocas: la búsqueda
de la felicidad. El opinó que la verdadera felicidad consiste en la sabiduría, por
lo que toda su vida consistió en una larga investigación de la verdad.
Fue un escritor sorprendentemente prolífico: parece ser que escribió casi 500
obras, de las que las más importantes entre las conservadas son: Las
confesiones, La verdadera religión, La ciudad de Dios, La inmortalidad del alma
y La ciencia cristiana.
En la filosofía agustiniana, el punto de partida de toda reflexión filosófica es la
existencia indudable de un Yo filosofante. No se puede ser un escéptico
consecuente, no se puede dudar de todo, pues para dudar siempre hay que
presuponer que existe un sujeto que duda. En la duda y el error encuentra San
Agustín la seguridad de la propia existencia- La siguiente frase expresa estas
ideas: si enim fallor, sum (si yerro, existo).
La filosofía agustiniana no es más que la formulación cristiana del pensamiento
platónico. Para Platón existían dos clases de realidades: la sensible y la ideal, y
las cosas naturales participaban de la realidad superior de las Ideas; para San
Agustín, las verdades particulares que adquiere el hombre mediante la ciencia
participan de las verdades absolutas divinas.
San Agustín fue uno de los fundadores de la disciplina filosófica llamada
filosofía de la historia, germen de lo que en la actualidad es la sociología.
Cuando Roma fue saqueada por los bárbaros de Alarico, los paganos
atribuyeron el desastre al abandono de los antiguos dioses y dieron la culpa al
cristianismo; decían los paganos que mientras Júpiter fue venerado, Roma fue
poderosa, pero que al ser abandonado por los emperadores cristianos, Júpiter
dejó de protegerla. San Agustín intentó responder a este ataque escribiendo su
más monumental obra: La ciudad de Dios, que poco a poco fue superando el
proyecto original hasta convertirse en una completa concepción cristiana de la
historia.
La idea fundamental de La ciudad de Dioses que la historia tiene un sentido, se
dirige hacia una meta, señalada por la providencia divina. Los pueblos pueden
rebelarse contra este destino que les impone la providencia divina y formar una
«ciudad terrena», pero pueden también acatar esta ley histórica que les señala
Dios y constituir así la «ciudad divina».
Estos dos esquemas intuitivos (la ciudad terrena y la ciudad divina) le sirvieron
a San Agustín para señalar la oposición política entre el Estado y la Iglesia.
Durante toda la Edad Media, gracias a la influencia de la Iglesia y a la debilidad
de los monarcas y emperadores. los sistemas políticos dominantes fueron
teocracias (gobiernos de inspiración divina), pero con la llegada de la reforma
protestante pasó a primer plano la doctrina contraria: el erastianismo, que
predicaba el dominio y la superioridad temporal del Estado sobre la Iglesia.
LA FILOSOFÍA MEDIEVAL: LA ESCOLÁSTICA
Por escolástica se entiende aquella parte de la filosofía de la Edad Media
europea que abarca desde la época del Imperio de Carlomagno (siglo VIII)
hasta el Renacimiento (siglo XV). El nombre de escolástica proviene del hecho
de que esta filosofía se elaboró en las instituciones eclesiásticas,
especialmente las escuelas conventuales, catedralicias o palatinas, de las que
surgieron las primeras universidades. En aquellas escuelas se enseñaron las
siete artes medievales: el trivium (las llamadas materias literarias: dialéctica,
gramática y retórica) y el quadrivium (las llamadas materias científicas:
aritmética, astronomía, geometría y música).
Revelación y Razón
Antes de la aparición de las primeras universidades las escuelas medievales
estaban divididas en dos secciones: la schola externa (que se ocupaba de las
ciencias «humanas» y estaba especializada en la formación cultural de los
seglares) y la schola interna (que se ocupaba de la teología y se especializaba
en la educación de los clérigos). Tanto en una como en otra, las enseñanzas se
impartían en dos formas: la lectio (la lección), consistente ei una clase
magistral, y la disputado (la polémica), que era una controversia entre el
maestro y los discípulos acerca de un tema filosófico.
Las dos bases fundamentales del conocimiento escolástico eran la autoridad o
revelación y la razón. La revelación se fundaba en las Sagradas Escrituras, en
las conclusiones de los concilios, en el pensamiento de los Padres de la Iglesia
y, en definitiva, en la tradición. La razón operaba en discusiones que no
pusieran en cuestión la premisa de la omnipotencia y omnipresencia divinas,
así como la elaboración de conceptos filosóficos, buscando la conciliación entre
las tesis opuestas que a veces se hallaban en el campo de la revelación. Esta
era considerada jerárquicamente superior a la razón.
Hasta San Agustín la filosofía cristiana estaba influida por el pensamiento de
Platón. Después se inició una etapa en la que la influencia de Aristóteles fue
Fundamental
Santo Tomás de Aquino (1224-1274)
También llamado Doctor Angélico, nació en el castillo de Rocasecca, en
Lombardía, cursó sus primeros estudios en la abadía de Montecassino,
ampliándolos en la universidad de Napóles, en donde conoció a San Alberto
Magno, quedando profundamente impresionado por el pensamiento de éste.
Ingresó en la orden dominica y enseñó teología en París, y posteriormente, en
numerosas ciudades italianas (Agnani, Orbicto, Roma). Falleció cuando se
dirigía al concilio de Lyon, al que había sido invitado por el Papa Gregorio X.
A pesar de que el tomismo es presentado general mente como una vía
filosófica absolutamente distinta del pensamiento de San Agustín, ello no es
correcto, pues ambos parten del mismo fundamento común, es decir, las bases
del cristianismo. Lo que sí cabe señalar es que mientras San Agustín considera
como predominante el «orden del corazón». Santo Tomás coloca como
prioritario el «orden del intelecto». Resumiendo: en el primero, domina el
sentimiento; en el segundo, la razón, pero siempre aceptando la superioridad
de la revelación providencial.
Por otra parte, en Santo Tomás hay un gran esfuerzo por asimilar las ideas de
Aristóteles, presente en toda su obra, aunque mezcladas con las aportaciones
filosóficas de los antiguos Padres de la Iglesia y recogiendo incluso alguna
influencia de los filósofos árabes. Puede añadirse que la obra tomista no fue
excesivamente original, pero sí un gran esfuerzo de sistematización del saber
que hasta entonces permanecía disperso.
FILOSOFÍA MODERNA
Comprende todas las manifestaciones del pensamiento cronológicamente
situadas entre el final de la filosofía cristiana medieval y el pensamiento final de
la Ilustración.
Este periodo se define especialmente por oposición al escolasticismo. Su
fuerza radica en su capacidad crítica, que puso en cuestión las tesis de la
escolástica. Frente al rígido esquema medieval, el pensamiento moderno se
definió a través de las características que se resumen a continuación.
Autonomía del pensar
Los filósofos modernos se resistieron progresivamente a solicitar el tutelaje y el
dictamen de los dirigentes de la Iglesia respecto a sus tesis y especulaciones.
Comenzó una auténtica lucha para liberarse del dictado del dogma teológico.
Los filósofos modernos abandonaron las reglas tenidas por indiscutibles y los
métodos universalmente aceptados, para establecer sus propias normal: de
verificación: coherencia racional, comprobación empírica, duda metódica, etc.,
rompiendo con la fidelidad a lo establecido.
Libertad de razonar
La filosofía moderna intentó forjar una nueva concepción del mundo y de la
sociedad y, aunque inicialmente no prescindió absolutamente de la influencia
religiosa, postuló la resolución de los problemas mediante la libertad de
razonamiento. Abandonó así progresivamente las verdades absolutas o
reveladas, intentando sustituir lo sobrenatural por lo natural, lo divino por lo
humano, lo celeste por lo terrenal, resolviendo zanjar definitivamente la
polémica entre la fe y la razón en favor de esta última.
Liberación individual
La nueva filosofía contribuyó a la liberación de la individualidad, de un modo
que antes sólo se produjo en la Grecia clásica. Esta contribución fue casi
simultánea a la lucha por la liberación de los grupos nacionales que pugnaban
por quebrar el imperialismo medieval. De algún modo, la filosofía moderna se
vincula al surgimiento de las nacionalidades.
La formulación científica
Otro rasgo del pensamiento moderno fue la intención de aproximar la filosofía y
la ciencia. Fue en esta época de la historia cuando comenzaron a estructurarse
las ciencias naturales, entendidas como un sistema de conocimientos
rigurosamente clasificado y verificado. El pensamiento moderno acabó
convirtiendo a la filosofía en colaboradora de la ciencia. A partir de esta época
fue frecuente que una misma persona reuniera la doble condición de científico
y filósofo. Galileo y Newton son grandes ejemplos de este cambio. que alcanzó
hasta la época contemporánea, como lo demuestra Bertrand Russell. En esta
perspectiva, los dos factores más importantes de la ciencia moderna (utilización
concreta de la experiencia del investigador y mentalidad matemática) fueron
también dos de los temas filosóficos más apasionadamente discutidos, hasta
tal punto que dio lugar a dos de las más destacadas escuelas filosóficas de la
Edad Moderna: el racionalismo, que se fundó en tos aspectos lógico-racionales
del conocimiento, y el empirismo, que afirmó la validez absoluta de la
experiencia en el ámbito del conocimiento científico-filosófico.
Laicización
La nueva filosofía planteó tres condiciones importantes que a largo plazo
resultaron decisivas: la laicización (liberalización de las costumbres respecto a
la influencia religiosa), la extra oficialidad (liberación e independencia de los
comportamientos respecto de la tutela imperial) y la sustitución del latín por los
idiomas de las distintas nacionalidades.
Los filósofos importantes dejaron de ser clérigos y sus enseñanzas dejaron de
estar respaldadas por las instituciones políticas y por la Iglesia, penetrando
hacia el pueblo a través del idioma nacional.
En general, se acostumbra a dividir la filosofía moderna en tres grandes
periodos: el Renacimiento, el Racionalismo, el Empirismo y la Ilustración.
Las disciplinas filosóficas que gozaron de mayor importancia en la Edad Media
eran la teología y la metafísica. La Edad Moderna no prescindió totalmente de
ellas e incluso se llegaron a proponer nuevas elaboraciones metafísicas como
el panteísmo de Spinoza, pero su campo de interés primordial lo constituyó la
problemática en torno a la teoría del conocimiento.
RACIONALISMO Y EMPIRISMO
El Renacimiento: ciencia y humanismo en el origen de la modernidad.
El Renacimiento hemos de entenderlo como consecuencia de la crisis del siglo
XIV que significa el fin del feudalismo y el comienzo del mundo burgués. Le
Golf afirma que esta crisis se debe al límite de la tecnología medieval
(artesanía) para responder a las nuevas necesidades que se le plantean.
Hacia 1300 o 1350 surge una crisis social por las epidemias de peste: las
gentes se refugian en los burgos produciéndose una concentración de la
población. Se estanca y paraliza la agricultura debido a esta reducción de la
mano de obra por las epidemias y las migraciones.
Ante esta situación, el régimen feudal (basado en el pacto entre el señor y el
vasallo por el cuál éste le trabaja la tierra y el señor le defiende) cae y el señor
feudal se ve obligado a comprar la mano de obra. Surge entonces la burguesía,
concepto que en un principio se refiere a los habitantes de los burgos -
ciudades- venidos del campo, que pasó a designar una nueva clase social que,
frente a la aristocracia, busca la fuente de riqueza en el trabajo, bajo la
afirmación de que el hombre vale lo que produce.
Con los finales de la crisis, la población demuestra una actitud de búsqueda y
desarrollo de los deseos de vivir. En este clima surgen una serie de
fenómenos:
Fenómeno de movilización social: el hombre comienza a pensar que la
condición social es un producto que hay que ganar.
Fenómeno vertical social: la nobleza pierde paulatinamente valor, ganándolo la
burguesía.
(Marx afirmó que es en esta época cuando surge el capitalismo. )
Las naciones modernas surgen con la burguesía y son un fenómeno burgués.
El poder de los reyes va creciendo en las ciudades, estando las monarquías
amparadas por el capital burgués. La transformación del poder y el régimen
feudal monárquico trae como consecuencia la unificación de las leyes, que
hasta entonces eran múltiples.
Un fenómeno fundamental de ésta época, y que se da preferentemente en el s
XV, es la revolución tecnológica, que tiene unas consecuencias que cambian la
historia:
El invento de la brújula, que supone una nueva posibilidad de arriesgarse más
allá del espacio conocido, abriéndose las posibilidades de los descubrimientos
y de las colonizaciones.
El telescopio, invención de Galileo, contribuye de una forma decisiva el cambio
de la concepción del mundo. El hombre se da cuenta de la infinitud del mundo
y cambia su visión geocentrista por la heliocentrista.
La pólvora, que supone la revolución militar y la muerte de las costumbres
caballerescas. Los nuevos ejércitos, basados en el poder de la artillería y
tácticas de guerra y no en el potencial de caballería, son mucho más costosos
y sólo los reyes pueden mantener ejércitos poderosos, siendo éste un factor
más que explica la pérdida de poder de los señores feudales.
La imprenta, de Gütemberg, permite el comienzo de la cultura escrita, que
hasta ahora había estado restringida a los monasterios. Se desarrollan las
Universidades, que pronto adquieren una especial importancia para la
secularización de la cultura.
El elemento que más vigorizó a la economía fue el descubrimiento de nuevos
mercados y la creación de nuevas industrias, posibilitado en parte por la caída
de los turcos. Se crean ligas comerciales en los Países Bajos y las primeras
colonias. Se crea el mercado de África y concluye el descubrimiento de
América, entrando nuevos productos y metales preciosos. Se comienza a
implantar la industria metalúrgica, relojera y cristalería, que desbancan el
predominio textil.
Todos estos cambios tecnológicos poseen una serie de consecuencias
económicas, políticas e ideológicas; pero, especialmente, un cambio profundo
de la actitud del hombre frente al mundo.
Con el Renacimiento aparece el naturalismo, que valora la naturaleza y la vida
sensible; esto hace que se dinamice el trabajo para poder gozar posteriormente
de la naturaleza. Esta actitud naturalista aumenta la curiosidad intelectual, la
valoración del lujo, los viajes, las exploraciones y todo lo que represente
contacto con lo natural. Se comienza a valorar el paisaje y a humanizar el arte.
La cultura se va haciendo progresivamente laica e independiente de la
autoridad eclesiástica y de los dogmas religiosos.
Las pruebas de este naturalismo y de su cultura laica son:
El cambio de la actitud respecto de la muerte. El sentido laico de la muerte
iguala a todos los hombres. La muerte se suele ver como un castigo, o un final
o tránsito, de ahí que haya que activar la energía para gozar lo máximo posible
de la vida.
El tema de la fama es la solución laica a la supervivencia. El hombre medieval
creía en el otro mundo; la fama, en cambio, será la forma de sobrevivir tras la
muerte en el Renacimiento.
Aparece el tema de la fortuna. El hombre medieval cree en la intencionalidad y
providencia de Dios en el mundo. En el Renacimiento la cultura se
descristianiza y aparece las ideas de fortuna y predeterminación; la suerte guía
al hombre y el azar vuelve a ocupar un papel importante.
Hay una valoración ética de la persona. El ideal de la vida no es ya seguir un
modelo -como los sabios helenísticos o los santos del cristianismo-, sino
afirmar la propia personalidad y el propio modelo de vida.
Comienza la independencia del poder político frente a los Papas, como
consecuencia del refuerzo del poder de los reyes tras la caída del régimen
político feudal. Los pensadores más importantes toman partido por la
independencia de ambos poderes; no con la intención de reforzar el poder de
los reyes, sino porque piensan en el poder de la Iglesia como espiritual y no
concreto, y, por lo tanto, independiente del Estado.
El núcleo ideológico del Renacimiento es el Humanismo, que podemos definir
como la nueva cultura que surge a partir del s XV que se centra en el hombre
(antropocéntrico) y que tiene como finalidad al hombre (antropotélico). Los
temas más importantes que desarrolla el humanismo son: El tema del sujeto y
de su libertad, la relación del sujeto con Dios, y la relación del sujeto con el
mundo y la naturaleza. El Renacimiento se va a destacar por la vuelta a los
ideales grecolatinos y por la interpretación libre de la Biblia.
Como grandes humanistas podemos destacar: Leonardo da Vinci, Tomas Moro
y Pico della Mirandola.
A ellos, sobre todo Pico, se debe la ruptura con la filosofía medieval. Así
destacamos los planteamientos:
El hombre es capaz de hacer el bien por sí mismo, frente a la naturaleza
humana corrompida de la filosofía medieval, que afirmaba que el hombre tiene
tendencia al mal.
El hombre se considera un ser autónomo, que elige libremente su destino y
acepta las consecuencias de sus actos, frente a la filosofía medieval que afirma
que el hombre sólo puede salvarse por la gracia y fe divino.
Los problemas mecánicos planteados por la nueva astronomía no podían ser
resueltos por la mecánica de Aristóteles. Los aristotélicos vieron en este hecho
una argumentación contra la nueva astronomía, pero Galileo y Newton
demolieron sus objeciones con una mecánica científica moderna y ordenada.
Rene Descartes (1596-1650)
Descartes es el padre de la filosofía moderna. Sus obras más importantes son:
Reglas para la dirección del espíritu.
Principio de Filosofía
Meditaciones metafísicas
Discurso del método
Su filosofía surge en el siguiente contexto:
Se ha producido ya una cierta ruptura con la filosofía medieval, pero no se
había planteado aún una nueva forma de entender la verdad. Esta filosofía se
va a basar en la confianza en la razón y la consideración de esta como algo
interno del individuo.
Se encuentra con el pensamiento religioso medieval, aunque ya sumido en una
gran crisis. Para Descartes la seguridad no proviene en principio de la
seguridad que nos da el pensamiento divino, ni es algo externo como el
pensamiento griego, sino que deriva de la certeza de la mente humana.
Circunstancias de carácter social-político. En esta época aparecen nuevas
clases sociales y se produce cambios muy profundos en la sociedad. Se tiene
que crear pues una forma de conocimiento acorde a los nuevos tiempos y las
necesidades de las nuevas clases sociales.
Intenta superar los 2 grandes prejuicios medievales en el tema del
conocimiento:
Autoridad de Aristóteles, cuya forma de pensamiento se basa en los
silogismos; consiste en aplicar teorías generales a casos concretos: a partir de
2 premisas (una mayor o general y otra menor) vamos obteniendo conclusiones
y ampliando el conocimiento: El hombre es un ser racional; Luis es un hombre.
Luego Luis es un ser racional. Descartes se plantea la necesidad de un nuevo
método ya que los silogismos no nos permiten avanzar, crear, ...
Unión fe-razón, es decir, la verdad obtenida a través de la razón y de la fe
coinciden.
Razón y método: el criterio de verdad.
Para Aristóteles había diversidad de ciencias, y cada una de ellas se
diferenciaba de las demás por un objeto formal propio y un método específico;
esto originaba distintos géneros del saber que, según Aristóteles eran
incomunicables. Por ejemplo: la aritmética y la geometría; la primera tiene por
objeto formal propio lo discontinuo; y la segunda, lo continuo; ambas eran
incomunicables.
Sin embargo, Descartes rechaza tal principio de incomunicabilidad de los
géneros, por considerar que el saber humano no se diversifica por la distinción
de objetos formales, pues siendo la razón una, el saber del hombre es uno sin
admitir límites interiores. En el caso de la aritmética y la geometría, la
comunicación que genialmente estableció Descartes, por medio de la
geometría analítica, hizo posible la liberación de la matemática del
sometimiento a los sentidos motivado por los planteamientos intuicioncitas de
Aristóteles.
La comunicación de todos los conocimientos, fundamentados todos en los
mismos principios, supuso el surgir de toda una forma nueva de hacer ciencia,
la ciencia moderna, y de un método único.
Además, la comunicación de los conocimientos permitió que algunos ámbitos
del saber estancados por su sometimiento al método de observación sensorial
(como la física), fuesen fecundados por procedimientos más exactos y
rigurosos. Así, la geometría analítica sustituye una concepción empírica del
espacio, por una concepción algebraica, es decir, meramente intelectual, que
propicia la liberación del pensamiento de su vinculación con lo concreto y
particular. Esta es la esencia del racionalismo cartesiano, el pensamiento
separado e independiente de lo corpóreo. Para Aristóteles hubiera sido
absurdo hablar de un espacio real no observable por los sentidos, o, al menos,
no imaginable.
Una de las premisas del pensamiento de Descartes es la sumisión a un método
cuidadosamente elegido, aunque esto no es original, pues ya en Platón hay
una gran preocupación por los asuntos de método. En Descartes nos
encontramos con 3 momentos del método:
1. El método como camino de búsqueda de la verdad: la duda metódica. En
primer lugar hemos de decir que Descartes no es un escéptico, no considera la
duda como un estado definitivo sino como una situación transitoria para
alcanzar la verdad: es una duda metódica y constructiva, es decir, como
instrumento para superar la duda misma. Naturalmente no se propone dudar de
cada una de las ideas, algo imposible, sino que cuestiona cada uno de los
fundamentos de estas ideas.
Para Descartes solamente podremos llegar a la verdad cuando se llegue a una
realidad de la que no podamos dudar, algo de lo que tengamos absoluta
certeza.
Descartes comienza dudando de los sentidos, por un hecho patente: éstos me
engañan alguna vez, luego he de pensar que pueden engañarme siempre.
Cuando sueño siento la existencia de las cosas igual que en la vigilia y, sin
embargo, no existen. La dificultad para distinguir el sueño de la vigilia presta la
posibilidad de dudar también de la existencia de las cosas. Sin embargo es
cierto que, aún fuera del estado de vigilia, hay verdades que prevalecen, las
matemáticas: "Pues, duerma yo o esté despierto, dos más tres serán siempre
cinco, y el cuadrado no tendrá más que cuatro lados".
Descartes introduce un nuevo motivo de duda: la hipótesis de que puede que
Dios haya puesto en mi mente estas ideas con la intención de engañarme.
Pero existiría una posible objeción a esta hipótesis: podría repugnar a la
voluntad divina el querer engañarme. Para evitar equívocos con la fe,
Descartes sustituye la denominación de Dios engañador por Genio maligno, un
ser todopoderoso que tiene la voluntad de engañarme en todo lo que pienso.
Con esta hipótesis ahora parece que no puedo tener nada por cierto sin correr
el riesgo de ser engañado; incluso con las verdades matemáticas puede ocurrir
que "haya querido que me engañe cuantas veces sumo dos más tres, o cuando
enumero los lados de un cuadrado".
Con todo este proceso de duda, desarrollado en la 1ª Meditación Metafísica,
Descartes persigue, como hemos dicho, llegar a una verdad absoluta,
eliminando los prejuicios (algo parecido a la ironía socrática).
Llegado a este punto, en la 2ª Meditación Metafísica, Descartes aplica la duda
a la propia duda. Y es entonces cuando encuentra un elemento que prevalece
a la duda. Si dudo que dudo es indudable que sigo dudando. El hecho de
dudar, aunque me esté engañando, siempre puedo tener la certeza de que
estoy dudando. Y dudar o engañarse implica necesariamente que estoy
pensando; y si estoy pensando es indudable que estoy existiendo. Por tanto
estamos ante la primera verdad indubitable, la de mi propia existencia como
verdad pensante, a partir de la cual va a construir todo el conocimiento:
Pienso, luego existo (Cogito, ergo sum)
Ya en su tiempo Descartes recibió la objeción de que el cogito era la conclusión
de un silogismo -a los que precisamente Descartes quiere evitar en su intento
de ruptura con la filosofía medieval- cuya premisa mayor (sobreentendida)
sería "todo lo que piensa existe", la premisa menor "yo pienso", y la conclusión
"yo existo". Pero Descartes no aceptó este planteamiento, ya que, según él,
"cuando alguien dice pienso, luego existo, no infiere su existencia del
pensamiento como si fuese la conclusión de un silogismo, sino como algo
notorio por sí mismo, contemplado por simple inspección de espíritu. Ello es
evidente, pues, si la dedujese mediante un silogismo, tendría que haber
establecido antes esta premisa mayor: todo lo que piensa es o existe. Y, muy al
contrario, a esto último llega por sentir él mismo en su interior que es imposible
que piense si no existe." Conviene resaltar como aquí Descartes señala que la
idea de existencia es verdadera porque se le manifiesta al espíritu "como algo
notorio por sí mismo". Este va a ser, como veremos en el siguiente apartado, el
criterio de verdad defendido por Descartes.
2. El método como criterio de verdad: la evidencia (claridad y distinción). Es en
la 2ª parte del discurso del método donde Descartes establece su criterio de
certeza.
Una vez establecida una verdad indubitable, a partir de la cual va a construir
todo el conocimiento, Descartes realiza una profunda meditación analítica del
cógito: por él la duda desemboca en la evidencia de la realidad del
pensamiento. El contenido inmediato del cógito es la realidad existencial del
sujeto pensante: la duda puede afectar a todos los contenidos del pensamiento,
pero no puede afectar al yo donde estos contenidos están. Intuimos la
existencia de un yo cuya esencia es ser pensamiento. En esto precisamente
consiste intuir, en percibir conexiones necesarias, evidentes. Para poder intuir
conexiones necesarias entre ideas, es preciso que éstas sean simples, pues
sólo la relación entre ideas simples puede ser también simple. Y sólo de lo
simple hay verdadera intuición. El resto del conocimiento es deducción. Por
tanto, se tiene certeza de toda verdad que se obtenga por medio de una
intuición clara y, además, distinta. Precisemos las nociones de claro y distinto
para Descartes:
- Una idea clara es aquella que se presenta de forma manifiesta a un espíritu
atento.
- Una idea distinta es aquella tan precisa y diferente a toda la demás que sólo
comprende lo que manifiestamente aparece al que la considera como es
debido.
Para Descartes las ideas constituyen los elementos básicos del conocimiento:
no conocemos sino ideas. Y al considerarlas como dotadas de realidad, puede
plantearse la cuestión de la causa de tal realidad, planteamiento que permitirá,
como veremos resolver la cuestión de la existencia de Dios.
3. El método como crecimiento orgánico de la verdad: reglas de crecimiento de
la razón. Las reglas del método de crecimiento de la razón las compendia
Descartes en sus famosos cuatro preceptos del correcto pensar, expuestos en
el Discurso del Método. El primero expresa la necesidad de precaución, de
decir, partir de intuiciones claras y distintas para efectuar las posteriores
deducciones, para garantizar así la fiabilidad del conocimiento. El segundo y el
cuarto representan lo más genuino del método matemático, pues indican la
necesidad de proceder por análisis y síntesis; para tener garantía de la verdad
de nuestras síntesis, hemos de asegurarnos que la unión de una naturaleza
simple con otra sea necesaria. El tercer precepto es una apelación a la
necesidad de proceder ordenadamente, un orden desde lo simple a lo
compuesto.
La novedad de Descartes y su época está en la entronización del método
matemático. No es que la filosofía extrapole para sí el método matemático, sino
que la metafísica tiene el derecho a hacer propio el método más apto para el
conocimiento humano. Y este método es, precisamente, el matemático. Pero
entendiendo la matemática no reducida a meros problemas matemáticos, sino
la matemática como aplicación a la razón (Mathesis Universalis, como dijo
Descartes) y no al revés. Pero, ¿en qué estriba la superioridad del método
matemático? La superioridad proviene de la simplicidad de su objeto, dado que
para Descartes el fundamento de evidencia y certeza, está, en que el
conocimiento intuitivo es absoluto -pues de lo simple, que es conocido por sí en
su totalidad, no puede obtenerse falsedad alguna, pues el error proviene de la
composición, es decir, del juicio. A partir de la intuición de lo simple, se inducededuce todo lo demás. Está patente pues la renuncia de Descartes a la lógica
clásica (silogismos aristotélicos), por considerarla como meramente explicativa
de lo sabido, no inventiva.
John Locke (1630-1704)
Cursó estudios de teología, química y medicina en Oxford. Allí entró en
contacto con la doctrina escolástica y la teoría de Descartes. Es la formulación
clásica del empirismo inglés. Parte del principio de que todo conocimiento,
incluso el abstracto es adquirido, y se basa en la experiencia, rechazando las
ideas innatas. El objeto de conocimiento son las ideas, definidas como
contenido del entendimiento y sin ningún carácter ontológico, ya que son el
resultado directo de la sensación o la reflexión (ideas simples), o el resultado
de la actividad asociativa de la inteligencia humana (ideas compuestas). No
representa un empirismo radical y acepta el conocimiento por demostración, no
fundamentado en la experiencia, (como la demostración de la existencia de
Dios por el argumento cosmológico o teleológico), y la validez de conceptos
originados por el sujeto (como los matemáticos o geométricos).
Sus obras más importantes son:
Ensayo sobre el entendimiento humano
Tratado sobre el gobierno civil
La racionalidad del cristianismo
David Hume (1711-1776)
Estudió en un primer momento Derecho, pero pronto se dedicó a la Filosofía.
Su filosofía proviene a la vez del empirismo de Locke y del idealismo de
Berkeley. Trata de reducir los principios racionales (entre otros la casualidad) a
asociaciones de ideas que el hábito y la repetición van reforzando
progresivamente., hasta llegar, algunas de ellas, a adquirir una aparente
necesidad. Por lo tanto, las leyes científicas sólo son para los casos en que la
experiencia ha probado su certeza. No tienen, pues, carácter universal, ni es
posible la previsibilidad a partir de ellas. La sustancia, material o espiritual no
existe. Los cuerpos no son más que grupos de sensaciones; el yo no es sino
una colección de estados de conciencia. Es el fenomenismo.
Sus principales obras son:
Tratado sobre la naturaleza humana.
Investigación sobre el entendimiento humano
Investigación sobre los principios de la moral
Se dice que antes del siglo VI a.C. las leyendas imaginadas por los pobladores
de la antigua Grecia explicaban todos los fenómenos naturales, es decir
utilizaban la personificación de dichos fenómenos, pero a partir del siglo VII
a.C. el hombre empieza a utilizar la racionalidad, esto se lo atribuyen a los
cambios socioeconómicos e ideológicos que ocurrieron para el momento. Para
esta etapa en la historia de la filosofía a los pensadores se le denominaron
como Pre-Socráticos y todos ellos coincidían en distinguir en la naturaleza un
"kosmo" (orden en oposición al caos), que es dinámica y que presenta leyes
propias. De estas ideas, se crea la primera escuela filosófica que es la de los
milesios en el siglo VII a.C. y es donde se destacan: Anaxímenes (su arjé el
aire) y Anaximandro (su arjé el Apeiron), siguiendo la historia en el siglo VI a.
de C. se presenta la escuela de Pitágoras, que se dedica a explicar todo a
través de las matemáticas y números, según los pitagóricos los números
aparecen en pareja, por lo que afirma que la naturaleza es algo dualista (díanoche, hembra-macho) todo se organiza por parejas de la que destacan par e
impar; entre los siglos VI y V a.C. aparece Heráclito de Efeso quien parte del
dinamismo y movimiento del universo, pero también aparece Parmenides quien
sostiene una teoría contraria a la de Heráclito.
Parmenides tuvo dos discípulos Zenón de Elea y Milesso de Samos quienes
demostraron racionalmente la imposibilidad del movimiento ya que dijeron "de
la unidad no puede surgir el pluralismo, porque supondría el paso del ser al no
ser" es entonces cuando los filósofos admiten un pluralidad de realidades que
existen desde siempre y que por lo tanto son eternas; ya en el siglo V a.C.
Anaxágoras parte de la teoría de Zenón y Milesso y concluyó que: "todo esta
en todo y participa de todo". En el mismo siglo tiene lugar Demócrito de
Abdera.
A mediados del siglo V a. de C. en Grecia sobre todo en Atenas se empieza a
producir la llamada Ilustración Griega, dentro de estas circunstancias nos
encontramos a los Sofistas quienes partían del escepticismo (la verdad
absoluta no existe) y que a través de la palabra no se puede llegar a la verdad.
Para el mismo momento los razonamientos de Gorgias engloban los llamados
sofismas (razonamientos que parten de una idea y de su contrario, por lo que
forzosamente han de ser verdaderos). Todos estos planteamientos son los que
se encuentra Sócrates, quien desarrolló la Mayéutica y abordó problemas
sociales y humanísticos, lamentablemente este personaje no dejó ningún
escrito pero lo que se sabe de el es gracias a uno de sus discípulos Platón
quien crea su escuela en Atenas y quien tomó como su arjé el alma, Platón
afirma que el hombre posee tres almas que son las que dominan al cuerpo (el
alma racional –razón-, alma irascible –fortaleza-, y el alma concupiscible –
apetito-): de este mismo fundamento parte Aristóteles (discípulo de Platón) solo
que este evalúa más la parte gubernamental y el comportamiento del hombre
ante el poder llevando paralelamente sus estudios físicos, lógicos y
matemáticos.
Aproximadamente en el año 1.300 ó 1.350 surge una crisis social, que lleva
nuevamente a otro cambio ideológico causado por el descubrimiento de nuevos
mercados y la creación de nuevas industrias, ya que surge el capitalismo, pero
también en ese momento hay un gran avance tecnológico puesto que se crea:
la brújula, el telescopio, la pólvora y la imprenta.
Ya en la filosofía moderna se encuentra René Descartes quien intenta superar
los prejuicios medievales (la autoridad de Aristóteles y la unión fe-razón) e hizo
avances matemáticos, pero también tenemos en el siglo XVII y XVIII a John
Locke y David Hume quienes tratan la filosofía con más racionalidad.
Como se observó anteriormente, la filosofía juega un papel muy importante
dentro de nuestras vidas, ya que la tecnología, los avances médicos-científicos,
y la psicología que hoy en día manejamos, se lo debemos a las personas que
hace siglos se dedicaron a buscar un por qué, a plantear hipótesis y con el
tiempo las más acertadas se convertirían en teorías.
2.2 Las raíces de la probabilidad inversa: Bernoulli, Bayes y
Laplace
Siglo XIX
La característica fundamental son sus fuertes cambios. Cambios anunciados y
gestados en el pasado pero que se efectuarían, de hecho, en el siglo. Cambios
en todos los ámbitos de la vida y el conocimiento. Revoluciones de todas las
índoles tendrían su lugar. La ciencia y la economía se retroalimentarían, el
término “científico”, acuñado en 1833 por William Whewell,1 2sería parte
fundamental del lenguaje de la época
1800-1830
Este periodo se encuentra dominado por las figuras de Laplace y Gauss.
Laplace cubrió todo el rondó de la probabilidad y la estadística; Gauss se
enfocó solamente en la teoría de los errores.
El trabajo en la teoría de los errores alcanzó un clímax con la introducción del
método de los mínimos cuadrados que fue publicado Legendre en 1805.
Durante veinte años hubo tres razonamientos basados en la teoría de la
probabilidad: El argumento bayesiano de Gauss (con una distribución a priori
uniforme), el argumento de Laplace basado en el teorema central del límite y el
argumento de Gauss que se basó en el teorema de Gauss-Markov. El trabajo
de investigación continúo a través del siglo 19 con la ayuda y contribución de
numerosos astrónomos y matemáticos; entre ellos, Cauchy, Poisson, Fourier,
Bessel, Encke, Chauvenet y Newcomb. (Aparece la distribución de Cauchy
como un caso poco elegante de la teoría de los errores.) Pearson, Fisher y
Jeffreys aprenden la teoría de los errores desde la perspectiva de los
astrónomos.
Gauss encontró una segunda aplicación de los mínimos cuadrados en la
geodesia. Los geodesistas hicieron importantes contribuciones a los mínimos
cuadrados, particularmente desde la perspectiva computacional. Los epónimos,
Gauss-Jordan y Cholesky, son puestos en honor a posteriores geodesistas.
Helmert (la transformada de Helmert) fue un geodesista que contribuyó a la
teoría de los errores. Nótese que el topógrafo Frank Yates contribuyó
enormemente a la estadística siendo colega y sucesor de Fisher en
Rothamsted.
En Gran Bretaña se llevó a cabo el primer censo poblacional en 1801. Éste
terminó la controversia acerca del tamaño de la población que empezó con
Price, amigo de Bayes, quien argumentaba que la población había decrecido
en el siglo 18. Numerosos escritores lanzaron estimaciones, incluyendo a
Eden.
William Playfair encontró nuevas formas de representación gráfica de los datos.
Sin embargo, nadie le prestó atención. La teoría estadística que ganó terreno
en los siguientes 150 años no tuvo en cuenta la idea de la graficación de los
datos. Esta idea es reciente y se asocia con Tukey.
Concluye la era de las academias y los mayores avances se dan en las
universidades. El sistema de educación francesa fue transformado gracias a la
revolución y el siglo 19 vio el surgimiento de la universidad alemana.
1830-1860
Este periodo vio el surgimiento de la sociedad estadística, la cual ha estado
active en la escena científica desde entonces. Aunque el significado de la
palabra “Estadística” ha cambiado desde el principio de la literatura filosófica de
la probabilidad. En este periodo, también se dio la más glamorosa rama del
análisis empírico de las series temporales, el llamado “ciclo de las manchas
solares”.
Desde 1830 han habido varias sociedades estadísticas, incluyendo la London
(Royal) Statistical Society y la American Statistical Association (ahora la más
grande del mundo). El International Statistical Institute fue fundado en 1885
aunque ha organizado congresos internacionales desde 1853. Las estadísticas
estuvieron basadas en las poblaciones humanas y en Francia André-Michel
Guerry mapeó una clase de estadísticas morales. Quetelet fue un catalizador
en la formación de la London Society.
Desde 1840, existe la literatura filosófica de probabilidad. La literatura inglesa
empieza con la discusión de probabilidad de John Stuart Mill (1843). Este fue
seguido por John Venn, W. Stanley Jevons y Karl Pearson. Hubo un traslape
en la literatura de lógica y de probabilidad. De Morgan y Boole también
aportaron exhaustivas y largas discusiones acerca de la probabilidad.
En 1843 Schwabe observe que la actividad de las manchas solares (sunspot)
era periódica. Seguido de décadas de investigación, no solo en la física solar
sino en el magnetismo terrestre, meteorología e incluso economía, donde se
examinaban las series para ver si su periodicidad coincidía con la de las
manchas solares. Incluso antes de la manía o moda de las manchas solares
hubo un interés intense en la periodicidad en la meteorología, en el estudio de
las mareas y otras ramas de la física observacional. Juntos, Laplace y Quetelet,
habían analizado datos meteorológicos y Herschel había escrito un libro al
respecto. Las técnicas en uso variaban desde las más simples, como la tabla
de Buys Ballot, a formas más sofisticadas como el análisis armónico. Al final
del siglo, el físico Arthur Schuster introdujo el periodograma. Sin embargo, por
ese entonces, una forma rival del análisis de series temporales, basada en la
correlación y promovida por Pearson, Yule, Hooker y otros, fue tomando forma.
1860-1880
Dos importantes campos de aplicación se abrieron en este periodo. La
probabilidad encontró una aplicación más profunda en la física, particularmente
en la teoría de gases, naciendo así la mecánica estadística. Los problemas de
la mecánica estadística estaban detrás del alcance de los avances de la
probabilidad a comienzos del siglo 20. El estudio estadístico de la herencia,
desarrollado dentro de la biometría, tuvo lugar. Al mismo tiempo el mundo
sufrió importantes cambios geográficos. Un trabajo importante en la teoría de la
probabilidad venía desarrollándose en Rusia mientras que el trabajo estadístico
venía de Inglaterra.
En 1860 James Clerk Maxwell usó la curva del error (distribución normal) en la
teoría de los gases; parece que él estaba influenciado por Quetelet. Boltzmann
y Gibbs desarrollaron la teoría de gases dentro de la mecánica estadística.
Galton inaugural el estudio estadístico de la herencia, trabajo continuado en el
siglo 20 por Pearson and Fisher. La correlación fue una de las más distintivas
contribuciones de la escuela inglesa.
En contraste, la llamada “dirección continental” investigaba que tan apropiado
era el uso de los modelos para el tratamiento de las tasas de nacimientos y
defunciones por considerar la estabilidad de las series sobre el tiempo.
Hubo una mayor penetración de la estadística en la psicología y en la
economía. Se tuvo en cuenta el trabajo de los políticos aritméticos de 1650. El
trabajo de Jevons sobre números índice fue inspirado por la teoría de los
errores. La investigación en series temporales económicas fue inspirada por el
trabajo de los meteorólogos acerca de la variación estacional de los ciclos
solares y sus correlaciones en la tierra.
1880-1900
En este periodo la escuela inglesa estadística tomó forma. Pearson fue el
personaje dominante hasta que Fisher lo desplazó en la década de 1920s.
Galton introdujo la correlación y una teoría basada en el anterior concepto fue
rápidamente desarrollada por Pearson, Edgeworth, Sheppard y Yule. La
correlación fue la mayor salida desde el trabajo estadístico de Laplace y Gauss.
Empezó a ser ampliamente aplicada en biología, psicología y ciencias sociales.
En economía Edgeworth siguió algunas ideas de Jevons, sobre números
índice. Sin embargo, en Inglaterra la economía estadística era más cercana al
trabajo en estadísticas oficiales o periodismo financiero. En Italia Vilfredo
Pareto descubrió una regularidad estadística en la distribución del ingreso.
2.3 Abducción y la probabilidad de las teorías
1. Introducción
Hace unas pocas semanas leía con vivo interés la necrológica de Jon Barwise
en la última Newsletter de la American Philosophical Association. En unas
líneas emotivas, Jon Dorbolo recordaba cómo Barwise insistía en que la lógica
no es jugar con símbolos, sino que es la ciencia del razonamiento válido.
Quienes han enseñado lógica en cualquiera de sus niveles con seguridad han
advertido lo difícil que es para un profesor de lógica —en contra de lo que en
principio cabría esperar— articular unitariamente en su disciplina el
pensamiento y la vida, y lograr así que sus alumnos descubran que lo que se
enseña en el aula guarda alguna relación con su manera ordinaria de pensar.
Las causas de este fenómeno son muy complejas y no son reductibles sólo al
temor al psicologismo y a la matematización de la lógica moderna a partir de
Frege. Como es bien conocido, ya los humanistas acusaban a los lógicos tardo
medievales de haber perdido en sus discusiones escolásticas el contacto con la
realidad vital, con los problemas reales: "Hay que transformar la lógica —venía
a decir Juan Luis Vives— en un instrumento práctico y útil, porque las
disciplinas que tratan del lenguaje están necesariamente unidas a la
experiencia vital y concreta". Efectivamente, buena parte del interés por la
filosofía del lenguaje en la segunda mitad del siglo XX tiene que ver
directamente con esta preocupación por contextualizar la lógica, pero —todos
lo advertimos— no es suficiente con prestar más atención al lenguaje para
llenar de vida a la lógica. Es preciso también ensanchar el horizonte de la
investigación para atender a los procesos efectivos mediante los que los seres
humanos —profesionales de la lógica o ciudadanos de a pie— llegamos a
nuevas ideas, a nuevos conocimientos.
En este sentido, centraré mi atención en el lógico americano, científico y
filósofo a la vez, Charles S. Peirce (1839-1914) que, aunque hizo relevantes
contribuciones a la lógica deductiva, se interesó sobre todo por la lógica de la
ciencia y más especialmente por el proceso inferencial que llamó "abducción"
(en cuanto opuesto a deducción y a inducción). La abducción es el proceso
mediante el que generamos hipótesis para dar cuenta de aquellos hechos que
nos sorprenden. Peirce consideró que la abducción estaba en el corazón no
sólo de la actividad científica, sino también de todas las actividades humanas
ordinarias¨. Sin embargo, a pesar del trabajo y los escritos de Peirce en este
campo de la metodología de la investigación, en los cien años siguientes, que
han visto un formidable desarrollo tanto de la producción científica como de la
lógica, no se ha prestado —a mi juicio— suficiente atención a la lógica del
descubrimiento.
Mi exposición estará dividida en cinco partes: 1º) una breve presentación de
Peirce destacando su condición de científico; 2º) una exposición de la
clasificación de las inferencias en el joven Peirce: deducción, inducción e
hipótesis; 3º) una presentación de la noción de abducción en el Peirce maduro;
4º) una exposición de la lógica de la sorpresa; y finalmente a modo de
conclusión, 5º) una presentación de esta peculiar facultad de adivinar que
puede ser denominada el instinto racional como elemento central de la
creatividad humana.
2. Peirce, científico y filósofo
Durante décadas la figura y el pensamiento de Charles S. Peirce han estado
prácticamente relegados al olvido, pero desde finales de los 70 hay un estallido
de interés en torno al científico y filósofo norteamericano. "La mayoría de la
gente jamás ha oído hablar de él, pero lo oirán", dejó escrito el novelista
norteamericano Walker Percy, y parece que aquella profecía está comenzando
a cumplirse. Efectivamente, en estos últimos años la figura de Charles S.
Peirce está adquiriendo una relevancia creciente en muy distintas áreas del
saber y su influencia sigue todavía aumentando,: en astronomía, metrología,
geodesia, matemáticas, lógica, filosofía, teoría e historia de la ciencia,
semiótica, lingüística, econometría y psicología. En todos estos campos Peirce
es considerado un pionero, un precursor o incluso como un "padre" o
"fundador" (de la semiótica, del pragmatismo). Es muy común encontrar
evaluaciones generales como la de Russell: "sin duda alguna (...) fue una de
las mentes más originales de fines del siglo XIX y ciertamente el mayor
pensador norteamericano de todos los tiempos", la de Popper que lo describió
como "uno de los más grandes filósofos de todos los tiempos" o la de Putnam
que le ha llamado "un gigante encumbrado sobre los filósofos americanos".
Algunos factores que aumentan el interés por el pensamiento de Peirce son su
participación personal en la comunidad científica de su tiempo, su valiosa
contribución al desarrollo de la lógica de las relaciones, y su sólido
conocimiento de la filosofía de Kant y de la tradición escolástica, en particular
de Duns Escoto. La interpretación del pensamiento de Peirce ha sido objeto
durante años de un amplio desacuerdo, debido en parte a la presentación
fragmentaria de su obra en los Collected Papers, pero en años más recientes
ha ido ganando aceptación una comprensión más profunda del carácter
arquitectónico de su pensamiento y de su evolución desde los primeros escritos
de 1865 hasta su muerte en 1914. En la última década todos los estudiosos
peirceanos han reconocido claramente la coherencia básica y la innegable
sistematización del pensamiento de Peirce.
Christopher Hookway ha caracterizado a Peirce como un filósofo tradicional y
sistemático, pero que, al mismo tiempo, aborda los problemas modernos de la
ciencia, la verdad y el conocimiento desde una valiosa experiencia personal
como lógico e investigador experimental en el seno de la comunidad científica
internacional. Más aún, Hookway ha sostenido que la mejor aproximación para
la comprensión de Peirce es considerarlo como un filósofo analítico avant la
lettre, que con su teoría general de los signos anticipa el "giro lingüístico" de la
filosofía. Me parece ésta una interpretación válida, pero me parece todavía más
certero considerar a Peirce sobre todo como un filósofo que, después de
mucho tiempo de trabajo tedioso de observación e investigación científicas y de
un concienzudo estudio de la historia de la ciencia y de la filosofía, se propone
desentrañar cuál es realmente la lógica de la ciencia, la lógica de la práctica
científica efectiva.
3. Deducción, inducción e hipótesis
Desde sus primeros trabajos en lógica Peirce se ocupó de la clasificación de
los argumentos (1867), de los diversos modos de inferencia, esto es, de los
diversos modos en que una conclusión verdadera puede seguirse de unas
premisas, sea de modo necesario o sea sólo con alguna probabilidad. En 1878,
dentro de la serie "Illustrations of the Logic of Science", publica en el Popular
Science Monthly el artículo "Deducción, inducción, hipótesis", que contiene una
exposición ya clásica entre los estudiosos de Peirce de los tres modos de
inferencia a la que ahora voy a prestar atención.
Según Peirce, toda deducción no es más que la aplicación de una regla a un
caso para establecer un resultado:
"La llamada premisa mayor formula una regla; como, por ejemplo, todos los
hombres son mortales. La otra premisa, la menor, enuncia un caso sometido a
la regla; como Enoch era hombre. La conclusión aplica la regla al caso y
enuncia el resultado: Enoch es mortal. Toda deducción tiene este carácter; es
meramente la aplicación de reglas generales a casos particulares" (CP 2.620,
1878)
Como es obvio, no todas las formas de razonamiento son reducibles a una
deducción ni, por lo tanto, pueden expresarse con un silogismo de este tipo.
Más aún, el razonamiento inductivo nunca puede ser reducido a esta forma,
pues "es algo más que la mera aplicación de una regla general a un caso
particular" (CP 2.620, 1878). Para mostrar el contraste entre los diversos tipos
de razonamiento, Peirce emplea el famoso ejemplo de las judías (beans) que
no siempre ha sido bien explicado ni bien entendido (CP 2.621-623, 1878):
Imaginemos que entramos en una habitación en la que hay varias bolsas con
judías. Nos acercamos a una bolsa sabiendo que contiene solamente judías
blancas, extraemos un puñado y, antes de mirarlo, podemos afirmar con toda
seguridad que todas las judías del puñado serán blancas. Esto ha sido una
deducción necesaria, la aplicación de una regla a un caso para establecer un
resultado. Si la regla es verdadera, podemos inferir que el puñado de judías
son blancas sin necesidad de mirarlo. Esquemáticamente:
Regla: Todas las judías de esa bolsa son blancas.
Caso: Estas judías estaban en esa bolsa.
Resultado: Estas judías son blancas.
Imaginemos ahora que, sin saber cómo son las judías que hay en la bolsa,
extraemos un puñado, miramos y vemos que todas son rojas.
Espontáneamente inferimos que todos las demás judías de la bolsa serán
rojas. En este caso, la inferencia no tiene un carácter necesario, pero de
ordinario actuamos así. Esquemáticamente:
Caso: Estas judías son de esa bolsa.
Resultado: Estas judías son rojas.
Regla: Todos las judías de esa bolsa son rojas.
Este razonamiento es una inducción, es decir, es la inferencia de una regla
general a partir de un caso y un resultado y es una inversión del razonamiento
deductivo. El razonamiento deductivo es analítico o explicativo, en cuanto que
la conclusión no añade nada a lo que ya está en las premisas. En cambio, el
razonamiento inductivo es sintético o ampliativo, puesto que lo que se dice en
la conclusión no estaba previamente en las premisas.
Pero hay una segunda forma de invertir el razonamiento deductivo para
producir un razonamiento sintético. Supongamos una nueva situación, en la
que, entrando en una habitación, encontramos varias bolsas con judías y un
puñado de judías, todas blancas, sobre la mesa. Después de examinar las
bolsas encontramos que una de ellas contiene sólo judías blancas. Entonces
inferimos que probablemente ese puñado de judías proviene de esa bolsa.
Esquemáticamente:
Regla: Todas las judías de esa bolsa son blancas
Resultado: Estas judías son blancas.
Caso: Estas judías provienen de esa bolsa.
Este razonamiento es una hipótesis, es decir, la inferencia de un caso a partir
de una regla general y un resultado. Como en el caso de la inducción, la
inferencia hipotética no tiene carácter necesario sino meramente probable, y es
también un tipo de razonamiento sintético o ampliativo.
Las hipótesis pueden ser muy variadas, pero tienen en común el que son
formulados para explicar un fenómeno observado. Peirce ilustra su exposición
con ejemplos de las ciencias naturales (de la presencia de fósiles marinos en
un determinado lugar inferimos que antes allí hubo un mar) y de las ciencias
humanas (de los documentos que hacen referencia a Napoleón inferimos que
Napoleón existió), y con una experiencia personal que resulta muy gráfica y
quizá merezca la pena evocar:
"En una ocasión desembarqué en un puerto de una provincia turca; y, al
acercarme a la casa que tenía que visitar, me topé con un hombre a caballo,
rodeado de otros cuatro jinetes que sostenían un dosel sobre su cabeza. Como
el gobernador de la provincia era el único personaje de quien podía pensar que
fuera tan honrado, inferí que era él. Esto era una hipótesis” (CP 2.625, 1878).
4. La lógica de la abducción
En el pensamiento del Peirce maduro la abducción es un tipo de inferencia que
se caracteriza por su probabilidad: la conclusión que se alcanza es siempre
conjetural, es sólo probable, pero al investigador le parece del todo plausible.
Es esa plausibilidad, ese carácter intuitivo donde radica su validez y no en su
efectiva probabilidad que tiene sólo una influencia indirecta (CP 2.102, 1903).
En esta etapa de madurez Peirce acuña los términos "retroducción" o
razonamiento hacia atrás y "abducción" para referirse al proceso de adopción
de hipótesis y dedica muchos escritos —buena parte de ellos todavía
inéditos— al estudio de esta operación. El estudio de la abducción llega a tener
tanta importancia para él que no duda en escribir que la cuestión del
pragmatismo es la cuestión de la lógica de la abducción.
Como los textos ilustrativos de su concepción de la abducción podrían
multiplicarse casi indefinidamente, he preferido traer uno solo, extenso, y hasta
ahora inédito:
"La Abducción es aquella clase de operación que sugiere un enunciado que no
está en modo alguno contenido en los datos de los que procede. Hay un
nombre más familiar para ella que el de abducción, pues no es ni más ni menos
que adivinar (guessing). Un determinado objeto presenta una combinación
extraordinaria de caracteres para la que nos gustaría una explicación. El que
haya uninación? Pues el número de nombres del directorio ni se acerca
siquiera a la multitud de posibles leyes de atracción que hubieran dado cuenta
de las leyes de Kepler del movimiento de los planetas y que, por delante de la
verificación mediante la predicción de perturbaciones, etc., las habrían
explicado a la perfección. Newton, se dirá, supuso que la ley sería una sola y
simple. Pero, ¿cómo llegó a esto sino acumulando adivinación sobre
adivinación? Con seguridad, son muchísimos más los fenómenos de la
naturaleza complejos que los simples. (...)
Cualquier novato en lógica puede sorprenderse de que llame inferencia a una
adivinación. Es igual de fácil definir la inferencia de modo que excluya o de
modo que incluya a la abducción. Pero todos los objetos de estudio lógico han
de ser clasificados y no hay otra clase mejor en la que poner la abducción que
la de las inferencias. Muchos lógicos, sin embargo, la dejan sin clasificar, a
modo de un supernumerario lógico, como si su importancia fuera demasiado
pequeña para tener derecho a un lugar propio. Ellos evidentemente olvidan que
ni la deducción ni la inducción pueden jamás añadir lo más mínimo a los datos
de la percepción" (MS 692, 1901).
El fenómeno que a Peirce le impresiona es el de la introducción de ideas
nuevas en el trabajo científico, que resulta simplemente inexplicable mediante
el cálculo de probabilidades. Se trata del fenómeno de la creatividad científica
en el que para Peirce se articulan abducción, deducción e inducción. "A la
abducción —explica Génova— le corresponde el papel de introducir nuevas
ideas en la ciencia: la creatividad, en una palabra. La deducción extrae las
consecuencias necesarias y verificables que deberían seguirse de ser cierta la
hipótesis, y la inducción confirma experimentalmente la hipótesis en una
determinada proporción de casos. Son tres clases de razonamiento que no
discurren de modo independiente o paralelo, sino integrados y cooperando en
las fases sucesivas del método científico".
El inicio de la investigación es siempre la abducción. Es la hipótesis la que
indica qué experimentos hay que hacer, adónde hay que mirar. El científico, si
no tiene una hipótesis previa, no puede determinar qué tipo de experimento
debe realizar para proseguir su investigación. Por eso, —advierte sagazmente
Génova— resulta cuando menos llamativo que la mayoría de los filósofos de la
ciencia que analizan el método hipotético-deductivo, ignoren por completo el
problema lógico del origen de las hipótesis o teorías científicas. Para ellos el
método científico comienza en el momento en que ya se dispone de una teoría,
que será confirmada o refutada según el resultado de los experimentos, pero el
origen mismo de las nuevas ideas es una cuestión propia de la psicología o de
la sociología del conocimiento, en todo caso es ajena a la lógica; es para ellos,
como decía Peirce, un supernumerario lógico.
Tengo para mí que en la comprensión de la creatividad se encierra una de las
claves para superar el materialismo cientista todavía dominante en nuestra
cultura que relega al ámbito de lo acientífico aquellas dimensiones de la
actividad humana no reductibles a un lenguaje fisicalista o a un algoritmo
matemático. Si comprendiéramos un poco mejor el proceso de generación de
nuevas ideas probablemente entenderíamos un poco mejor en qué consiste
realmente la racionalidad humana. En este sentido, resulta comprensible que
algunos tratamientos contemporáneos de la abducción —por ejemplo, el de los
Josephson en Abductive Inference— que han intentado formalizar este proceso
inferencial hayan obviado por completo este aspecto.
Con esto, llegamos ya al fondo de la cuestión que quería abordar en esta
sesión, ¿por qué abducimos?, ¿por qué generamos hipótesis?, o —me gusta
más esta expresión— ¿de dónde brota la abducción? Esta es la lógica de la
sorpresa a la que quiero destinar la última parte de mi exposición.
5. La lógica de la sorpresa
Ya los clásicos dijeron que el principio de toda investigación era la admiración.
Aristóteles en aquel conocido pasaje de la Metafísica afirma que los seres
humanos tanto ahora como al principio comenzaron a filosofar movidos por la
admiración ante los fenómenos sorprendentes. En esta dirección llamaba mi
atención recientemente cómo William Shea, director de la European Science
Fundation, advertía también que donde realmente nace cualquier investigación
es en nuestra admiración y que no hay recurso tecnológico alguno por
sofisticado que sea que pueda reemplazarla. Sin duda es cierta esta
afirmación, pero debe ser complementada con la tesis de Peirce de que el
detonante de cualquier genuina investigación es la sorpresa. No es la simple
admiración la que nos mueve a investigar, sino aquella que nos sorprende y
que demanda nuestra comprensión.
Si buscamos en los Collected Papers de Peirce advertiremos que la sorpresa
(surprise y sus derivados) aparece en 127 ocasiones sobre todo en textos
posteriores a 1901. La sorpresa nace de la ruptura de un hábito, de la quiebra
de una expectativa. Nuestra actividad investigadora se pone en marcha porque
descubrimos que teníamos una expectativa errónea, de la que quizá incluso
nosotros mismos apenas éramos siquiera conscientes. "Cada rama de la
ciencia comienza con un nuevo fenómeno que viola algún tipo de expectativa
negativa subsconsciente" (CP 7.188, 1901). Nuestras creencias son hábitos y
en cuanto tales fuerzan al hombre a creer hasta que algo sorprendente, alguna
nueva experiencia externa o interna, rompe ese hábito. El fenómeno
sorprendente requiere una racionalización, una regularización que haga
desaparecer la sorpresa mediante la creación de un nuevo hábito.
La investigación se inicia por el choque con un hecho sorprendente, con una
anomalía. ¿Qué es lo que hace sorprendente a un fenómeno? No es la mera
irregularidad: nadie se sorprende —escribe Peirce (CP 7.189, 1901) — de que
los árboles en un bosque no formen una pauta regular. La mera irregularidad
no provoca nuestra sorpresa, pues la irregularidad en nuestra vida es de
ordinario lo normal. Lo que nos sorprende es más bien la regularidad
inesperada, o bien la rotura de una regularidad esperada, incluso tal vez sólo
inconscientemente esperada.
Un acontecimiento al que se pueda responder de la manera habitual no causa
ninguna sorpresa. Por el contrario, el hecho sorprendente requiere un cambio
en el hábito racional, es decir, una explicación. La explicación racionaliza los
hechos, esto es, lleva a la formación de un nuevo hábito que dé cuenta de
aquel hecho y lo torne razonable: por esa razón el fenómeno deja ya de ser
sorprendente. Con palabras de Peirce:
"Lo que hace la explicación de un fenómeno es proporcionar una proposición
que, si se hubiera sabido que era verdadera antes de que el fenómeno se
presentase, hubiera hecho el fenómeno predecible, si no con certeza, al menos
como algo muy probable. Así pues, hace el fenómeno racional, es decir, lo
convierte en una consecuencia lógica, ya sea necesaria o probable" (CP 7.192,
1901)
El fenómeno de la sorpresa no tiene nada que ver con la duda cartesiana, que
es para Peirce una mera duda de papel (paper-doubt) (CP 5.445, 1905; 5.416,
1905). La duda genuina tiene siempre un origen externo, de ordinario procede
de la sorpresa, y no es fruto de un acto de voluntad, pues nadie puede
sorprenderse a sí mismo voluntariamente (CP 5443, 1905). La sorpresa
produce una cierta irritación y demanda una hipótesis, una abducción, que
haga normal, que haga razonable, el fenómeno sorprendente. Déjenme que
traiga a colación el simpático relato de Davidson contando la historia de un
malentendido inferencial que todos comprendemos bien, pues de una manera u
otra hemos padecido experiencias similares:
"Era un día cálido, las puertas estaban abiertas. Yo vivía en una de las casas
adosadas en las que vivían los miembros del profesorado. Entré por la puerta.
No me sorprendió encontrar a la esposa de mi vecino en la casa: ella y mi
esposa a menudo se visitaban. Pero me sorprendí un poco cuando, mientras
me acomodaba en una silla, me ofreció una bebida. Mientras estaba en la
cocina preparando la bebida noté que los muebles habían sido reacomodados,
algo que mi esposa hacía de tiempo en tiempo. Y entonces me di cuenta de
que los muebles no sólo habían sido reacomodados, sino que muchos eran
nuevos o nuevos para mí. La verdadera revelación comenzó cuando
lentamente me vino a la mente que la habitación en la que estaba era una
imagen invertida de aquélla que me era familiar; escaleras y chimenea habían
intercambiado lugares. Había entrado en la casa de al lado".
Davidson explica que su mala interpretación fue un error en el proceso de la
adopción de hipótesis, ya que logró acomodar la evidencia creciente contra su
suposición de que estaba en su propia casa "fabricando más y más
explicaciones absurdas o improbables". Todos tenemos experiencia personal
de este fenómeno cuando conduciendo hemos perdido el buen camino en un
cruce sin darnos cuenta, y tratamos de hacernos ilusiones —decimos en
España— de que todavía seguimos en él interpretando lo que vemos de
acuerdo con nuestras expectativas.
Estamos ahora en condiciones de entender mejor la estructura lógica de la
abducción. Es la siguiente, tal como la explica Peirce en la séptima de sus
Lecciones sobre el pragmatismo (CP 5.189, 1903):
Se observa un hecho sorprendente C; pero si A fuese verdadero, C sería una
cosa corriente (matter of course) luego hay razones para sospechar que A es
verdadero.
Esta es la estructura lógica de toda abducción. Como se advierte la clave de su
comprensión se encierra en el carácter sorprendente del hecho referido en la
primera premisa y en el trabajo de la imaginación en la segunda cuando
descubre que si determinada hipótesis fuera verdadera convertiría el hecho
sorprendente en un acontecimiento normal, razonable, y por tanto no
sorprendente. Si esto es así es razonable pensar que A es verdadera. No sólo
todas las historias de detectives están llenas de este tipo de razonamientos,
sino que el propio diagnóstico médico a partir de unos síntomas sorprendentes
y unos cuadros de enfermedades que hacen razonables esos síntomas son
ejemplos excelentes de la efectiva práctica abductiva en nuestras vidas.
La creatividad consiste esencialmente en el modo en que el sujeto relaciona los
elementos de que dispone en los diversos ámbitos de su experiencia. Esto no
es sólo un proceso inferencial, sino que a menudo es una intuición (insight),
tiene el carácter de una iluminación repentina: "es la idea de relacionar lo que
nunca antes habíamos soñado relacionar lo que ilumina de repente la nueva
sugerencia ante nuestra contemplación" (CP 5.181, 1903). Esto —ha
argumentado lúcidamente Fontrodona— es lo que hacen los directivos en las
empresas: combinar los elementos de forma que donde había problemas
descubren oportunidades.
6. El instinto racional
Sin embargo, la cuestión realmente intrigante no es que a menudo nuestras
abducciones sean equivocadas como en el caso de Davidson o cuando nos
equivocamos de camino, o tantas otras veces en que nuestras "intuiciones" o
"corazonadas" fallan. Lo que para la mentalidad positivista de nuestro tiempo
no resulta fácilmente comprensible es la frecuencia con la que acertamos en
nuestra vida ordinaria o en la investigación científica.
Lo sorprendente de la actividad científica —afirma Génova— es que llegue a
alcanzar la explicación verdadera tras un pequeño número de intentos. Así lo
ilustra Peirce con cierto dramatismo en la sexta de las Lecciones sobre el
pragmatismo de 1903 (CP 5.172):
"Considérese la multitud de teorías que habrían podido ser sugeridas. Un físico
se topa con un fenómeno nuevo en su laboratorio. ¿Cómo sabe si las
conjunciones de los planetas nada tienen que ver con él o si no es quizás
porque la emperatriz viuda de China ha pronunciado por casualidad hace un
año, en ese mismo momento, alguna palabra de poder místico, o si estaba
presente un genio invisible? Piensen en los trillones de trillones de hipótesis
que habrían podido hacerse, de las cuales sólo una es verdadera; y sin
embargo, al cabo de dos o tres conjeturas, o a lo sumo una docena, el físico
atina muy de cerca con la hipótesis correcta. Por azar no habría sido verosímil
que lo hiciera en todo el tiempo que ha transcurrido desde que se solidificó la
tierra".
Esta es la cuestión realmente relevante que se encuentra en la base de todo el
edificio científico: ¿por qué acertamos y por qué lo hacemos de forma
relativamente tan fácil? Peirce acude con frecuencia a la expresión que
atribuye a Galileo de il lume naturale para dar cuenta de nuestra formidable
capacidad para seleccionar de entre esa infinidad de hipótesis posible aquella
más simple, aquella a la que nuestra razón se inclina instintivamente (<biblio>).
La capacidad de conjeturar no es ni ciega ni infalible, pero es una capacidad
instintiva, análoga a los instintos animales que capacitan a un pájaro o a una
avispa para volar (CP 6.476, 1908).
Los seres humanos estamos dotados de un guessing instinct, de un instinto
para adivinar las leyes de la naturaleza. Ayim sugiere que como la abducción
es un tipo de inferencia instintiva y racional a la vez podría denominarse a esta
capacidad instinto racional, resultado tanto del desarrollo de nuestros instintos
animales innatos como del proceso de adaptación racional al entorno. También
podría denominarse quizá creatividad.
La explicación de la eficacia de nuestra creatividad científica ha de encontrarse
para Peirce en una peculiar afinidad entre nuestras capacidades cognoscitivas
y la naturaleza, que remite en última instancia a la creación divina del universo
y de los seres humanos. Peirce acude a esta con naturalidad entre la mente y
el universo para explicar el formidable desarrollo de la mecánica clásica con un
escaso apoyo experimental:
"Como nuestras mentes se han formado bajo la influencia de fenómenos
regidos por las leyes de la mecánica, determinadas concepciones que entran
en estas leyes quedaron implantadas en nuestras mentes; de ahí que nosotros
fácilmente adivinemos cuáles son esas leyes. Sin tal inclinación natural,
teniendo que buscar a ciegas una ley que se ajuste a los fenómenos, nuestra
probabilidad de encontrarla sería infinita" (CP 6.10, 1891).
Pero en última instancia, la razón de la eficacia de nuestra creatividad
científica, de nuestras abducciones, la encuentra Peirce en Dios y la prueba de
ello es a su vez otra abducción. Se trata de su Neglected Argument for the
Reality of God de 1908, en el que —con palabras mías— viene a expresar
Peirce la siguiente argumentación: es un hecho del todo sorprendente que
seamos capaces de inventar hipótesis que explican efectivamente los
fenómenos naturales que observamos; esto sería lo corriente si Dios fuera la
causa de nuestras capacidades cognitivas y de la naturaleza; por tanto, hay
razones para sospechar que la razón de la eficacia de nuestra creatividad
científica, la conexión entre mente y naturaleza, ha de encontrarse en Dios,
creador de ambas. A esto podría añadirse que para Peirce no sólo la ciencia es
prueba de la realidad de Dios, sino también nuestra creatividad artística y ética,
pero esa es otra historia.
2.4 Producción teórica en la metodología de la ciencia
El siguiente trabajo tiene como propósito presentar una reflexión de algunas
cuestiones epistemológicas que inciden en las metodologías cuantitativa y
cualitativa, que se han desarrollado en el campo de la investigación de las
ciencias sociales, y a la vez caracterizar el método etnográfico desde los
aportes de una perspectiva epistemológica de carácter cualitativo.
Dicha reflexión apunta a realizar un aporte significativo, desde una mirada
crítica reflexiva, de una forma diferente de abordar la investigación y
reconstrucción del conocimiento en el campo de la educación.
b) Abordaje de la Metodología Cualitativa en el campo de la Investigación:
algunas cuestiones epistemológicas.
Es importante aclarar que el término cualitativo se ha enmarcado en la
investigación desde dos perspectivas: por un lado como forma diferente de
hacer ciencia en relación al paradigma positivista, con las implicancias teóricas
y epistemológicas que esta conlleva; y otra que toma de lo cualitativo sólo su
aspecto instrumental, manteniendo de esta manera los aspectos esenciales de
la epistemología cuantitativa en la construcción del conocimiento.
Podemos ver como a lo largo de la historia del quehacer científico, destacados
investigadores que han adherido a esta última perspectiva han sido, entre
otros, Becker, Glaser, Taylor y Bogdan, Hughes y Strauss.
Este abordaje cuantitativo nos hace reflexionar que muchos han sido los
autores que han mantenido sus investigaciones en parámetros empiristas, aún
dentro de la investigación cualitativa, y por ende basadas en una epistemología
positivista. La dependencia a un paradigma empirista o racionalista conduce a
la construcción teórica en relación a la inducción o a la deducción como forma
de producir información, lo que significa desde un punto de vista
epistemológico mantener las técnicas cualitativas en los mismos marcos en
que son utilizadas las cuantitativas. El paradigma positivista y neopositivista los cuales han sido dominantes en el uso de los instrumentos- nos muestran lo
difícil que ha sido producir una ruptura a nivel epistemológico y en las
representaciones dominantes sobre las que hemos aprendido a producir
conocimientos.
Lo planteado hasta aquí nos lleva a centrarnos en algunas características
básicas del abordaje de una metodología cualitativa, que permitiría hacer
ciencia desde un lugar diferente.
Una de las potencialidades de la metodología cualitativa es permitir la
construcción de un conocimiento diferenciado a través de los sentidos
subjetivos diversos sobre los que se configura la subjetividad en cada una de
sus formas concretas: social o individual; esta potencialidad exigiría asumir el
objeto de estudio, desde una representación compleja.
Desde la perspectiva cualitativa, lo cualitativo caracteriza el proceso de
producción de conocimientos, sin definirse por el uso exclusivo de métodos de
esta clase. Esta perspectiva se orienta a legitimar el aspecto procesual de la
construcción del conocimiento que lo ha definido como una expresión directa
de los instrumentos utilizados. Los métodos cuantitativos y cualitativos pueden
resultar compatibles sólo dentro de una epistemología alternativa al
positivismo, donde no sean considerados como un fin en sí mismos, en
abstracto, sino como indicadores de un proceso de construcción del
conocimiento.
Ahora bien, la epistemología cualitativa se basa en tres principios que tienen
profundas consecuencias a nivel metodológico. Estos son:
El conocimiento es una producción constructivista- interpretativa: es decir, el
conocimiento no representa una suma de hechos definidos por constataciones
inmediatas del momento empírico. La interpretación es un proceso en el cual el
investigador integra, reconstruye y representa en diversos indicadores
producidos durante la investigación, los cuales no tendrían ningún sentido si
fueran tomados de una forma aislada como constataciones empíricas. El
sujeto, como sujeto, produce ideas a todo lo largo de la investigación, en un
proceso permanente logrando momentos de integración y continuidad dentro
de su propio pensamiento sin referentes identificables en el momento empírico.
Este nivel teórico de la producción científica ha sido prácticamente ignorado
dentro de la epistemología positivista, en la cual el escenario de la ciencia se
define en lo empírico.
Carácter interactivo del proceso de producción del conocimiento: lo interactivo
es una dimensión crucial del proceso mismo de producción de conocimientos,
en el estudio de los fenómenos humanos. Este carácter reivindica la
importancia del contexto.
Significación de la singularidad como nivel legítimo de la producción del
conocimiento: la singularidad en la investigación de la subjetividad implica una
importante significación cualitativa, que impide identificarla con el concepto de
individualidad. La singularidad se constituye como realidad diferenciada en la
historia de la constitución del individuo.
La investigación cualitativa es un proceso permanente de producción de
conocimiento, donde los resultados son momentos parciales, que de manera
continua se integran dando lugar a nuevos interrogantes, abriendo nuevos
caminos a la producción del conocimiento.
c) Génesis del desarrollo de las investigaciones cualitativas etnográficas
Desde finales del siglo pasado hubo ciertos intentos de sistematización de
investigaciones de carácter cualitativo llevadas a cabo por autores como
Bogdan y Binker. Dichas investigaciones se realizaron en Estados Unidos,
estando asociadas a una perspectiva sociológica. Podríamos rastrear que sólo
es a principios del siglo XX que las investigaciones cualitativas se
sistematizaron en los trabajos de campo de Malinowski, Bateson, Mead,
Benedict, etc., los cuales sitúan la investigación referida al estudio de las
culturas humanas, como una investigación participativa, en la que el
investigador formaba parte del campo de la investigación.
Es importante comprender que la etnografía, en sus inicios, a pesar del cambio
que representó el considerar la presencia del investigador en el campo, siguió
colocando en el centro de la investigación la preocupación por la objetividad y
la neutralidad, atributos esenciales de la epistemología positivista. De esta
manera, la investigación etnográfica mantuvo su énfasis en la fidelidad de los
datos obtenidos en el momento empírico.
La propia complejidad de la presencia del investigador en el campo y lo que
este transmitió a lo estudiado, condujo a otras reflexiones que entraron en
contradicción con los principios generales asumidos por estos autores, por
ejemplo: Malinowsky, se enmarca dentro de definiciones empiristas en lo
relativo a la neutralidad del investigador, pero aporta su creatividad en cuanto a
las vías. Esto lo lleva a superar las formas instrumentalistas y
despersonalizadas de obtener información en la investigación positivista
tradicional.
Ahora bien, en este marco se debe destacar otro aspecto, que tiene que ver
con el culto al dato, este aspecto conduce a la etnografía a un callejón sin
salida, puesto que la recogida de datos condujo a los investigadores al
desarrollo de una gran cantidad de registros que resultaban imposibles de ser
elaborados a nivel teórico. Esta acumulación de datos orientada por un set
descriptivo y objetivo por parte del investigador, dificultó el desarrollo de las
ideas, que son las verdaderas responsables de la construcción del
conocimiento.
En el desarrollo histórico de la investigación cualitativa, autores como Denzin y
Guba (1994), reconocen cinco periodos de este movimiento:
El período tradicional: en este prevalece la influencia del paradigma científico
positivista, la objetividad, la validez y la confiabilidad del conocimiento
producido (se destacan Mead, Malinowsky, Brown y otros)
La fase modernista: transcurre durante los años de la postguerra hasta la
década del sesenta. Se intenta formalizar los métodos cualitativos (se destacan
Taylor, Strauss, Becker, etc.)
El período de la indiferencia de géneros: entre 1970 y 1986. Complementación
de paradigmas. Las estrategias de investigación iban desde los estudios de
casos hasta los métodos biográficos y la investigación clínica. Esta perspectiva
toma las representaciones culturales y sus significaciones como punto de
partida (se destacan Geerzt, quien sostenía que la frontera entre las ciencias
sociales y las humanidades no presentaba una clara definición, planteamiento
que fue integrado por autores como Derrida, Barthes, etc.)
Período de la crisis de representación: durante los años 80, se produce una
ruptura. Se identifican con la aparición de trabajos como "la antroplogía crítica
cultural". En general, este período fue cuestionador de lo que se hacía y
provocó innumerables debates en la antropología, y en relación con los
métodos de investigación social en general.
El período de la doble crisis: este período aparece como resultado de una crisis
de representación y de legitimación de los investigadores cualitativos dentro de
las ciencias sociales. La crisis de representación está definida por el hecho de
que el investigador social puede capturar directamente la experiencia vivida.
Esta experiencia, se argumenta ahora, es creada por el texto social del
investigador; lo cual nos coloca ante el problema del conocimiento como
discurso socialmente construido.
Esta breve caracterización histórica de la investigación cualitativa en las
ciencias sociales, nos muestra la historia de otra forma de investigar que
pretende especificar en sus métodos las características de su propio objeto, en
este caso, sujeto de la propia investigación.
d) Método etnográfico: sus características en el marco de una Perspectiva
Cualitativa de la Investigación
Es importante destacar que el concepto de trabajo de campo ha estado
asociado históricamente con la etnografía. Dicho concepto fue clave para que
el método etnográfico se destacara en el desarrollo de las investigaciones
cualitativas. El trabajo de campo es primordial para muchas de las
investigaciones cualitativas desarrolladas en el campo de las ciencias antroposociales. De acuerdo con Rosana Guber, cuando se habla de campo nos
referimos a esa porción de lo real que se compone no sólo de los fenómenos
observables, sino de la significación que los actores le asignaron a en un
entorno y las tramas que éstos involucran.
Ahora bien, en el trabajo de campo el investigador tendrá una presencia y una
participación constante dentro de la institución, comunidad o grupo de personas
que está investigando, por lo que es importante aclarar que el corazón del
proceso etnográfico dentro de la antropología es el concepto de observador
participante, el cual puede caracterizarse de la siguiente manera: se refiere a la
práctica de vivir entre las personas que uno está estudiando, llegarlos a
conocer, conocer su lengua y su forma de vida mediante la interacción intensa
y continua. Esto significa que el etnógrafo debe conversar con la gente que él
estudia, trabajar con ellos, atender sus funciones rituales y sociales, etc. Esta
participación permite al investigador el acceso a fuentes de información
informal. A diferencia de la recogida de datos, el trabajo de campo presupone
la participación espontánea del investigador en el curso cotidiano de la vida de
los sujetos estudiados, lo cual conduce a la formación de importantes redes de
comunicación que permiten la expresión cotidiana de los sujetos estudiados.
Distinto a la recogida de datos, el trabajo de campo representa un proceso
permanente de establecimiento de relaciones y de construcción de ejes
relevantes del conocimiento dentro del propio escenario en el que trabajamos
el problema investigado. La información que se produce en el campo entra en
un proceso de conceptualización y construcción, que caracteriza el desarrollo
del momento empírico.
El trabajo de campo consta de tres fases:
Fase descriptiva: consiste en la elaboración teórica que sustenta lo práctico
Fase interpretativa: aquí el investigador debe resignificar la producción teórica,
ya que ahora tratará de reconocerla y ver de qué modo se especifica y
resignifica en la realidad concreta.
Fase reflexiva: se evidencia el propósito de cualquier proceso de investigación,
que es el de producir conocimientos.
En cuanto a la fase descriptiva, es necesario aclarar que dicha orientación
dominó el desarrollo de los métodos etnográficos en sus inicios sólo
registrando los eventos relevantes que se producían en el campo. Ahora,
dentro de un marco cualitativo de investigación, el investigador debe seguir
estos eventos a través de las ideas y construcciones del mismo; que generan
por su presencia en la situación de campo. El trabajo de campo es una vía
esencial de entrenar la iniciativa intelectual del investigador, que está obligado
a elaborar sus propias ideas frente a lo que está ocurriendo en el escenario de
la investigación.
El trabajo de campo representa un proceso abarcador dentro del cual
adquieren significación informaciones nuevas, imprevistas en el momento de
definición del problema.
El campo no representa un recorte estático de informaciones a seleccionar,
sino un proceso activo, que de forma permanente genera informaciones que
desafían los propios marcos teóricos con que el investigador se aproxima a él.
El trabajo de campo sigue la ruta singular de los sujetos involucrados en sus
contextos.
En cuanto a las técnicas, serán las herramientas del investigador para acceder
a los sujetos de estudio en su mundo social, dentro de una reflexividad. Se
pueden emplear historias de vida, entrevistas, estudios sobre la
documentación, grabaciones de video, etc.
El análisis de las informaciones consistirá en la organización de las mismas con
el modelo de la comunidad o grupo estudiado. El producto final de este
proceso, que suele aparecer en forma de un artículo o de una monografía, es
básicamente una síntesis de los dos modelos de la realidad social.
Como propuesta al campo educativo, se pueden realizar investigaciones
orientadas como microetnográficas, en el sentido de escoger como unidad un
barrio y no solamente una escuela o salón de clase. La microetnografía
aportaría a un estudio más adecuado en el campo educativo, un etnógrafo
educativo necesita una buena teoría de la estructura social de la escuela y de
la comunidad en la cual la escuela está situada. Su estudio debe ser
"completo", por ejemplo, debe demostrar de qué forma la educación está ligada
a la economía, al sistema político, a la estructura social local, etc.
REFLEXIÓN
El encuadre que nos presenta la investigación cualitativa, nos posibilita
ubicarnos como sujetos protagonistas en la construcción y reconstrucción del
conocimiento científico, ya que la misma implica la incorporación de la
dimensión subjetiva en las ciencias sociales. La dimensión subjetiva la
podríamos pensar como una ruptura de índole epistemológica ante los
paradigmas de carácter positivista. La misma, condujo a continuas
reelaboraciones epistemológicas y metodológicas de las distintas líneas que se
han presentado en el campo de la investigación, otorgándoles significativos
aportes, por lo que aquí merece como categoría una especial distinción.
La investigación cualitativa es un proceso permanente de producción de
conocimiento, donde los resultados serán momentos parciales que de forma
permanente se integran a nuevos interrogantes, es decir, en un proceso
dialéctico donde quedan implicados la confrontación del corpus teórico y el
corpus empíricos, sin cortes y dentro de un determinado contexto. Estos
aportes epistemológicos, desde mi punto de vista, son claves par diferenciar
otras maneras de abordar las investigaciones que intentamos llevar a cabo en
el campo de la educación. Ahora bien, el método etnográfico es una de las vías
que se presenta desde una perspectiva cualitativa, lo que implica tener en
cuenta dos instancias que serán fundamentales en el abordaje de la realidad
que se intenta estudiar. Estas son: la flexibilidad del método y el observador
participante. La primera, dará lugar a la construcción y reconstrucción de
categorías, preguntas y repreguntas, etc., y la segunda, implica la integración
de la subjetividad del investigador; la cual es fundamental en la interacción
entre sujeto y realidad.
También es necesario aclarar que en estas investigaciones de carácter
cualitativo entrarán en juego otras técnicas, como las historias de vida,
entrevistas, etc. en las que se podrá rastrear la capacidad interpretativa de los
sujetos de estudio, y la interpretación que, a su vez, lleva a cabo el investigador
desde los conceptos de su disciplina y las reglas de su método. Aquí es donde
se pondrá en juego la doble hermenéutica como proceso de codificación y
procesamiento de la información.
Otro de los aspectos interesantes que debe quedar claro en esta reflexión es
que en el desarrollo de un proceso de investigación cualitativa, las técnicas de
carácter cuantitativo de recolección de información no son descartadas, ya que
dicha información aportada pasará a ser parte de un proceso de construcción
del conocimiento con carácter cualitativo.
Por último, creo necesario explicitar el aporte del concepto de triangulación en
el campo de la investigación, ya que el mismo puede definirse desde Denzin
como "la combinación de metodologías en el estudio del mismo fenómeno",
Este autor dio lugar a que el análisis cualitativo tuviera un papel central en la
triangulación, lo que supone que el investigador es llevado a sostener una
cercanía a la situación desde una mayor sensibilidad a la cantidad de
información. Entonces, información cualitativa y análisis funcionarían como
base que une la interpretación de resultados de muchos métodos.
Pienso que estos aportes teóricos- epistemológicos realizados desde varios
autores, nos motivan a seguir reflexionando y construyendo desde nuestros
lugares nuevos aportes al campo de la investigación, que nos permitan hacer
ciencia desde un lugar diferente.
UNIDAD III: EL PROGRAMA NEOPOSITIVISTA DE
FUNDAMENTACION DEL CONOCIMIENTO CIENTIFICO
Y LA REACCION ANTIINDUCTIVISTA
3.1 Fenomenalismo y fisicalismo en la filosofía de la ciencia del
círculo de Viena
A principios del siglo XX, Moritz Schilick (fue uno de los primeros pensadores
ocupados en discutir la física relativista en la concepción del mundo y
particularmente el concepto de “causalidad”) asumiría de la cátedra de filosofia
en la Universidad de Viena y bajo su influencia surgirá una escuela integrada
por personalidades como Rudolf Carnnap, Otto Neurath, Fredrich Waismann,
Otto Neurath, Kurt Gödel y Hans Han. El círculo de Viena, tenía pues, afinidad
por el positivismo lógico, inspirado en el empirismo histórico y los recientes
aportes de la lógica matemática. La consecuencia más notable de esta
escuela, fue que desde entonces, las ciencias quedaron divididas entre
“formales” (la lógica la matemática), las cuales son esencialmente analíticas y
las fácticas, es decir, orientadas a la realidad física (ej: biología, psicología,
sociología), que se fundan directa o indirectamente en la percepción.
Las líneas internas del Círculo de Viena, se dividían en función de las
interpretaciones de las “clausulas protocolarias” (enunciados que se
corresponden con una base empírica que permite su confirmación o
refutación):
1. Fenomenalismo Las “clausulas protocolarias” serían enunciados
elementales, registros de experiencias inmediatas del sujeto (datos
sensoriales)
2. Fisicalismo Las “clausulas protocolarias” serían descripciones de objetos
físicos y fue esta opinión la que prevaleció finalmente.
El positivismo lógico fue criticado por su carácter reduccionista. Además, su
visión del progreso científico supone que las teorías ampliamente confirmadas
son inmunes a una disconfirmación futura, porque los resultados de la
investigación científica serían meramente acumulativos. Por otra parte, se
sentarán dudas sobre la dicotomía analítico-sintética y se buscarán argumentos
en contra de la distinción entre términos teóricos y observacionales (a fin de
negar la existencia de una base empírica neutral). Mucho del cuerpo crítico de
esta perspectiva, supone enfatizar los aspectos sociológicos e históricos por
sobre los meramente lógicos.
3.2 La fundamentación del conocimiento: el ídolo con pies de
barro
Hume fue uno de los máximos representantes del empirismo británico. Sus
críticas claras y profundas al racionalismo despertaron a Kant de su "sueño
dogmático".
Hume aplicó el método científico al estudio del espíritu humano, analizando los
procesos psíquicos con un modelo similar o equiparable al utilizado por Newton
para el análisis de los fenómenos físicos. Los elementos básicos o "átomos"
son aquí las percepciones (impresiones e ideas simples) que se relacionan
espontáneamente entre sí según las leyes de asociación de ideas (semejanza,
contigüidad espacial y temporal, y causalidad). Como todas las ideas derivan
de las impresiones, no cabe hablar, como hacían los racionalistas, de "ideas
innatas".
A continuación se presenta un esquema del proceso de conocimiento tal como
lo entienda Hume, acompañado de una breve descripción de los elementos que
lo componen.
: Según Hume, las impresiones provienen de causas desconocidas.
Percepciones: son los elementos básicos o primigenios de la actividad del
espíritu, la cual consiste precisamente en relacionarlos.
Impresiones: son percepciones vivaces e intensas y pueden provenir de la
sensación externa, también llamada simplemente "sensación" (oír, ver, etc.); o
de la sensación interna, también denominada "sentimiento" (desear, odiar,
etc.).
Ideas simples: son percepciones débiles y oscuras. Se trata de copias de las
impresiones y provienen de ellas (recuerdos, fantasías de la imaginación, etc.).
Razonamientos: a partir de las ideas simples, el espíritu razona y construye
proposiciones e ideas complejas.
Ideas complejas: el espíritu tiende naturalmente a asociar las ideas simples
conformando ideas complejas. Las ideas más generales y abstractas provienen
de las ideas más simples y éstas de las impresiones. Si las ideas simples que
componen una idea compleja no se dan en ella en el mismo orden en que se
nos dan las impresiones de las cuales provienen, la idea compleja no responde
a las impresiones sino a la imaginación.
Proposiciones de razón: son proposiciones cuya verdad depende de las
mismas ideas pensadas. Permiten lograr un conocimiento verdadero porque su
contenido es necesario y no contingente (Matemática y Lógica). Sólo en en
este plano es posible la "demostración".
Proposiciones de hecho: sobre las cuestiones de hecho no hay posibilidad de
alcanzar un conocimiento cierto, demostrativo, ya que allí no hay necesidad
sino contingencia y, en consecuencia, siempre lo contrario puede ser pensado
sin contradicción. Sin embargo, Hume sostiene que, en base a la observación
regular y a la experimenación, pueden formularse "pruebas" (que no permiten
una duda razonable) o "probabilidades" (que recogen experiencias con
resultados variables). De todos modos, no tenemos de las cuestiones de hecho
verdadera ciencia, ya que la idea de causalidad que nos permite unir los
fenómenos, explicarlos y predecirlos, no se respalda en ninguna impresión y,
por tanto, halla su fundamento sólo en la imaginación y la costumbre.
Palabras: representan a las ideas, por lo que su significado deriva en última
instancia de las impresiones de las que proceden éstas.
3.3 Argumentos lógicos y razones históricas con la teoría
inductiva de descubrimiento científico
I. ANTES DEL CIRCULO DE VIENA
1.
Preliminares históricos
Para no ir muy lejos en la historia, basta para los propósitos de este trabajo
simplemente bosquejar algunas de las principales corrientes filosóficas del siglo
XIX que precedieron a la formación del Círculo de Viena también llamado
“positivismo lógico”. Para ello, utilizaremos como guía un estudio de J. Padrón
(1992) al respecto y también tomaremos algunas orientaciones dadas por E.
Bedford (1994).
§
El siglo XIX, precisamente, fue el gran escenario del debate entre el
discurso ambiguo y el discurso exacto, entre el dogma y la crítica, entre lo
"metafísico" y lo "físico" y, en fin, entre la especulación y la ciencia. Por una
parte, en este siglo se aceleraron los descubrimientos generadores de
tecnología; pero, por otra parte, el dogma, el escepticismo y el pensamiento
ambiguo recibieron un fuerte impulso de parte del romanticismo, el cual
pregonaba la desconfianza en la razón y en la capacidad sensorial a favor del
sentimiento, la intuición y la emotividad.
§
También surgieron otras dos grandes interpretaciones del conocimiento
científico: una, que sitúa la validez del conocimiento en los mecanismos de la
razón (racionalismo) aunque todavía afectada por ciertas concesiones a la
metafísica; otra, que sitúa esa validez en los datos de los sentidos y de la
experiencia (empirismo).
§
La interpretación racionalista del conocimiento científico, asociada
comúnmente al método deductivo de descubrimiento y comprobación. En este
enfoque se destacan los filósofos y científicos de la época helenística clásica
(practicamente todos), los filósofos escolásticos (Sto. Tomás, Duns Scoto...) y
ciertos pensadores que conjugaron la filosofía con la lógica y la matemática
(Descartes, Leibnitz y Kant, quien específicamente aplicó el término
"racionalismo" a su propia posición)....”
§
La segunda interpretación, la empirista, privilegia el método inductivo. El
empirismo fue desarrollado principalmente por los filósofos ingleses Locke,
Berkeley, Hume y J. S. Mill. También los enciclopedistas franceses tomaron las
ideas del empirismo. Surgió como una reacción al racionalismo.
§
Pero fue el empirismo inductivo, mucho más que el racionalismo
deductivo, el que evidenció mayores aportes tecnológicos. De hecho, “’la
tradición empirista ha sido...antagonista a la metafísica, y le ha dado a la
ciencia un alto valor como medio de adquisición de conocimiento” (Bedford,
1994). También, según Bedford, “el establecimiento del empirismo puramente
como una tesis sobre la estructura lógica del conocimiento ha sido un
importante estímulo importante para el desarrollo de la lógica-matemática”
(Ibíd.).
§
“De ahí que el empirismo inductivo, bajo ciertos cánones identificados
con la palabra positivismo, se convirtiera en la primera y más influyente
interpretación del conocimiento científico en el siglo XX, reaccionando contra el
pensamiento anárquico o especulativo y propugnando el conocimiento riguroso,
sometido a reglas de validación fundadas en la experiencia constatable”
(Padrón 1992).
2. El asunto de los conceptos y los enunciados a priori
Creemos importante introducir esta parte a fin de preparar el camino para un
mejor entendimiento de las discusiones que siguen en la próxima.
Nuevamente, por razones prácticas, bosquejaremos las principales ideas al
respecto siguiendo a Bedford (1994).
Las controversias entre los racionalistas y empiristas tuvieron al menos dos
fuentes importantes relacionadas con los conceptos a priori y con los
enunciados a priori:
Los conceptos a priori
El racionalismo. Los conceptos a priori son ideas que, según se afirma, no se
derivan de la experiencia sensible sino que son producidas
independientemente por la razón o por el intelecto. Los racionalistas admiten
que algunos conceptos son empíricos (por ejemplo que derivamos nuestra idea
de lo rojo de nuestra experiencia de ver objetos rojos), pero mantienen que el
conocimiento que tenemos del mundo también implica conceptos a priori como
los de causa y sustancia.
El empirismo. Bajo este enfoque es fundamental negar la existencia de tales
ideas. Los empiristas, por tanto, argumentan que o bien los pretendidos
conceptos a priori pueden ser analizados o descompuestos en una
combinación de conceptos más simples que se derivan de la experiencia, o
bien en ocasiones, de manera más radical, que no son conceptos genuinos
(por ejemplo, que «Sustancia», en cuanto que término metafísico, es
simplemente una palabra a la que no se puede asignar ningún significado).
Los enunciados a priori
El empirismo. Generalmente se está de acuerdo en que todas las verdades
necesarias son a priori puesto que de la experiencia lo único que podemos
aprender es que ha ocurrido y que es probable que ocurra, y no que deba ser
así. Los empiristas, que creen que no tenemos ningún medio de adquirir
conocimiento, excepto mediante la observación de lo que ocurre realmente,
afirman que las verdades necesarias son verdaderas por definición, o
analíticas.
El racionalismo. Los racionalistas mantienen que algunos enunciados a priori
son sintéticos; esto es, que nos dicen algo acerca de la naturaleza del mundo.
La aserción “todo evento debe tener una causa” por ejemplo, se ha dicho que
es un principio auto evidente de este tipo: a priori porque establece una
conexión necesaria, y sintético porque no es simplemente verdadero por
definición (como “todo efecto tiene una causa”).
Nota final: Es característico del empirismo negar que la razón pueda
asegurarnos la verdad de un enunciado genuinamente sintético y, por tanto,
que cualquier proposición pueda ser a la vez a priori y sintética.
Como bien apunta Bedford, “como resultado de su desacuerdo en estas
cuestiones de principio, racionalistas y empiristas tienen actitudes muy distintas
respecto a la ciencia natural y la metafísica”. En otras palabras,
Los racionalistas se han inclinado, hablando en general, a pensar que las
creencias basadas en la experiencia estaban infectadas por el error. Para ellos,
no se puede obtener el entendimiento del mundo mediante la percepción
sensible, que es confusa, sino mediante la especulación metafísica. Pero
precisamente porque la metafísica pretende proporcionar conocimiento de una
realidad que trasciende la experiencia, la investigación metafísica depende de
que tengamos conceptos a priori.
La tradición empirista ha sido por tanto antagonista de la metafísica, y le ha
dado a la ciencia un alto valor como medio de adquisición del conocimiento.
3. Matemáticas y empirismo
Una aplicación típica de los principios empiristas es la efectuada en la teoría
de la matemática. Siempre se había considerado a la matemática como un
baluarte del racionalismo, puesto que, a primera vista, las proposiciones
matemáticas son a priori y sintéticas. 7+5=12: parece cierto tanto que esto
debe ser así como que es verdad con respecto a objetos que podemos conocer
antes de cualquier experiencia de ellos.
Los empiristas han respondido a este desafío de dos formas: o negando el
carácter a priori de la matemática o bien el carácter sintético:
El primer curso es el que tomó J. S. Mill que trata a la matemática como una
generalización a partir de la experiencia. Según él, 7 + 5 = 12, es una ley de la
naturaleza basada en la observación. Sin embargo, si la aritmética no es
necesariamente verdadera y solamente es establecida por la experiencia,
queda la posibilidad de que pudiera ser falsificada por la experiencia, por difícil
que pueda ser imaginar cómo sería esa experiencia. Pocos empiristas han
estado dispuestos a admitir esta paradoja.
Generalmente han tomado la otra alternativa, la de afirmar que la matemática
es analítica, y no sintética. Según este punto de vista, las proposiciones
matemáticas son verdaderas por definición. 7 + 5 = 12 es una verdad necesaria
sólo porque definimos «7», «+», «5», «=» y «12», de tal modo que esto sea así.
Por tanto, la matemática no nos da, como pensaban los racionalistas ninguna
información sobre la naturaleza del mundo. El positivismo lógico del Círculo de
Viena endosaría esta tesis.
II. EL POSITIVISMO LÓGICO DEL CIRCULO DE VIENA
1. Sus principales pensadores
De acuerdo con Urmson “El Círculo de Viena se originó a comienzos de los
años veinte como un grupo de discusión informal en la Universidad de Viena,
presidido por Moritz Schlick. Entre los miembros más prominentes se contaban
Rudolf Carnap, Otto Neurath, Friedrich Waismann, Philipp Frank, Hans Hahn,
Herbert Feigl, Victor Kraft, Felix Kaufmann y Kurt Godel. Otros asociados, más
o menos remotos en la distancia, en el tiempo o en la opinión, fueron Hans
Reichenbach, Carl Hempel, Karl Menger, Richard von Mises, Joergen
Joergensen, Charles W. Morris y A. J. Ayer. Muchos componentes del círculo
original no eran filósofos, sino matemáticos, físicos y científicos sociales, que
compartían un interés común por la filosofía de la ciencia y un disgusto común
por la metafísica académica que entonces prevalecía en Alemania y en Europa
Central” (Urmson, 1994).
Estos pensadores seguían la tradición positivista de D. Hume y se “puso el
epíteto de “lógico”, porque ellos pretendían añadir los descubrimientos de la
lógica moderna; en particular creían que simbolismo lógico que ha sido
desarrollado por Frege, Peano y Russell les sería útil” (Ayer, 1959).
2. Sus raíces y fuentes de inspiración
2.1. Las raíces del Empirismo Lógico.
El Empirismo Lógico del Círculo de Viena hunde sus raíces en dos elementos
fundamentales: la concepción de la verdad de Aristóteles y el positivismo o
empirismo clásico de D. Hume y A. Comte.
La teoría de la verdad de Aristóteles: La concepción clásica de la verdad
formulada por Aristóteles enunciaba una correspondencia entre el decir y el
ser: decir las cosas como son era sinónimo de discurso verdadero. El Círculo
de Viena reformuló esta concepción, y estableció ahora que la concepción de la
verdad era una correspondencia entre proposiciones y hechos. Es decir, los
enunciados científicos pueden ser verificados en la medida que se
correspondan con los hechos o que las observaciones empíricas han de
concordar con las predicciones de la ciencia.
El empirismo: La tesis fundamental de todo empirismo, antes y después de
Hume y Comte, es que la única fuente de conocimiento es la experiencia
sensible. El positivismo lógico es un desarrollo ligado a la gran corriente de los
filósofos empiristas ingleses como Francis Bacon (1561-1626), T. Hobbes
(1588-1679), J. Locke (1632-1704), Berkeley (1685-1753), D. Hume (17111776), J. S. Mill (1806-1873).
2.2. Las fuentes de inspiración.
Padrón (1992) señala que “las posiciones del Círculo de Viena estuvieron
directamente influenciadas por cuatro antecedentes básicos, los primeros dos
de carácter filosófico, el tercero de carácter histórico y el otro de carácter
instrumental. En primer lugar, el "empirio-criticismo" del físico austríaco Ernst
Mach....con fuertes implicaciones neopositivistas, el cual sólo reconocía como
datos válidos de conocimiento aquellos elementos ubicados en la experiencia y
traducidos en señales de captación sensorial, excluyendo todo enunciado `a
priori' y todo juicio que no pudiera ser confrontado con datos sensoriales. En
segundo lugar, las posiciones de Viena se apoyaron en el "análisis lógico del
conocimiento" de Wittgenstein... así como en sus tesis sobre la naturaleza
"analítica" de la Lógica y la Matemática y en sus críticas a la filosofía
especulativa. En tercer lugar, y como influencia de tipo histórico, la revolución
de la Física Cuántica fue interpretada como demostración del carácter analítico
de la ciencia y de la fuerza del pensamiento riguroso orientado hacia los
hechos observables y hacia los mecanismos de comprobación....[En cuarto
lugar], como antecedente de carácter instrumental, las herramientas de la
lógica matemática, consolidada unos veinte años antes en los "Principia
Mathematica" de Russell y Whitehead y profundizada por los lógicos polacos y
los trabajos de Hilbert, ofrecieron al Círculo de Viena un importante aparato
para traducir datos de conocimiento empírico a un lenguaje preciso, riguroso e
inequívoco que concibieron como modelo del lenguaje científico: de allí las
célebres expresiones "empirismo lógico" y "atomismo lógico" con que se
identificó el Círculo (la Lógica de Bertrand Russell había distinguido entre
hechos/ proposiciones "atómicos" y hechos/proposiciones "moleculares")”.
En resumen:
Dos antecedentes de carácter filosófico:
Neopositivismo de E. Mach: En esta postura se negaba todo tipo de elementos
a priori en las ciencias empíricas.
El Tractatus de Wittgenstein: En su obra, Wittgenstein, discípulo de Russell,
vinculaba la tradición empirista con la nueva lógica-matemática.
Antecedentes de carácter histórico e instrumental:
Carácter histórico: La revolución de la física a comienzos del siglo XX. Las
contribuciones de Einstein para la compresión de la estructura del espaciotiempo y de la gravitación, y la de la Mecánica Cuántica para la comprensión de
la estructura atómica y nuclear.
Carácter instrumental: La lógica-matemática: La creación de la lógicamatemática por B. Russell y A. Whitehead en 1905. También las
investigaciones de G. Frege y el mismo Russell sobre la naturaleza de la
representación lingüística. Estos aportes propiciaron la construcción de un
lenguaje lógico, principalmente por R. Carnap, elaborado a partir de ciertas
proposiciones que permitirían “el análisis de los conceptos científicos y la
clarificación de los problemas filosóficos” (Carnap, 1992).
Así que el positivismo lógico “como una forma más extrema y sofisticada del
positivismo, es una teoría de la ciencia que plantea que el único tipo de
conocimiento no analítico válido es el conocimiento científico; este
conocimiento consiste en la descripción precisa de modelos teóricos
invariantes en el tiempo y en el espacio elaborados a partir de los fenómenos
observados” (Damiani, 1997).
3. Su proyecto
El proyecto del Círculo de Viena estribaba “en conformar una filosofía científica.
Las matemáticas y la lógica, así como la física, son los grandes modelos a los
que deben toda forma de discurso científico. El programa positivista de Comte
en el Siglo XIX debía ser culminado, convirtiendo la biología, la psicología y la
sociología en ciencias positivas. La unificación de la ciencia debe llevarse a
cabo reduciendo todas las proposiciones observacionales a lenguaje fiscalista,
con lo cual se mostraría que existe un núcleo común a todas las ciencias
positivas” (Echeverría, 1989). Y su proyecto institucional era la elaboración de
la Enciclopedia para la Ciencia Unificada (Ibíd.).
4. Sus principales características
4.1. El llamado giro lingüístico.
El Círculo de Viena desplazó el foco de observación desde la conciencia
individual (la orientación seguida desde Descartes, en Kant y en el idealismo
alemán) al lenguaje (Bedford, 1994). Y partir de allí, junto con otros elementos
ya mencionados, el empirismo o positivismo lógico construyó una doctrina
sobre la estructura lógica del conocimiento científico. De esta manera, el
Círculo de Viena distinguió, o al menos propuso distinguir, la ciencia de la
metafísica (y de cualquier otro conocimiento) basándose en un criterio
epistemológico de significatividad cognoscitiva. Esto le permitió “al positivismo
lógico aplicar radicalmente la navaja de Ockham, descartando del pensamiento
científico numerosos conceptos y trabajos llevados a cabo por la filosofía
especulativa” (Echeverría, 1989).
4.2. Características del Círculo de Viena: (ver Urmson, 1994).
4.2.1. Características generales
a)
Un empirismo total. El cual se apoyaba en los recursos de la lógica
moderna y en los logros de la física moderna. Desde el punto de vista
metodológico las ciencias empíricas están basadas en la inducción[6].
b)
Un empleo de la lógica-simbólica. Usada como un instrumento para
deslindar entre distintos lenguajes y sus relaciones tanto en sus aspectos
formales (sintaxis-lógica) como en su contenido o referencias a lo real
(semántica).
c)
Un rechazo a la metafísica y a la teología. En línea con el pensamiento de
la Ilustración, los pensadores del Círculo de Viena (ya formados en el
escepticismo) fomentaron un repudio hacia la metafísica por estar fuera de lo
que era concebido como lo “sensible” y empírico. La acusación básica contra la
metafísica estaba centrada en que sus proposiciones carecían de significado.
Es decir, las proposiciones de la metafísica carecen de sentido en virtud de que
no tienen relación con los hechos; ya que éstas no están construidas en base
de proposiciones elementales.
d)
Una restricción del dominio de la filosofía. El espacio de acción de la
filosofía fue casi literalmente reducida a la tarea de eliminar sus propios
problemas.
e)
Un fisicalismo: Todos los enunciados empíricos pueden ser expresados
en el lenguaje de la física. Este fue el fundamento teórico a favor de la unidad
de la ciencia. Esta propuesta inicial de un lenguaje fisicalista estuvo ligada a los
cambios dramáticos de la física en las tres primeras décadas del siglo XX
originados principalmente en las teorías de la relatividad de Einstein y en la
Mecánica Cuántica.
4.2.2. Característica epistemológica esencial: El Principio de Verificación
Los elementos anteriores permitían configurar el Principio de Verificación, que
es la característica esencial del positivismo lógico. De hecho, el objetivo
fundamental de la metodología era “formular y legitimar una regla de
aceptación de los enunciados conforme a la convicción fundamental según la
cual una proposición científica debe ser aceptada sólo cuando es verdadera”
(Damiani, 1997). Para concretar esta norma es necesario un método, un criterio
de significatividad, que permita establecer si determinada proposición es o no
verdadera. En otras palabras, “de acuerdo con el neopositivismo el método de
la ciencia debe ofrecernos una estrategia infalible para el hallazgo de la verdad”
(Ibíd.). Se estimaba ofrecer criterios de racionalidad científica, buscaba
discriminar con certeza absoluto la ciencia de la pseudo-ciencia. De modo pues
que, “el concepto de significado establece una línea de demarcación entre las
proposiciones significantes de las ciencias empíricas y los enunciados
insensatos de la metafísica” (Damiani). En resumen, el positivismo lógico utiliza
como criterio de significatividad de las ciencias fácticas el principio de
verificación que sirve como criterio de demarcación del discurso científico del
no científico” (Damiani).
Ahora bien, el principio de verificabilidad funciona “solamente en la medida que
se conceda una autoridad particular a una clase específica de proposiciones
empíricas cuya certeza no puede ser cuestionada: debe establecerse una
fuente segura que nos proporcione conocimiento real, como fundamento
epistemológico sobre el cual construir el edificio de la ciencia...La teoría de la
verificación o del significado, que es la característica definidora de la
epistemología neopositivista, ofrece los medios para distinguir los enunciados
con y sin significado; se entiende por verificación el procedimiento adoptado
mediante el cual se comprueba la verdad o falsedad de algún enunciado”
(Damiani).
4.2.2. Los Principios del Positivismo
Los principios originales del positivismo lógico, y que luego se debilitarían con
el transcurso del tiempo, son los siguientes:
1.
El principio del Empirismo; según el cual todo conocimiento (no analítico)
depende de la experiencia, y
2.
El principio del significado cognoscitivo; de acuerdo con el cual la
significación cognitiva de un enunciado es tal, solo si es (a) analítico o
autocontradictorio (como en el caso de las ciencias formales como la lógica y
las matemáticas) o (b) puede ser verificado experimentalmente.
4.3. Las cuatro tesis básicas del Círculo de Viena
De acuerdo con Padrón (1992) la escuela del Círculo de Viena produjo cuatro
tesis bien definidas que interpretan el conocimiento científico, a saber, el
criterio de demarcación (principio de verificación), el lenguaje lógico, la
unificación de la ciencia y la inducción probabilista. Las tres primeras
constituyen las tesis básicas producidas por el Círculo de Viena; las cuales
sufrieron un sinnúmero de revisiones y modificaciones, algunas fáciles de
captar, otras, realmente difícil de entenderlas. La última tesis es un producto
indirecto del Círculo de Viena y se debe a Carnap y forma parte de lo que se ha
llamado la segunda fase del positivismo lógico. En la siguiente sección
entraremos a una descripción sucinta de las tres primeras tesis: sus
fundamentos y sus respectivas evoluciones, hasta arribar a la cuarta tesis.
5. Su objetivo
El positivismo lógico estableció como meta alcanzar los siguientes objetivos
fundamentales: (1) Dar a la ciencia una base positiva y (2) adoptar el análisis
lógico del lenguaje, de los conceptos de la ciencia empírica (y mediante estos
recursos demostrar la inutilidad de la metafísica).
6. Su metodología
El neopositivismo pretendía alcanzar sus objetivos mediante su particular
método científico que constaba de dos factores: la verificación empírica y el
análisis lógico del lenguaje.
7. Etapas del Positivismo Lógico
Primera fase: El Círculo de Viena (1929-1936). Sostenía la idea de una
verificación concluyente de los enunciados científicos a partir de las
proposiciones elementales. Alrededor de esta idea se articularon los
argumentos y postura originales del Círculo de Viena.
Segunda fase: La Concepción Heredada (1936-). Debido a la dificultad sobre
este punto es preferible citar textualmente a Padrón: “A pesar de su impacto
inicial y de su enorme influencia, estas tesis se vieron sometidas a crítica por
otros filósofos de la ciencia que, aunque coincidían en los aspectos básicos ya
planteados, disentían en otros más específicos (Quine, Putnam, Toulmin,
Hanson, Nagel, etc.). Los mismos integrantes del Círculo fueron haciendo
revisiones y rectificaciones propias (Carnap, especialmente, Hempel y otros).
De estas críticas y revisiones nació una ulterior interpretación del conocimiento
científico que respetaba las bases del Círculo, pero que imponía modificaciones
y correcciones de interés. En esencia, se abandonó el "empirismo ingenuo"
implícito en las tesis iniciales; se reajustó el concepto de "reglas de
correspondencia" entre los planos teórico y observacional. Volviendo a
Whewell, quien casi un siglo antes sostenía la relatividad de la distinción
"teórico/empírico", advirtiendo...que "nuestras percepciones envuelven nuestras
ideas" (lo cual Hanson parafraseó al decir que toda observación está "cargada
de teoría"); se hizo más flexible el concepto de "reducción" de unas teorías a
otras y se amplió el modelo de las teorías científicas para dar cabida a otras
opciones válidas. Todas estas revisiones y ajustes conformaron una diferente
interpretación que se divulgó bajo el término "Received View" o "Concepción
Heredada" que, en pocas palabras, consistió en una versión menos radical y
más reflexiva de las tesis del Círculo de Viena” (Padrón, 1992).
III. LAS TESIS DEL CIRCULO DE VIENA
1. Las tesis básicas del Círculo de Viena
Siguiendo a Padrón (Ibíd.) mencionaremos algunas líneas que las definen.
El criterio de demarcación:
·
Lo que esencialmente distingue al conocimiento científico frente a otros
tipos de conocimiento es su verificabilidad con respecto a los hechos
constatables.
·
Un enunciado científico aceptable será sólo aquél que resulte verdadero
al ser comparado con los hechos objetivos. Así, la verificación empírica
constituye el criterio específico de demarcación entre ciencia y no-ciencia.
El lenguaje lógico:
·
Los enunciados serán científicos sólo si pueden ser expresados a través
de símbolos y si pueden ser relacionados entre sí mediante operaciones
sintácticas de un lenguaje formalizado (independiente de su contenido
significativo).
·
Los enunciados científicos estarán dotados de una expresión sintáctica,
formal o simbólica, por una parte, y de una correspondencia semántica,
significativa o empírica, por otra parte.
·
La base de esta correspondencia estará, por supuesto, en los enunciados
observacionales más concretos dados por la experiencia (lenguaje "fisicalista").
La unificación de la ciencia:
·
Todo conocimiento científico, cualquiera sea el sector de la experiencia
sobre el cual se proyecte, estará identificado (construído, expresado,
verificado...) mediante un mismo y único patrón.
·
En un sentido epistemológico y metodológico, no se diferenciarán entre sí
los conocimientos científicos adscritos a distintas áreas de la realidad. Ya que
la realidad constituye globalmente una sola estructura compacta y coherente
(ordenada), también el conocimiento científico de la misma debe resultar, en
definitiva, una misma construcción igualmente integrada.
·
En virtud de ello, existe una única Filosofía de la Ciencia, es decir, un
único programa de desarrollo científico para toda la humanidad. La Lógica y la
Matemática serán el esquema básico para toda expresión comunicacional
'verificable' de la 'ciencia'.
La inducción probabilística:
·
La producción de conocimiento científico comienza por los hechos
evidentes susceptibles de observación, clasificación, medición y ordenamiento.
Sigue con la detección de regularidades y relaciones constantes y termina con
las generalizaciones universales formuladas mediante leyes y teorías.
·
Sin embargo, dado que el conjunto de todos los datos de una misma
clase suele escapar a las circunstancias de tiempo/espacio del investigador
entonces el proceso de generalización de observaciones particulares tiene que
apoyarse en modelos de probabilidad, base de los tratamientos estadísticos
utilizados actualmente en todas las áreas de investigación.
·
De acuerdo al concepto de probabilidad, es posible inferir leyes generales
a partir de un subconjunto o muestra representativa de la totalidad de los casos
estudiados. Esto implica que el conocimiento científico debe tomar en cuenta
ciertos índices de error y ciertos márgenes de confiabilidad previamente
establecidos.
En otras palabras, la tesis del positivismo lógico se desplazó desde el criterio
de verificación de Wittgenstein (vía deductiva a partir de proposiciones
elementales cuya verdad se establece por la vía de la observación) hasta llegar
a la aplicación de una lógica inductiva. Luego, el positivismo lógico de la
Concepción Heredada estableció la inducción lógica como método de las
ciencias empíricas. La lógica inductiva permitiría fundamentar el criterio de
verificación empírica en el grado de probabilístico de confirmación de una
determinada hipótesis.
2. La tesis del lenguaje lógico y sus dificultades
En parte veremos como ocurrió el desplazamiento recién mencionado. Para
ello, vamos a considerar a grandes rasgos dos de las principales tesis del
Círculo de Viena tales como la tesis de lenguaje lógico y la del criterio de
demarcación; éstas juntas logran confluir para dar forma a la cuarta tesis: la de
la inducción probabilista. En sus respectivos contextos consideraremos también
las modificaciones o evoluciones que experimentaron. Dejaremos fuera de
análisis a la tesis de la unificación de la ciencia por la sencilla razón que ésta
se modificaba y tomaba cuerpo en virtud de las modificaciones experimentadas
por las tesis anteriores. Vamos a esquematizar los elementos cruciales de esta
tesis y de sus dificultades inherentes.
2.1 La idea central
La investigación de la teoría del conocimiento en términos de la lógica aplicada
“se propone aclarar por medio del análisis lógico el contenido cognoscitivo de
las proposiciones científicas, y con ello la significación de las palabras que se
usan en las proposiciones, conduce a un resultado positivo y a otro negativo”
(Carnap, 1931).
El resultado positivo se ha elaborado en el dominio de la ciencia empírica; se
aclaran los conceptos particulares de las diversas ramas de la ciencia; se hace
ver su conexión formal-lógica y epistemológica. Aquí se dice que las
proposiciones son significativas dado que tienen sentido en si mismas o
pueden verificarse por medio de la experiencia.
El análisis lógico conduce al resultado negativo de que las pretendidas
proposiciones del dominio de la metafísica (incluida la filosofía de los valores y
la ciencia normativa), son completamente sin sentido. Con esto se ha
alcanzado una superación radical de la metafísica, que no había sido posible
todavía desde los anteriores puntos de vista antimetafísicos. Aquí se dice que
las proposiciones no son significativas dado que carecen de sentido.
2.2. El asunto del lenguaje lógico
Un lenguaje consta de un vocabulario y una sintaxis, es decir, de una colección
de palabras que tienen una significación, y de reglas de la formación de las
proposiciones; esas reglas indican cómo se pueden formar las proposiciones
con las diversas clases de palabras.
Según eso, hay dos clases de seudo-proposiciones (que tienen lugar en la
metafísica):
La proposición contiene una palabra de la cual erróneamente se ha supuesto
que tiene un significado,
Las palabras que entran tienen significado, pero están dispuestas en una
manera opuesta a la sintaxis, de suerte que no llegan a formar un sentido
completo.
2.3. El asunto de las proposiciones primarias o de protocolo y su verificación
Las ideas elementales son como sigue:
Toda proposición puede expresarse en un lenguaje fisicalista
El lenguaje fisicalista tiene como elementos constituyentes y constitutivos a las
proposiciones protocolares
Las proposiciones protocolares se refieren a experiencias del sujeto ya sean
externas o internas. Así que la verdad de una proposición elemental podía
registrarse únicamente por la persona por cuya experiencia hacía la relación.
Una proposición es verificada realmente por medio de la experiencia que
alguien tiene. En la mayoría de los casos la verificación consistía en la
percepción de algún objeto físico. Pero se sostenía (Russell, Berkeley) que a
los objetos que se perciben había que analizarlos en relación con las
sensaciones que se tienen o con la percepción de los datos sensoriales
(Russell).
Todos los enunciados científicos y sus leyes están formulados en forma de
proposiciones, las cuales a su vez están formadas por las proposiciones
primarias o elementales. De modo que solo existen dos clases de
proposiciones con significado: las formales y las fácticas que constituyen todo
el escenario posible, según el empirismo lógico del Círculo de Viena, de la
teoría del conocimiento o de la filosofía científica. Esto es,
Las formales: No son proposiciones acerca de la realidad. En virtud de su
forma son ya verdaderas (tautológicas o analíticas) como las de la matemática
o de la lógica. También entran en esta consideración las contradicciones o
negaciones de estas proposiciones.
Las fácticas: Se refieren a la realidad, es el conocimiento científico por
excelencia. Para estas proposiciones su verdad o falsedad radica en las
proposiciones de protocolo, ya que son proposiciones de experiencia o
empíricas y pertenecen al dominio de la ciencia empírica.
2.4. Las dificultades de las proposiciones de protocolo.
No es difícil ver que el positivismo lógico proponía la existencia de un
homomorfismo entre las proposiciones protocolares y el dato sensible. Las
proposiciones en las que se expresa el conocimiento científico son reducibles a
proposiciones elementales que se corresponden uno a uno con el dato sensible
de la experiencia. Aquí se puede hablar de un homomorfismo entre ambas
entidades.
Sin embargo, la caracterización de la realidad por medio de este
homomorfismo enfrentó una serie de dificultades. La objeción más fuerte tiene
que ver “la condición privada de los objetos a los cuales se suponía que hacían
referencia las proposiciones elementales” (Ayer, 1959). Ello condujo a su vez a
un problema de comunicación. Es decir, “si cada uno de nosotros está obligado
a interpretar cualquier proposición como si fuese una descripción de sus
propias experiencias privadas, es difícil ver cómo podemos en modo alguno
comunicarlas” (Ibid). A fin de evitar la imputación de solipsismo que esto
implica y a fin de mantener el carácter intersubjetivo del conocimiento se
propuso “una distinción entre el contenido de la experiencia y su estructura”
(Ibíd).
El “contenido de la experiencia” se refería a los pensamientos y sentimientos,
los cuales eran incomunicables en el sentido de que cada uno de nosotros
tiene su propia experiencia o percepción del mundo. Estas clases de
experiencias no se pueden verificar ni entender. Pero, lo que sí se puede
entender, verificar y comunicar es un conjunto de elementos del mundo sobre
el cual para cada uno de nosotros son semejante. Esta es la estructura del
mundo. “Lo que importa es que la estructura de nuestros respectivos mundos
es lo suficientemente semejante para que pueda fiarme de la información que
él me da. Y solo en este sentido es como tenemos un lenguaje común” (Ibid).
Aun así, esta propuesta, expuesta principalmente por Schlick, fue acusada de
conducir a un “solipsismo múltiple” (ver Ayer, 1959). “La facción mas radical,
encabezada por Neurath y Carnap, no tendría ninguno de estos lapsus
“metafísicos” y prefería asegurar la objetividad de la ciencia aun a costa de
abandonar su base supuestamente sensible” (Urmson, 1994).
Aquí vendría en auxilio el fisicalismo, formulado por Neurath y aceptado
finalmente por Carnap. El fisicalismo estaba expresado en términos de
“enunciados observacionales, que serían la base de cada uno de las ciencias
positivas” (Echeverría, 1989). Así, vía la tesis del fisicalismo, se reformuló el
homomorfismo ya mencionado en el sentido de que “todas las ciencias
dependen, en última instancia, de protocolos expresados en términos de
objetos y procesos físicos, y que por tanto, todos los enunciados empíricos
pueden ser expresados en el lenguaje de la física” (Urmson, 1994). Así el
homomorfismo queda reformulado en términos de una correspondencia entre
las proposiciones protocolares y los enunciados observacionales. Este fue el
punto de partida para una cruzada a favor de la unidad de la ciencia basada en
el lenguaje lógico del Círculo de Viena.
Lo que siguió fue un distanciamiento del fisicalismo del empirismo, o como dice
Padrón: “En esencia, se abandonó el "empirismo ingenuo" implícito en las tesis
iniciales; se reajustó el concepto de "reglas de correspondencia" entre los
planos teórico y observacional” Padrón, 1992). Con todo, el distanciamiento
iniciado fue ampliado por Neurath y Carnap, “al proponer que se prescindiese
de la teoría de la verdad como correspondencia” (Urmson, 1994)[11].
El asunto de la teoría de la verdad también recibiría sus críticas en virtud de las
debilidades inherentes al llamado principio de verificación. Con este asunto
termina la próxima parte, alcanzándose así un cierre completo en los
argumentos aquí esbozados.
3. La evolución de la tesis del criterio de demarcación y sus dificultades
3.1. Elementos principales
Bajo este criterio es que se notan con mayor facilidad la evolución de la tesis
del principio de verificabilidad en el pensamiento de Carnap. Según se ha
mostrado “las tesis de Carnap fueron evolucionando, desde sus posiciones
verificacionistas iniciales hacia una confirmación progresiva, e incluso de un
grado de confirmación de los enunciados empíricos. En 1936 ya admitía la
confirmabilidad como criterio, y a partir de 1949 va a desarrollar su teoría del
grado de confirmación, que enlazará el empirismo inicial del Círculo de Viena
con la lógica probabilitaria” (Echeverría, 1989).
Veamos en un bosquejo la evolución del criterio de demarcación:
1929-1936: El principio o criterio de verificabilidad
1936-1948: El criterio de confirmabilidad
1949: El criterio del grado de confirmación
A continuación vamos a estudiar brevemente esta evolución.
Intentaremos mostrar como el criterio o principio de verificabilidad experimentó
cambios en su debido contexto. Resumiendo, el Círculo de Viena propone:
§
Un criterio epistemológico de significatividad. Una proposición solo tiene
significado si, en principio, puede ser verdadera o falsa; y ello es posible en
virtud de las reglas de la lógica (como en la matemática pero que no se refiere
a la realidad) o través de la experiencia sensible (como en la física y que se
refiere a la realidad). En este último caso, una proposición fáctica tiene
significado si la experiencia sensible basta para decidir su verdad. Esto era un
criterio de significatividad empírica.
§
Un isomorfismo entre el criterio se significado y el método de
verificación. Es obvio que si una proposición solo puede ser verificada por la
experiencia entonces lo que está envuelto es una “simple identificación del
significado y el método de verificación” (Urmson, 1989)[13]. A esto también se
le llama principio de verificabilidad, el cual exigía que dicha verificación fuese
completa y por medio de la observación.
Nótese que la “regla de correspondencia” entre el plano teórico y el plano
observacional quedaba expresada en el homomorfismo lógico ya mencionado;
pero éste, se sustentaba a su vez en el isomorfismo lógico (Véase la nota 7),
de lo cual es trivial observar que el primero se sustentaba o mantenía en pie en
virtud del segundo. Estos “morfismos” constituían los elementos esencia del
positivismo lógico; eran su virtud y su tragedia.
La primera dificultad:
Relacionada con la significatividad empíricas de los enunciados analíticos: El
criterio de epistemológico de significatividad tuvo que excluir de su ámbito de
definición a los enunciados analíticos por las siguientes razones: “Al depender
dicho criterio de las propiedades del condicional lógico, hubo que matizarlo,
dado que toda proposición analítica sería inferible a partir de un conjunto finito
de oraciones cualesquiera; y asimismo oraciones observacionales
contradictorias entre sí nos permitirían inferir correctamente cualquier
proposición, que de esta manera tendría significación empírica” (Urmson,
1989). En otras palabras, “las expresiones y fórmulas de la lógica y de las
matemáticas no han de verificarse por ser analíticas” (Urmson, 1989).
La segunda dificultad:
Relacionada con el asunto de la inducción y la paradoja del positivismo lógico.
A pesar de la restricción del criterio empirista de significado justo ya
mencionado, tal criterio “seguía presentando problemas El principal de ellos
estribaba en que los enunciados universales en general [como los de la
filosofía misma], y más concretamente las leyes científicas, quedaban excluidos
del edificio de la ciencia” (Urmson, 1989). En otras palabras: “Si todas las
proposiciones formales pertenecen a la lógica, y todas las proposiciones
fácticas, en un sentido amplio, a las ciencias empíricas, no es fácil encontrar
asilo para las proposiciones de la filosofía, incluido, desde luego, el principio de
verificación mismo. Wittgenstein, al enfrentarse con esta dificultad, estaba
dispuesto a denunciar incluso que sus propios argumentos para este fin eran
«sin sentido», aunque tenían un carácter importante y aclaratorio. No queriendo
aceptar tal paradoja, el positivismo lógico estaba dispuesto a garantizar la
legitimidad del análisis, que se convierte así en el deber total de los filósofos.
La filosofía no es una teoría, sino una actividad—la clarificación lógica de los
conceptos, proposiciones y teorías propias de la ciencia empírica. El principio
de verificación era interpretado de manera similar como una definición, receta o
criterio del significado, y no como una afirmación que pudiera ser verdadera o
falsa” (Urmson, 1989).
De acuerdo con Carnap, “el análisis lógico pronuncia, pues, el veredicto sobre
la carencia de sentido de todo presunto conocimiento que pretenda ir por
encima a por detrás de la experiencia. Ese veredicto alcanza ante todo a toda
metafísica especulativa....Vale además ese juicio para toda filosofía de los
valores y de las normas, para toda ética y estética como disciplina normativa.
Porque la validez objetiva de un valor o de una norma no se puede verificar ni
deducir de proposiciones empíricas; no se puede, por lo tanto, enunciar o
formular en absoluto (en una proposición que tenga sentido) aun según la
manera de ver de los filósofos de los valores....Finalmente, el veredicto alcanza
también a aquellas tendencias metafísicas que desacertadamente se suelen
designar como movimientos epistemológicos, a saber, realismo (en cuanto
pretende decir algo más que el resultado empírico de que los procesos
muestran una cierta regularidad, que hace posible el empleo del método
inductivo) y sus contrarios: el idealismo, el solipsismo, el fenomenalismo y el
positivismo (en el sentido primitivo)” (Carnap, 1931).
Este asunto, resumiendo, del criterio de significatividad no solo destruía a la
metafísica (y ciertos “ismos”), sino que además la paradoja que surgió
debilitaba ostensiblemente a la filosofía misma, la cual, según los positivistas
lógicos, si “ha de constituir una rama genuina del conocimiento, tiene que
emanciparse de [sus contenidos metafísicos]” (Ayer, 1959). Y peor aún, dejaba
sin efecto al principio de verificabilidad, el cual, en sí mismo ya tenía problemas
como en breve veremos.
La tercera dificultad
Relacionada con el principio de verificabilidad o criterio de demarcación
En esta parte veremos las dificultades del principio de verificabilidad que indujo
a los positivistas lógicos a debilitar su rigidez y moldearlo al punto que llegase a
requerir de una “una proposición [que] sea capaz de ser en algún grado
confirmada o refutada por la experiencia” (Ayer, 1959).
Dado el isomorfismo entre la significatividad empírica y el principio de
verificabilidad, éste último adolecía de las mismas limitaciones del primero. Es
decir, “este criterio se reveló excesivamente estricto: no es posible inferir los
enunciados generales a partir de los atómicos. Y desde el punto de vista de la
metodología de la ciencia, las leyes científicas, que son proposiciones
cuantificadas universalmente, constituyen componentes fundamentales en una
teoría científica” (Echeverría, 1989).
Debido a esta dificultad, debilitaron la “verificación” hasta convertirla en cierta
clase de “confirmación”. Con ello se estaba admitiendo era que: aun cuando
tales leyes no podían ser verificadas directamente “lo que si puede hacerse es
extraer las consecuencias lógicas concretas de una ley o teoría y comprobar
que, efectivamente, la experiencia ratifica dicho resultados” (Ibíd.). Las negritas
son nuestras.
Pero debe precisarse que este procedimiento, entre otras cosas, es importante
para el asunto de las predicciones científicas. Es decir, cuando una predicción
teórica ocurre en la realidad, “no puede decirse que la teoría haya quedado
totalmente verificada, pero si tiene lugar una confirmación objetiva de dicha
teoría” (Echeverría, 1989).
Lo peor era lo evidente: “Una objeción obvia contra el principio de verificación,
de la que pronto se apercibieron los adversarios de los positivistas, es que el
principio no es verificable en por sí mismo” (Ayer, 1959). Aparte de ello, el
principio de verificabilidad ni en su forma original ni en su versión “mitigada” de
grado de confirmación o apoyo “nunca ha sido formalizado adecuadamente”
(Ibid).
Ayer criticaba el convencionalismo del Círculo de Viena en cuanto al uso del
principio de verificación como una definición o receta. Lo que estaba detrás de
tal convencionalismo era la voluntad de ignorar sus dificultades (Ibid).
Mientras el Círculo de Viena oscilaba entre la verificación y la simple
confirmación surgieron objeciones provenientes “de los defensores de otro tipo
de teorías sobre la verdad científica, como la teoría de la coherencia o la
concepción pragmática de la verdad”. El punto crucial era que la “cuestión de la
verificación y la confirmación, por otra parte, está ligada a un tema fundamental
para la filosofía: la teoría de la verdad” (Echeverría, 1989). La objeción básica
consistía en lo siguiente. Aunque el positivismo lógico había despojado a la
formulación original de Aristóteles de sus contenidos ontológicos y metafísicos,
y los reemplazó por el dato sensible, de todos modos, “desde el punto de vista
de la concepción de la verdad, siguió adherido al criterio clásico de la adequatio
o correspondencia entre proposiciones y hechos” (Ibid, 1989).
De esta manera se producía la ruptura, o al menos el cuestionamiento, del
isomorfismo entre la significatividad empírica y el principio de verificabilidad.
3.2. El criterio de confirmabilidad y el de grado de confirmación
Siguiendo a Echeverría (1989) vamos esquematizar los principales rasgos de
este criterio.
§
La confirmación de un enunciado, según Carnap, es estrictamente
lógica: los datos observacionales han de ser confrontados lógicamente con las
consecuencias que se derivan de una determinada ley o teoría.
§
Si en un momento dado disponemos de una serie de datos, obtenidos
por observación, y de una serie de hipótesis explicativas de esos datos, hemos
de determinar la probabilidad de cada una de las hipótesis con respecto a las
observaciones con que se cuenta en un momento dado.
§
La comparación entre las probabilidades respectivas, que definen el
grado de confirmación de cada hipótesis, nos permite elegir como hipótesis
confirmada aquella que, para unos determinados datos observados, posee
mayor grado de probabilidad.
§
Surge así el concepto de grado de confirmación de un enunciado
científico, que conlleva la previa cuantificación de la noción de confirmación: lo
cual es posible apelando a la teoría de la probabilidad.
§
Una hipótesis posee una probabilidad inductiva, que va aumentando o
disminuyendo según las nuevas observaciones confirmen o no dicha hipótesis.
El valor de una hipótesis va ligado al mayor o menor número de datos
empíricos conformes a dicha hipótesis.
A fin de completar este panorama, la del corrimiento hacia la probabilidad
empírica de las proposiciones, recurriremos a Echeverría de nuevo: “Una de las
distinciones que, en etapas ulteriores, fue generalmente aceptada por los
miembros del Círculo es la que diferencia verificación y verificabilidad. Una
proposición es verificable cuando, al menos en principio, es posible llevar a
cabo experimentos y observaciones empíricas concordes con lo dicho en la
proposición. En cada momento, no todas las proposiciones empíricas han sido
efectivamente verificadas, pero sí lo han sido algunas, y las demás son
verificables en principio. Esta corrección, muy importante, matizaba el criterio
de cientificidad inicial. Schlick habló de una comprobabilidad en principio,
mientras que Carnap prefería el término de verificabilidad en principio.
Asimismo Ayer introdujo otro matiz, al distinguir entre verificabilidad en sentido
fuerte, cuando una proposición puede quedar establecida concluyentemente
por medio de la experiencia, y verificabilidad en sentido débil, cuando la
experiencia sólo permite determinar que esa proposición es probable en un
grado lo suficientemente elevado. Surge así un nuevo concepto de verificación,
cuyos orígenes están en Reichenbach y en el propio Carnap: el probabilístico,
ligado a las investigaciones que se llevaron a cabo en esa época sobre lógica
inductiva y lógica probabilitaria” (Ibid). Las negritas son nuestras.
Conclusión. “Consiguientemente, el científico admite unas u otras hipótesis en
función del aumento de su grado de confirmación. Hay una lógica inductiva, de
base netamente probabilista, subyacente a las teorías empíricas. Lejos ya del
criterio wittgensteiniano de la verificación concluyente, por vía deductiva a partir
de unas proposiciones elementales cuya verdad ha sido sólidamente
establecida por la vía de la observación. En los últimos desarrollos del Círculo
de Viena se acaba apelando a una lógica inductiva, que a su vez Carnap
intentó axiomatizar en forma de cálculo lógico. En la obra ya mencionada de
Rivadulla pueden seguirse las sucesivas tentativas de Carnap en este sentido”.
(Echeverría, 1989). Las negritas son nuestras.
Nótese que, la introducción de la noción de un grado probabilístico de una
determinada hipótesis disuelve tanto el homomorfismo como el isomorfismo
lógico.
Finamente, de acuerdo con Echeverría
§
El empirismo lógico acabó confluyendo en una afirmación de la
inducción como el método principal de las ciencias empíricas.
§
La lógica inductiva permitiría fundamentar el criterio de significación
empírica, inicialmente basado en la verificabilidad observacional, y finalmente
en el grado probabilístico de confirmación de una determinada hipótesis.
§
Entretanto, y desde otras posturas, se hacían críticas de principio a las
tesis del Círculo de Viena y de sus epígonos. Así sucedió, en particular, con
Popper, quien va a orientar la metodología científica en un sentido muy distinto.
3.4 El criterio de falsabilidad de Einstein-Popper y el método
hipotético deductivo en ciencia
El método inductivo fue considerado, el método científico en la ciencia
empírica, durante mucho tiempo como el único y verdadero, tenía una
orientación verificacionista, la validación de la ciencia a través de la sumatoria
de casos que apoyaban la hipótesis formulada. Popper en contraposición al
método inductivo y su vía de verificación, formularía la teoría de la falsación,
caracterizada por la utilización de un método deductivo, donde la verificación
negativa no busca hechos que confirmen la hipótesis, sino hechos que tengan
un comportamiento diferente; el buscar éstos hechos de forma sincera es parte
de la honestidad intelectual, tal como lo denominaría Lakatos.
La objetividad en Popper se da entonces en la actitud honesta del científico o
del hombre que formula una conjetura y no acude a toda serie de argumentos
para defender su propuesta, los más dogmáticos acuden a “estratagemas
inmunizadoras” con el objeto de salvar su teoría del error; el espíritu crítico por
el contrario, se convierte como autor de la conjetura o teoría en el principal
crítico, buscando desde su génesis la forma de demostrar su falsedad, único
camino que permite la evolución del conocimiento, una vez que el dogmatismo
no permite el avance y desarrollo de la ciencia. Si se utiliza el lenguaje de Kuhn
se diría que para Popper la ciencia está en una constante “Revolución
científica”.
La falsación propuesta por Popper se sustenta en el Modus Tollendo Tollens de
la lógica simbólica. Conforme a lo planteado por (Suppes y Hill, 1983, p. 53-56)
se define como “la regla que tiene el nombre Modus Tollendo Tollens se aplica
también a las proposiciones condicionales –si... entonces... - pero en este caso,
negando el consecuente, se puede negar el antecedente de la condicional”
Ejemplo:
Premisa 1: Si tiene luz propia, entonces el astro es una estrella
Premisa 2: El astro no es una estrella
Conclusión: Por tanto no tiene luz propia.
Popper conecta de esta forma la teoría y la práctica; la formulación teórica de
carácter hipotético busca imponer leyes a la naturaleza y no descubrirlas como
es el propósito de los inductivistas, en la contrastación el mundo real le
responde a través de la falsación si se encuentran hechos contrarios a la
formulación hipotética o con la aceptación temporal de la teoría si la misma a
pesar de tener un conjunto no vacío de posibles falsadores, no se ha llegado a
falsear empíricamente.
Popper tomó la consideración que el hombre impone las leyes a la naturaleza
de la línea de Kant, tal como lo muestra en (Popper, 1994, p. 237) “la solución
de Kant es bien conocida. Supongo –correctamente, creo yo- que el mundo tal
como lo conocemos es el resultado de nuestra interpretación de los hechos
observables a la luz de teorías que inventamos nosotros mismos. Para decirlo
con palabras de Kant: “nuestro intelecto no extrae sus leyes de la naturaleza...
sino que las impone a la naturaleza”. Aunque considero esencialmente correcta
esta formulación de Kant, creo que es demasiado radical y preferiría, por lo
tanto, expresarla en la siguiente forma modificada: “nuestro intelecto no extrae
las leyes de la naturaleza, sino que trata –con diversos grados de éxito- de
imponer a la naturaleza leyes que inventa libremente.”
En el siguiente párrafo de Popper se determina la diferencia conceptual que
tiene con Kant y así su orientación hacia una objetividad popperiana, que se
determina no por el resultado final (pero en la teoría del mundo tres, la
objetividad se determina es en las construcciones del mundo tres –mundo
objetivo-), sino por la conducta frente a la ciencia, la que considera como una
actitud crítica permanente, donde Kant vio una verdad, Popper propone una
teoría no refutada; (Popper, 1994, p. 237-238) “la formulación de Kant no sólo
implica que nuestra razón trata de imponer leyes a la naturaleza, sino también
que tiene éxito invariablemente en estos intentos. Pues Kant creía que el
hombre había impuesto exitosamente las leyes de Newton a la naturaleza; de
lo cual concluía que debe ser verdadera a priori”
La objetividad en Popper exige que las hipótesis deben ser falsables, es decir
“si la clase de sus falsadores no es una clase vacía”, se exige que los
enunciados tengan la propiedad en potencia de ser falsables; los enunciados
que no tienen la propiedad de ser falsables no pertenecen a la ciencia y por
tanto no son objetivos, así los enunciados que son lógicamente imposibles de
falsar no pertenecen al campo científico.
Las teorías científicas lo son por su capacidad explicativa y aún más por su
capacidad predictiva, no por su capacidad de adecuar los hechos ocurridos a
su formulación conceptual, lo que se puede calificar como defensa subjetiva e
injustificada de una teoría. La objetividad del científico se revela en las
predicciones riesgosas y refutables que hace y que ponen a prueba las
hipótesis; lo que ejemplifica la honestidad intelectual del científico que no teme
que su teoría entre en contradicción con la realidad y sea refutada; Tal actitud
del hombre de ciencia lo califica como objetivo, a pesar de que su teoría sea
refutada (pero que tenía toda la estructura lógica interna coherente, conforme a
un procedimiento argumentativo deductivo).
Para Moulines (1997, p. 418-419), la obra de Popper continúa desarrollando un
método inductivo y presenta diversas dificultades, tal como se presenta en el
siguiente párrafo, donde formula la teoría popperiana como una respuesta a los
problemas del programa inductivista de Carnap fundamentalmente “... el
programa inductivista de Carnap y su escuela entra a finales de los sesenta y
principios de los setenta en una fase de estancamiento de la cual no se ha
recuperado. Uno de los más feroces detractores del programa inductivista es K.
Popper, que comanda la escuela epistemológica rival conocida como
falsacionismo o refutacionismo. Este programa alternativo es iniciado por
Popper en los años treinta con la publicación de la Lógica de la investigación
científica (1935), pero permanece prácticamente ignorado, salvo por unos
pocos, durante más de veinte años hasta que se traduce la obra al inglés a
finales de los cincuenta. El falsacionismo se consolida a partir de los sesenta y
constituye durante casi dos décadas la epistemología dominante en los países
anglosajones y nórdicos, influencia que ha ido muchas veces más allá de la
comunidad de especialistas y se ha extendido al gran público...
El lema del falsacionismo de Popper es el siguiente: el método científico no es
inductivo, el método de la ciencia es el de conjeturas y refutaciones. Ésta es la
esencia del famoso racionalismo crítico de Popper. Sin embargo, este lema es
parcialmente confuso. Es cierto que Popper niega que la ciencia proceda
inductivamente, pero sólo si por “inducción” se entiende estrictamente lo que
los carnapianos entienden. Como veremos, y aun a pesar de las protestas de
su fundador, la metodología popperiana se puede calificar de inductiva en un
sentido amplio”.
El criterio de demarcación asociado directamente al método deductivo, como
respuesta a las críticas del inductivismo, es expuesto por Popper como
elemento fundamental para entender el concepto de “objetividad”, una vez que
la demarcación pretende delimitar los enunciados científicos, de los enunciados
no científicos, siendo la objetividad una característica de los enunciados de la
ciencia, los cuales se distinguen por su falsabilidad, es decir, en potencia su
capacidad real de ser falseados.
Es de notar la línea de la falsación como se involucra en todos los elementos
de la formulación de Karl Popper y que se puede contraponer a otros criterios
de objetividad como el expresado por (Max Weber, 1978, p. 47) donde el
criterio de ciencia se relaciona con la verificación lógica “... es y seguirá siendo
cierto que una demostración científica metódicamente correcta en el ámbito de
las ciencias sociales, si pretende haber alcanzado su fin, tiene que ser
reconocida también como correcta por un chino (indica que en cualquier parte
del mundo). Dicho con mayor precisión: debe aspirar en cualquier caso o tal
meta, aun cuando ésta, por deficiencia de los materiales, no sea alcanzable.
Esto significa también que el análisis lógico de un ideal en cuanto a su
contenido y sus axiomas últimos, y la indicación de las consecuencias que su
persecución producirá en los terrenos lógicos y prácticos, han de ser validos
también para un chino, si es que deben considerarse logrados”
La preocupación de Popper por la honestidad intelectual, que representa una
actitud objetiva lo lleva a distanciarse de teorías donde los autores asumen una
posición dogmática, tal como el mismo lo muestra en (Popper, 1994, p. 58)
“durante el verano de 1919 comencé a sentirme cada vez más insatisfecho con
esas teorías –la teoría marxista de la historia, el psicoanálisis de Freud y la
sicología del individuo de Adler- comencé a sentir dudas sobre su carácter
científico. Mis dudas tomaron al principio la siguiente forma: ¿qué es lo que no
anda en el marxismo, el psicoanálisis y la sicología del individuo?, ¿Por qué
son tan diferentes de las teorías físicas, de la teoría de Newton y
especialmente de la relatividad?”
Popper encontró que lo que tenían en común estas tres teorías era un poder
explicativo todopoderoso, donde todo se podía explicar dentro de su área
desde estas teorías, donde en cada hecho se confirma una vez más la teoría a
lo que (Popper, 1994, p. 59) aduce “Hallé aquellos de mis amigos que eran
admiradores de Marx, Freud y Adler estaban impresionados por una serie de
puntos comunes a las tres teorías, en especial su aparente poder explicativo.
Estas teorías parecían poder explicar prácticamente todo lo que sucedía dentro
de los campos a los que se referían... se veían ejemplos confirmatorios en
todas partes: el mundo estaba lleno de verificaciones de la teoría. Todo lo que
ocurría la confirmaba”. Bajo esta justificación Popper rechazó las teorías
verificacionistas y se acercó a la teoría de Einstein.
La actitud objetiva representa que el hombre de ciencia debe asumir una
actitud de expectativa frente a su propia teoría con respecto a los errores que la
misma pueda tener, estar dispuestos a buscarlos, aceptarlos e intentar
corregirlos, Popper admira la posición autocrítica de Kepler, que no pretende
que su teoría todo lo explique y de forma concluyente y absoluta, (Popper,
1995, p. 10) expone “su gran modestia ayudo a Kepler –más que a los otros
dos (Galileo y Newton) a ser conscientes una y otra vez de sus errores,
pudiendo aprender así que sólo podían superarse con las mayores
dificultades”.
Con respecto a la teoría marxista afirma (Popper, 1994, p. 60) “Un marxista no
podía abrir un periódico sin hallar en cada página pruebas confirmatorias de su
interpretación de la historia; no solamente en las noticias, sino también en su
presentación –que se revela en el sesgo clasista del periódico y especialmente,
por su puesto en lo que el periódico no decía-, los analistas freudianos
subrayaban que sus teorías eran constantemente verificadas por sus
observaciones clínicas... “y con respecto a Adler dice “le informé acerca de un
caso que no parecía particularmente adleriano, pero él no halló dificultad
alguna para analizarlo en términos de su teoría de los sentimientos de
inferioridad, aunque ni siquiera había visto al niño. Experimente una sensación
un poco chocante y le pregunté cómo podía estar tan seguro, “por mi
experiencia de mil casos”, respondió; a lo que no pude evitar de contestarle: y
con este nuevo caso, supongo, su experiencia en mil y un casos”
Con el análisis de tres teorías consideradas por Popper como no científicas,
subyace una crítica al método inductivo, tal como reseña (García, 2001, p. 11)
donde inicia el acápite “Popper y la solución al problema de Hume: el rechazo
de los métodos inductivos” con una cita de Popper en el texto “Búsqueda sin
término”, “así pues, la inducción es un mito. No existe ninguna “lógica inductiva”
y aunque exista una interpretación lógica del cálculo de probabilidad, no hay
ninguna buena razón para asumir que esta “lógica generalizada”... sea un
sistema de lógica inductiva”
El problema de la inducción es abordado por Karl Popper en varios de sus
textos, en “la lógica de la investigación científica” lo desarrolla con el objeto de
declararlo como un método no válido científicamente y no objetivo, por dar un
salto argumentativo lógicamente no correcto, (Popper, 1982ª, p 27) define la
inducción como “una inferencia cuando pasa de enunciados singulares
(llamados, a veces, enunciados particulares), tales como descripciones de los
resultados de observaciones o experimentos, a enunciados universales, tales
como hipótesis o teorías”
A renglón seguido Popper invalida tal pretensión de universalidad “desde un
punto de vista lógico dista mucho de ser obvio que estemos justificados a inferir
enunciados universales partiendo de enunciados singulares, por elevado que
sea el número; pues cualquier conclusión que saquemos de este modo corre
siempre el riesgo de algún día ser falsa: así cualquiera que sea el número de
ejemplares de cisnes blancos que hayamos observado, no está justificada la
conclusión de que todos los cisnes sean blancos”
Define Popper el problema de la Inducción como “la cuestión acerca de si están
justificadas las inferencias inductivas, o de bajo qué condiciones lo están... la
cuestión sobre cómo establecer la verdad de los enunciados universales
basados en la experiencia”. El problema de la inducción es interpretado por
primera vez por Hume del cual toma Popper para ampliarlo; Hume encontrara
en la inducción un problema de carácter lógico y otro de tipo psicológico.
(Popper, 1982b, p. 17-18) “Hume estaba interesado por la condición del
conocimiento humano... planteó dos preguntas una lógica HL y una psicológica
HPS, con la característica importante de que sus respuestas chocan entre sí de
la algún modo”:
La pregunta lógica: “¿cómo se justifica que, partiendo de casos (reiterados) de
los que tenemos experiencia, lleguemos mediante el razonamiento a otros
casos (conclusiones) de los que no tenemos experiencia?”.
La pregunta psicológica es la siguiente: “¿por qué, a pesar de todo, las
personas razonables esperan y creen que los casos de los que no tienen
experiencia van a ser semejantes a aquellos de los que tienen experiencia?”.
Tales consideraciones de Hume, le permiten a Popper construir una propuesta
deductiva como método válido para el conocimiento científico, es decir la
inducción es no objetiva, la ciencia debe de ser objetiva, el método deductivo
es un método objetivo, si lo que busca la ciencia es la objetividad, entonces el
método de la ciencia es el método deductivo; siendo la falsación el criterio de
delimitación entre la ciencia y la no ciencia.
Toda demostración de Popper contra la inducción es para demostrar que
carece de objetividad, en tal sentido las tres teorías de Marx, Freud y Adler, se
sustentan en argumentos inductivos. A diferencia de la teoría de Einstein,
donde su teoría gravitacional conducía a la conclusión que la luz debía sufrir
atracción de los cuerpos de gran masa, precisamente de la misma manera en
que son atraídos los cuerpos materiales, argumenta (Popper, 1994, p. 60) que
“lo impresionante en el caso mencionado (Einstein) es el riesgo implicado en
una predicción de este tipo. Si la observación muestra que el efecto predicho
está claramente ausente, entonces la teoría queda refutada”.
El concepto de objetividad en Popper se puede seguir también por medio del
discernimiento sobre el método por él propuesto y adoptado para los estudios
de carácter científico, sin hacer la distinción entre el método de las ciencias
naturales y las ciencias sociales y/o humanas. A la propuesta de unidad de
método propuesta por Karl Popper se le conoce como el “monismo
metodológico”. Tal unidad de método es defendida desde la teoría unificada de
la tríada “problema, conjetura y refutación”.
El monismo metodológico propuesto por Karl Popper, determina un criterio de
objetividad general en el estudio de las ciencias, ya sean naturales o sociales,
en cuanto a la dinámica de problema, conjetura e intentos de refutación; pero
no indica ello que entre las mismas no existan diferencias, por el contrario las
diferencias en las mismas son de gran significado, tal como se expresa en
(Popper, 1981, p. 145) “No pretendo afirmar que no existe diferencia alguna
entre los métodos de las ciencias teóricas de la naturaleza y de la sociedad;
tales diferencias existen claramente, incluso entre las distintas ciencias
naturales, tanto como entre las distintas ciencias sociales... pero estoy de
acuerdo con Comte y Mill... en que los métodos de los dos campos son
fundamentalmente los mismos... el método consiste en ofrecer una explicación
causal deductiva y en experimentar por medio de predicciones. Este ha sido
llamado a veces el método hipotético-deductivo, o más a menudo método de
hipótesis, porque no consigue certeza absoluta para ninguna de las
proposiciones científicas que experimenta; por el contrario, estas proposiciones
siempre retienen el carácter de hipótesis de signo tentativo, aunque este
carácter pueda dejar de ser obvio después que se han superado gran número
de experimentos y pruebas severas”.
La actitud objetiva del científico exige que en el proceso de experimentación y
validación de la teoría, se busquen elementos falsadores y no casos de
confirmación que obedecen a una actitud de ceguera intelectual, la actitud del
hombre de ciencia debe de ser una posición crítica. “Porque si no mantenemos
una actitud crítica, siempre encontraremos lo que buscamos: buscaremos, y
encontraremos confirmaciones y apartaremos la vista de cualquier cosa que
pudiese ser peligrosa para nuestras teorías favoritas, y conseguiremos no
verla. De esta forma es demasiado fácil conseguir lo que parecen pruebas
aplastantes a favor de una teoría que, si se hubiese mirado críticamente,
hubiese sido refutada; con el fin de que el método de la selección por
eliminación funcione, y para asegurarse que sólo las teorías más aptas
sobreviven, su lucha por la vida tiene que ser severa.”
Se hace ciencia bajo la unidad de método, sin que ello lleve a decir que es una
sola la ciencia, tiene las ciencias sociales sus características particulares que la
distinguen de la ciencia natural, así se expresa en (Popper, 1981, p. 155)
“tendemos a comparar lo que no es comparable; quiero decir, por una parte,
situaciones sociales concretas, y por otra, situaciones físicas experimentales
artificialmente aisladas”; se puede expresar que las situaciones artificiales
aisladas de las ciencias sociales, es una situación que no se dan en los
procesos de experimentación aislados, neutrales y sin consecuencias, una vez
que sólo se puede experimentar en la realidad, generando consecuencias
esperadas e inesperadas. Además se presentan dificultades de generalización,
el individuo en condiciones de aislamiento o cautiverio, adopta
comportamientos diferentes –antagónicos posiblemente- a los que adoptaría en
un estado de libertad, el hecho de verse en observación genera en el un
cambio de actitud; frente a tal concepción Desmon Morris, parte de estudios de
etología para trasladar afirmaciones en el hombre, tal como lo expresa en “El
zoo humano” y “El mono desnudo”.
En “La Responsabilidad de vivir” (Popper, 1995, p. 17-41) detalla la
conceptualización expuesta anteriormente, para afirmar que si bien, hay
elementos distintos en las ciencias naturales y sociales, el criterio de
objetividad exige para ambas el mismo tratamiento “tanto las ciencias naturales
como las ciencias sociales parten siempre de problemas; de que algo despierta
nuestra admiración, como decían los filósofos griegos. Las ciencias utilizan el
mismo principio para resolver esos problemas, el mismo método que emplea el
sano entendimiento humano: el método de ensayo y error. Expresado con más
exactitud: es el método de proponer tentativamente soluciones de nuestro
problema y después eliminar las falsas soluciones como erróneas. Este método
presupone que trabajamos con una pluralidad de soluciones a modo de prueba.
Una solución tras otra es puesta a prueba y eliminada”
Se desarrolla el método en tres pasos: el problema, los intentos de solución y la
eliminación; el primer paso surge para Popper en una escena de perturbación,
donde las condiciones son altamente subjetivas, el problema y su ubicación o
creación es un punto del individuo, donde actúa con toda su carga emocional,
sin desconocer que aplica en ella de igual forma su carga lógica y teórica; el
segundo paso donde surgen los intentos de solución, es decir, los ensayos
para solucionar el problema, paso que requiere un mayor grado de rigurosidad
y objetividad, una vez que la honestidad intelectual le exige que los constructos
alternativos para la solución de problemas se sometan a los más exigentes test
de contrastación; el último paso, denominado la eliminación o supresión es
donde más cobra fuerza la objetividad, donde el científico se desprende del
aprecio por la teoría y se convierte en su principal crítico, única lógica de la
evolución del conocimiento.
La teoría científica antigua planteaba que la ciencia parte de observaciones, tal
como lo muestra el camino de generalizaciones: observación, sistematización
de observaciones, intentos de generalizar regularidades, contrastación de las
regularidades y leyes-teorías; argumenta Popper que dicho proceso es falso en
la ciencia, pues en la ciencia no se da ninguna observación sin antes tener un
problema o situación problemática que oriente la observación; de tal
consideración parte la tríada propuesta por Popper.
En la defensa del método crítico donde Popper sustenta la tríada, problema,
enunciado y corrección, resalta la importancia del pensamiento objetivo, es
decir el pensamiento formulado, que se somete a la contrastación a través de
la verificación negativa, al pensamiento escrito preferiblemente le otorga el
carácter de esencial para la ciencia; en (Popper, 1995, p. 23) expone “mi tesis
es que se trata de un paso enormemente importante, un paso por así decir
sobre un abismo, el que va desde mi pensamiento, no pronunciado: “hoy
lloverá” al mismo pensamiento pero expresado en una proposición “hoy
lloverá”. En un primer momento, este paso, la expresión de un pensamiento, no
parece en absoluto un paso, tan grande. Pero la formulación lingüística
significa que algo, que antes era parte de mi personalidad, de mis expectativas
y quizá de mis temores, ahora se presenta objetivamente y, con ello, se hace
accesible a la discusión crítica general. Y la distinción es inmensa también para
mí mismo. La proposición expresada, por ejemplo, la predicción expresada, se
separa de mi personalidad por medio de la formulación lingüística. Con ello se
hace independiente de mis estados de ánimo, esperanzas y temores. Se hace
objetiva el enunciado al expresarse y así, la pueden afirmar tentativamente
otros, pero también yo mismo, al igual que se puede negar tentativamente; las
razones en pro y en contra se pueden sopesar y discutir; y puede llegarse a
una formulación de partido en pro y contra la predicción”
Lo que Popper considera pensamiento objetivo lo desarrolla en la propuesta
de los tres mundos; (Popper, 1982, p. 148) “El mundo consta al menos de tres
sub-mundos antagónicamente distintos: el primero, es el mundo físico o de los
estados físicos; el segundo, es el mundo mental o de los estados mentales; el
tercero, es el de los inteligibles o de las ideas en sentido objetivo, el mundo de
los objetos de pensamiento posibles: el mundo de las teorías en sí mismas y
sus relaciones lógicas, de los argumentos y de las situaciones problemáticas
tomados en sí mismos”.
El desarrollo de la teoría de los tres mundos en Popper, nos muestra una
distinción entre lo que es el mundo en sí, el mundo subjetivo y el mundo
objetivo; el mundo en sí permanece en sí, en un lenguaje Kantiano, como el
noúmeno, que es incognoscible al hombre, de él solo podemos estudiar los
fenómenos; el segundo mundo de las concepciones individuales de
pensamiento, mundo totalmente subjetivo, por su dependencia exclusiva de la
mirada del hombre y el tercer mundo es un mundo objetivo por su validación
Intersubjetiva de las concepciones inicialmente de carácter individual.
En el acápite referenciado “La teoría de la ciencia desde el punto de vista
teórico-evolutivo y lógico”[8], Popper presenta las siguientes tesis que
fundamenta una orientación objetiva de la actividad científica.
1. Las ciencias naturales y las ciencias sociales parten siempre de problemas.
2. El esquema de tres etapas (a- el problema, b- intentos de solución y celiminación) también es aplicable a la ciencia.
En (Popper, 1973, p. 145-158) se encuentra el siguiente análisis en defensa de
la unidad de método: “voy a proponer la doctrina de unidad de método; es
decir, la opinión de que todas las ciencias teóricas o generalizadoras usan el
mismo método, ya sean ciencias naturales o ciencias sociales... este ha sido
llamado a veces el método hipotético-deductivo, o más a menudo el método de
hipótesis, porque no consigue certeza absoluta para ninguna de las
proposiciones científicas que experimenta...” el método propuesto en la tríada
problema, conjetura y refutación, es fundamentalmente doble: de un lado
enfrenta a otras teorías para determinar su consistencia y la rigurosidad lógica
de sus proposiciones y por otro lado una verificación negativa de la realidad, es
decir, una contrastación empírica, tal como lo expone Popper “con el fin de que
el método de la selección por eliminación funcione, y para asegurarse que solo
las teorías más aptas sobreviven, su lucha por la vida tiene que ser severa”.
La objetividad se representa por su sinceridad en la crítica a las teorías
propuestas, aun a las teorías propias. El método de ensayo-error es un método
objetivo porque no dogmatiza ninguna concepción teórica, no protege las
construcciones intelectuales contra evidencia que revele sus inconsistencias
lógicas y empíricas, por el contrario la tarea más importante del científico es
buscar esas incoherencias de las teorías, para falsearlas y avanzar en el
conocimiento, en la búsqueda de una hipótesis más fuerte.
En (Mardones, 1991, p. 94) se encuentra en un apartado de Popper una cita de
Hayek[9] en la cual se hace una defensa de la unidad de método, “el físico que
quiera entender el problema de las ciencias sociales con la ayuda de la
analogía tomada de su propio campo tendría que imaginar un mundo en el que
conociese por observación directa el interior de los átomos y no tuviese la
posibilidad de hacer experimentos con pedazos de materia, ni l oportunidad de
observar nada más que las interacciones de un número comparativamente
pequeño de átomos durante un período limitado. Con su conocimiento de las
diferentes clases de átomos construiría modelos de las diversas formas en que
estos átomos podrían combinarse en unidades más grandes, y haría que esos
modelos reprodujesen más y más exactamente todas las características de los
pocos casos en que pudiese observar de cerca fenómenos complejos. Pero las
leyes del macrocosmos que pudiesen derivar de su conocimiento del
microcosmos siempre serán deductivas; casi nunca, dado su limitado
conocimiento de los datos de la compleja situación, le permitirían predecir con
precisión el resultado de una determinada situación; y nunca podría verificarlas
mediante experimentos controlados –aunque quizá quedasen refutadas por
observación de acontecimientos que según su teoría son imposibles”.
Objetividad y tercer mundo: un tema que permite entender el concepto de
objetividad en Karl Popper es la “tesis de la epistemología sin sujeto
cognoscente”, que parte de la teoría de los tres mundos: el mundo de los
objetos físicos, el mundo de los estados de conciencia o estados mentales y el
mundo de los contenidos de pensamiento objetivo, especialmente de los
pensamientos científicos y de las obras de arte.
Existen en la propuesta los siguientes elementos a resaltar:
1. Que el tercer mundo es el mundo objetivo
2. Que en el mundo objetivo no solo se encuentran construcciones cinéticas,
sino también poéticas y artísticas.
3. Que la existencia del mundo objetivo es independiente de la existencias de
los otros dos mundos, si bien requiere de los dos mundos anteriores para su
construcción, después de creado es independiente y relativamente autónomo.
El tercer mundo expuesto por Popper es muy amplio y su delimitación es un
tanto ambigua, como elementos de tercer mundo hacen parte del conocimiento
objetivo, entre ellos se pueden encontrar, (Popper, 1982b, p. 107) “entre los
inquilinos de mi tercer mundo se encuentran especialmente los sistemas
teóricos y tan importantes como ellos son los problemas y las situaciones
problemáticas. Demostraré también que los inquilinos más importantes de este
mundo son los argumentos críticos y lo que podríamos llamar –por semejanza
con los estados físicos o los estados de conciencia- el estado de discusión o el
estado de un argumento crítico, así como los contenidos de las revistas, libros
y bibliotecas”
La anterior afirmación puede conducir a una ambigüedad (parece dar un doble
significado al término), en la determinación del concepto de objetividad, una
vez que se puede entender como una actitud del científico en el proceso de
desarrollo del conocimiento y también como una construcción no sólo de los
hombres de ciencia, sino una creación humana, independiente perteneciente al
tercer mundo. Lo que puede ampliar la discusión del mundo objetivo o tercer
mundo es la inclusión en el mismo de las obras poéticas y las obras de arte,
una vez que la validación por objetividad científica sería posible en la tal caso a
partir la capacidad-potencia de la obra de ser interpretada.
Popper defiende la existencia y autonomía del tercer mundo con la ayuda del
siguiente ejemplo “todas las máquinas y herramientas han sido destruidas,
junto con todo nuestro aprendizaje subjetivo, incluyendo el conocimiento
subjetivo sobre las máquinas, las herramientas y como usarlas. Sin embargo,
sobreviven las bibliotecas y nuestra capacidad de aprender en ellas. Está claro
que, tras muchas penalidades, nuestro mundo puede echar a andar de nuevo”.
La propuesta de la existencia de un tercer mundo autónomo e independiente, le
permite a Popper presentarlo como un mundo objetivo y su estudio
epistemológico como una actividad de carácter objetiva, que se opone a la
epistemología tradicional subjetiva centrada en el segundo mundo (las
concepciones derivadas del pensamiento cartesiano son un ejemplo, donde la
objetividad y búsqueda de verdad se centraba en encontrar las “ideas claras y
distintas). Entiende la epistemología como “la teoría del conocimiento científico”
y “el conocimiento científico pertenece al tercer mundo, al mundo de las teorías
objetivas, de los problemas objetivos y de los argumentos objetivos”
El sentido del conocimiento objetivo, se orienta al contenido objetivo y no a la
actitud de pensar, lo que indicaría que no es la actitud del hombre de ciencia o
del hombre de arte o que merece tal atributo; “el conocimiento en este sentido
objetivo es totalmente independiente de su creencia o disposición a asentir o
actuar. El conocimiento en sentido objetivo es conocimiento sin conocedor: es
conocimiento sin sujeto cognoscente”.
La propuesta de un tercer mundo objetivo se resume en seis tesis, tres básicas
y tres de apoyo:
Tesis básicas:
1. La irrelevancia de una epistemología subjetivista.
2. La relevancia de una epistemología objetivista
3. Una epistemología objetivista que estudia el tercer mundo contribuye a
arrojar luz sobre el segundo mundo de la conciencia subjetiva, pero la conversa
no es verdadera.
Las tres tesis básicas, permiten evaluar la preeminencia del tercer mundo como
conocimiento de carácter objetivo, la epistemología denominada por Popper
como subjetivista, tiene gran relación con la sociología y la sicología del
conocimiento, que él denominaría como la epistemología tradicional, que bajo
su apreciación no puede recibir el nombre de epistemología. Tal análisis
permite advertir que la epistemología es el estudio de los elementos del tercer
mundo, sin estudiar las razones de su origen y los factores extra-lógicos que lo
fomentaron, impulsaron y desarrollaron.
Tesis de apoyo:
1. El tercer mundo es un producto natural del animal humano, comparable a
una tela de araña.
2. El tercer mundo es autónomo en gran medida, pero los hombres actúan
sobre él y él sobre los hombres.
3. Hay interacción entre el hombre y el tercer mundo, existiendo una estrecha
analogía entre el crecimiento del conocimiento y el crecimiento biológico.
La preocupación por el estudio del conocimiento en un sentido objetivo, llevó a
Popper a marcar clara diferencia entre la sociología del conocimiento y la lógica
del conocimiento; para distinguir entre ambas disciplinas y determinar la
supremacía de la lógica de las estructuras cognoscitivas sustenta las siguientes
tres tesis:
1. ”Deberíamos tener siempre en cuenta la distinción que hay entre los
problemas relacionados con nuestras contribuciones personales a la
producción del conocimiento científico, por una parte y los problemas
relacionados con la estructura de los diversos productos, como teorías o
argumentos científicos, por la otra”.
2. “Deberíamos constatar que el estudio de los productos es mucho más
importante que el estudio de la producción, incluso para comprender la
producción y sus métodos”
3. “Podemos aprender más sobre la heurística y la metodología e incluso sobre
la sociología de la investigación, estudiando las teorías y los argumentos en pro
y en contra que empleando un método directo conductista, psicológico o
sociológico. En general, podemos aprender muchísimo sobre el
comportamiento o la psicología mediante el estudio de los productos”
Las tres tesis anteriores de Popper, refuerzan la importancia del tercer mundo,
como un el mundo objetivo, autónomo en gran parte e independiente en gran
medida. La objetividad se concentra entonces en el producto, en el
conocimiento científico o en la obra artística y no en el proceso cultural humano
que dio origen y desarrollo al mismo. Tal consideración permite identificar como
“objetivo” al “tercer mundo” y como “subjetivo” al “segundo mundo”. La
inquietud puede hacerse sobre el “primer mundo”, el cual es autónomo,
independiente, pero de igual forma no perceptible en su totalidad, se puede
acercar al primer mundo desde la óptica de Kant, como noúmeno, el cual
permanece como la cosa en sí, tal como lo expone (Jaramillo, 2001, p. 23)
“aunque nuestro conocimiento es sólo de fenómenos, sin embargo, Kant
también postula –como objeto pensable, no cognoscible- una realidad
nouménica, la de la “cosa en sí” como “algo” completamente independiente del
sujeto”.
La autonomía del tercer mundo la ilustra Popper en el siguiente ejemplo “un
libro sigue siendo un libro –cierto tipo de producción- aunque no se lea nunca”,
el contenido continúa siendo objetivo, aunque nunca sean consultados. Lo que
nos indica que después de la producción del conocimiento, el conocimiento
mismo adquiere vida propia, objetividad y autonomía; no requiriendo más del
hombre para su existencia y su objetividad, una vez que esa separación del
pensamiento subjetivo es lo que le da su carácter de conocimiento objetivo.
Bajo este enfoque el concepto de objetividad no se relaciona de forma directa y
proporcional con el de verdad; una vez que el conocimiento objetivo puede ser
verdadero o falso; si se relaciona con el criterio utilitarista del conocimiento, una
vez que el conocimiento puede ser útil o inútil (en el momento), así se expresa
en (Popper, 1982b, p. 114) “lo que hace de algo un libro es la posibilidad o
potencialidad de ser comprendido, su carácter disposicional de ser
comprendido e interpretado o incomprendido y mal interpretado. Ahora bien,
esta potencialidad o disposición puede existir incluso sin ser actualizada o
realizada nunca”. De tales afirmaciones se desprende también, que el
conocimiento objetivo no pierde su condición de objetividad por el hecho que
no sea consultado, que no sea comprendido, que se haya incluso demostrado
su falsedad o porque sea reemplazado por una mejor construcción.
A pesar del “tercer mundo” ser una creación del hombre, la misma alcanza su
propio “campo de autonomía”, cada conocimiento además creará nuevos
hechos in-intencionados (espontáneos e insospechados), nuevos problemas
inesperados y nuevas refutaciones. “hay también un efecto importantísimo de
retroalimentación entre nuestras creaciones y nosotros mismos, entre el tercer
mundo y el segundo, ya que los problemas nos impulsan a crear nuevas cosas”
La interrelación entre el “segundo mundo” y el “tercer mundo” permite
desarrollar el método propuesto por Karl Popper para la evolución del
conocimiento enmarcado en su racionalismo crítico, así:
Surge el problema, se presenta una teoría tentativa como alternativa de
solución al problema, a través de la falsación se eliminan o detectan los
errores, lo que da como consecuencia el surgimiento de nuevos problemas;
estos nuevos problemas se pueden generar involuntariamente fruto de las
relaciones entre el problema inicial y las teorías tentativas propuestas, que
arrojan situaciones no planeadas y hasta inesperadas.
La epistemología se convierte en la teoría de la evolución del conocimiento, la
teoría del progreso del conocimiento, del aumento del conocimiento. Una vez
que su función es estudiar el conocimiento objetivo, la resolución de problemas,
la construcción crítica y la contrastación crítica de teorías conjeturales que
compiten permanentemente (revolución científica permanente, en términos
Kuhnianos).
La meta del científico es conseguir que las teorías propuestas sean altamente
contrastables “nuestra meta es conseguir teorías que sean no sólo interesantes
intelectualmente y altamente contrastables, sino también que, de hecho, hayan
salido mejor paradas que sus rivales de las contrastaciones rigurosas; que, por
tanto, resuelven mejor sus problemas y que den lugar a nuevos problemas
inesperados y fecundos, si su carácter conjetural se pusiese de manifiesto
mediante su refutación”
Para Popper el “tercer mundo” es el mundo objetivo, pero este mundo crece y
evoluciona gracias fundamentalmente a la honestidad intelectual de los
científicos, que “intentan eliminar sus teorías falsas, intentan dejarlas morir en
su rincón. El creyente –hombre o animal- perece junto con sus creencias
falsas”. Es asimilable y comprensible en el caso de la ciencia su evolución a
partir de conjeturas y refutaciones. Pero como aplicar dicho método (hipotéticodeductivo) a las obras de arte y la poesía, que Popper también incluye entre los
inquilinos del tercer mundo. Pero además surge un interrogante con respecto a
la idea de verdad que el autor identifica como “proximidad a la verdad” y al cual
le da el nombre de “verosimilitud”, a lo que se puede preguntar: ¿si la verdad
no existe o el hombre no la puede alcanzar y si la alcanza no podría advertir su
existencia, por qué es posible comprobar en una teoría un mayor contenido de
verdad que otra teoría?, dice Popper que es posible comprobar la falsedad de
una teoría pero no su verdad, ¿cómo puede decirse que una teoría es más
verosímil que otras, es decir, que tiene mayor “proximidad a la verdad” si la
verdad no se conoce”
Se puede decir en términos popperianos que el grado de verosimilitud de una
teoría se determina por su capacidad de resistir exitosamente genuinos test
falsadores, es decir, que frente a los auténticos intentos de falsación, la teoría
ha respondido favorablemente. Frente a tal apreciación se puede responder en
términos de Kuhn, donde la permanencia de una teoría provisional no mide la
rigurosidad de teoría, sino la capacidad de la comunidad científica para falsear
la teoría en cuestión o de proponer una teoría mejor –con mayor contenido
empírico y/o teórico.
En el texto “Conocimiento objetivo” acápite “El problema de la comprensión”,
Popper fundamenta la teoría de los tres mundos en relación con la
comprensión, “hermenéutica”, formulada para las ciencias sociales, “partiré
aquí del supuesto de que el problema central de las humanidades es la
comprensión de los objetos que pertenecen al tercer mundo... la interpretación,
en cuanto objeto del tercer mundo, será siempre una teoría, como por ejemplo,
una explicación histórica apoyada por una cadena de razonamientos y quizá
por elementos de juicio documentales”. Tal aseveración permite continuar
sustentando la unidad de método, la validación a través de la falsación y la
defensa de la libertad de pensamiento como criterio esencial en el progreso
científico y artístico; pero ante todo sostener que en las ciencias sociales
también el hombre construye conocimiento objetivo que se representa en el
tercer mundo.
El acto de comprender es entendido por Popper como un acto subjetivo, pero
expone que el mismo sólo puede entenderse a través de las relaciones que se
presenten en el “tercer mundo” que es un mundo objetivo. Para lo cual
presenta las siguientes tres tesis:
1. “Todo acto subjetivo de comprensión está engarzado en gran medida con el
tercer mundo”
2. “Casi todas las consideraciones que pueden hacerse en torno a dicho acto
consisten en señalar sus relaciones con los objetos del tercer mundo”
3. “Dicho acto consta fundamentalmente de operaciones hechas con objetos
del tercer mundo: operamos con ellos casi como si fuesen objetos físicos”.
Objetividad y valoración: éste tema es abordado en detalle en el título primero
“las doctrinas anti-naturalistas del historicismo” del libro “La miseria del
historicismo”, donde Popper presenta los siguientes comentarios:
“... cada observación está basada en un intercambio de energía entre el
observador y lo observado, esto lleva a una incertidumbre, normalmente
insignificante, en las predicciones físicas, que se suele describir bajo el nombre
de “principio de la indeterminación”. Es posible mantener que esta
incertidumbre es debida a una influencia mutua entre el objeto observado y el
sujeto observante, ya que ambos pertenecen al mismo mundo físico de acción
y de interacción”. Tal afirmación genera la posibilidad de concebir en Popper
una línea de subjetividad en la relación sujeto-objeto, mucho más acentuada en
las ciencias sociales, “nos enfrentamos en el mundo de las ciencias sociales
con una plena y complicada interacción o influencia mutua entre sujeto y
objeto”.
La explicación, predicción y experimentación en las ciencias sociales tiene
unas condiciones muy singulares, por la influencia que el hombre puede ejercer
sobre el hecho u objeto “puede, en un caso extremo, incluso causar el
acontecimiento que predice: el acontecimiento podría no haberse producido en
absoluto de no haber sido predicho. En el otro extremo, la predicción de un
suceso inminente puede llevar a ser evitado e impedido...”. Tal afirmación
permite analizar la objetividad de las ciencias sociales y aún ubicarla en un
puesto no garantizado de imparcialidad, frente a tal situación, Popper de forma
categórica afirma “y esto no obsta para que en ambos casos observe el
principio que parece garantizar la objetividad científica: es decir la verdad y
nada más qué la verdad”. No se puede olvidar que tal frase puede ser
contradictoria desde varios puntos de vista; primero la verdad no se puede
conocer y es posible que no exista en términos absolutos, segundo, el
conocimiento es objetivo independiente de la verdad que puede tener la misma
y tercero la objetividad es una característica (la principal de los productos del
tercer mundo) y su existencia es independiente de la de los hombres, como no
parece ocurrir en las predicciones e intervención de los sujetos en las ciencias
sociales.
El principio de objetividad que subyace en la afirmación anterior, se asocia con
el concepto de verdad, que es un concepto problemático y que Popper lo
desarrolla y lo aborda utilizando el término verosimilitud; tal acepción de
concepto de objetividad, ligado al concepto de verdad presenta dos problemas:
el primero, que puede interpretarse como una contradicción con el concepto de
objetividad entendido como “honestidad intelectual”, y a la actitud crítica del
científico frente a su propia teoría y las de los demás y el segundo problema es
que el concepto de verdad es un concepto problemático en obra de Popper,
teniendo tal concepto diferentes acepciones, debiendo mucha de la claridad del
mismo el autor a la obra de Tarski (a quien dedica su libro “Conocimiento
objetivo”.
El concepto de verdad desarrollado por Tarski lo aplicó Popper a su
formulación teórica, en tal sentido se presentara un breve comentario de tal
criterio de verdad, expuesto en el texto “la concepción semántica de la verdad y
los fundamentos de la semántica” (1972); donde su principal problema es lograr
una definición satisfactoria de la verdad, que sea materialmente adecuada y
formalmente correcta y se fija además como objetivo, (Tarski, 1972, p. 10)
“especificar las palabras o conceptos que deseamos usar al definir la noción de
verdad y también debemos dar las reglas formales a que debiera someterse la
definición”
En el trabajo desarrolla criterios tales como:
1) Una definición satisfactoria de la verdad. Enunciado como el problema
principal.
2) “La extensión del término verdadero”: orientando tal extensión a las
oraciones, sin excluir secundariamente a otra clase de objetos.
3) “El significado del término verdadero”: se acerca a la concepción aristotélica
clásica de la verdad “decir de lo que es que no es, o de lo que no es que es, es
falso, mientras que decir de lo que es que es, o de lo que no es que no es, es
verdadero”.
4) “Un criterio de adecuación material de la definición”: a lo cual expone (Tarski,
1972, p. 16) “deseamos usar el término verdadero de manera tal que pueda
enunciarse todas las equivalencias de la forma (T), y llamaremos adecuada a
una definición de la verdad si de ella se siguen todas estas equivalencias”; (T)
dada por X es verdadera si, y sólo si, p); donde X es el nombre de la oración y
p es la oración.
5) La verdad como concepto semántico: la semántica se ocupa de relaciones
entre las expresiones lingüísticas y los objetos; (Tarski, 1972, p. 18) “la manera
más simple y natural de obtener una definición exacta de verdad es la que
acarrea el uso de otras nociones semánticas, Ej. Satisfacción”.
6) “Lenguajes con una estructura especificada”: se hace necesario especificar
la estructura del lenguaje formal y el vocabulario del lenguaje en que se han de
dar las definiciones.
Con las orientaciones anteriores y los criterios de “incoherencia de los
lenguajes semánticos” y “lenguaje, objeto y metalenguaje” logra formular una
definición de verdad (Tarski, 1972, pp. 33-35) “llegamos a una definición de la
verdad y de la falsedad diciendo simplemente que una oración es verdadera si
es satisfecha por todos los objetos, y falsa en caso contrario... la concepción
semántica de la verdad no nos da por así decir, ninguna posibilidad de elección
entre diversas definiciones no equivalentes de esta noción”. La definición del
concepto de verdad permite extenderse para tratar otras “nociones”,
importantes tales como: satisfacción, designación y descripción.
Es claro al advertir que su concepción de la verdad no es la correcta, ni la única
posible; una vez que es una noción que habrá que seguir trabajando, llegado a
expresar y proponer que (Tarski, 1972, p. 42) “no nos enfrentamos con un
concepto sino con diversos conceptos diferentes denotados por una palabra...
debiéramos convenir en usar diferentes términos para designar los diferentes
conceptos”.
Popper aborda su concepción de la verdad desde Tarski, al igual que en él se
encuentra un fuerte aire popperiano en los criterios de aceptación de una teoría
empírica. (Tarski, 1972, p. 65) “nos preguntamos si es razonable el siguiente
postulado: -“una teoría aceptable no puede contener (o implicar) enunciado
falso alguno”-. La respuesta a esta última pregunta es claramente negativa.
Pues, ante todo, estamos prácticamente seguros –sobre la base de nuestra
experiencia histórica- que toda teoría empírica aceptada hoy sería tarde o
temprano rechazada o reemplazada por otra teoría”, expresa de igual forma
“Tan pronto como logramos mostrar que una teoría empírica contiene (o
implica) frases falsas, ya no puede considerarse aceptable”
En el acápite “Teoría de la verdad objetiva: la correspondencia con los hechos”,
(Popper, 1994, pp. 272-279); se resalta el gran aporte de Tarski, “ la gran
realización de Tarski y la verdadera importancia de su teoría para la filosofía de
las ciencias empíricas residen, creo, en el hecho de que restableció una teoría
de la correspondencia de la verdad absoluta u objetiva, que se había vuelto
sospechosa. Reivindicó el libre uso de la idea intuitiva de la verdad como
correspondencia con los hechos. Gracias a la obra de Tarski, la idea de verdad
objetiva o absoluta, esto es, de la verdad como correspondencia con los
hechos; parece ser aceptada con confianza en la actualidad por todos los que
la comprenden.”
Le permite además a Popper hacer una distinción entre la ciencia pura y la
ciencia aplicada “si deseamos dilucidar la diferencia entre ciencia pura y ciencia
aplicada, entre la búsqueda de conocimientos y la búsqueda de poder o de
instrumentos poderosos. Entonces no podemos prescindir de ella -noción de
verdad-. Pues la diferencia es que, en la búsqueda de conocimiento, tratamos
de hallar teorías verdaderas o al menos, teorías que estén más cerca de la
verdad que otras, que correspondan mejor a los hechos; mientras que en la
búsqueda de teorías que sean meramente instrumentos poderosos para
ciertos propósitos, en muchos casos nos sirven muy bien teorías de las que
sabemos que son falsas”
Verdad y objetividad: para abordar el concepto de verdad en Popper, se puede
lograr desde diferentes posiciones del autor, para lo cual abordaremos
únicamente dos puntos: el concepto de las fuentes del conocimiento y el
concepto de verosimilitud. De las fuentes del conocimiento, se expondrán las
principales tesis extractadas del artículo “Fuentes del conocimiento y de la
ignorancia” a saber:
1. No hay fuentes del conocimiento. Debe darse bienvenida a toda sugerencia,
pero todas deben ser sometidas a un examen crítico.
2. La pregunta epistemológica correcta no se refiere a la fuente sino más bien
si la afirmación hecha es verdadera. Es decir si concuerda con los hechos.
3. Un procedimiento típico es examinar si nuestras teorías son compatibles
con nuestras observaciones.
4. Tanto cualitativamente como cuantitativamente la fuente de nuestro
conocimiento que es, con mucho la más importante –aparte de nuestro
conocimiento innato- es la tradición.
5. El punto anterior no quiere decir que se defienda la actitud tradicionalista,
pues toda parte de nuestro conocimiento tradicional y aun el innato, puede y
debe someterse a la crítica.
6. El conocimiento no puede partir de la nada, ni tampoco de la observación, el
avance del conocimiento consiste en la modificación del pensamiento anterior.
Aunque por casualidad tenga otra razón.
7. Las epistemologías pesimistas y optimistas están igualmente equivocadas.
Denota que están equivocadas las posiciones de quienes niegan toda
posibilidad del conocimiento por no poder justificar el mismo, como quienes
creen en la posibilidad de alcanzar conocimiento verdadero y absoluto; los
optimistas epistemológicos se dividen en dos corrientes los racionalistas y los
empiristas; los racionalistas consideran que lo único objetivo en el conocimiento
son las ideas, que la verdad está en la razón (Descartes); los empiristas por el
contrario creen que la verdad está en las impresiones que se dan a través de
los sentidos, donde la verdad se alcanza por medio de una lectura correcta del
libro de la naturaleza (Bacon).
8. Ni la razón, ni la observación son autoridades. La intuición intelectual y la
imaginación son muy importantes, pero no son confiables, pueden mostrarnos
las cosas muy claras y distintas pero conducirnos a error. La mayoría de las
teorías son falsas, por no decir que todas.
9. Aunque la claridad es valiosa en si misma, no sucede lo mismo con la
exactitud y la precisión: puede no valer la pena tratar de ser más preciso de lo
que nuestro problema requiere. La precisión lingüística es un fantasma; por lo
que deben evitarse a cualquier precio los problemas verbales.
10. Toda solución de un problema plantea nuevos problemas sin resolver, y ello
es tanto más así cuanto más profundo era el problema original y más audaz su
solución.
En la sociedad el papel que juega el hombre de ciencia es más influyente en su
objeto de estudio, que la influencia que se puede ejercer en las ciencias
naturales, así se expone en (Popper, 1981, p. 30) “por tanto, no debemos
sorprendernos al ver que en las ciencias sociales no haya casi nada parecido a
la objetividad y al ideal de búsqueda de la verdad que vemos en física. Es de
esperar que nos encontremos en las ciencias sociales con tantas opiniones
como se puedan encontrar en la vida social, tantos puntos de vista como hay
intereses”. Aunque Popper acepte este argumento historicista, no comparte
que el mismo impida la objetividad de las ciencias sociales, una vez que el
análisis de los elementos no objetivos pertenece al “historicismo” o a la
“sociología de la ciencia”, pero el estudio de la lógica de la ciencia conserva su
posición crítica y por tanto se centra en el conocimiento objetivo.
El segundo elemento en mención además de las fuentes del conocimiento, es
el concepto de verosimilitud, como aproximación al concepto de verdad,
representa el grado de cercanía de una teoría en comparación con otra a la
verdad, lo que se determina, por medio del análisis de su “contenido de verdad”
y su “contenido de falsedad”. Pero el concepto de verosimilitud ha generado
gran polémica como lo muestra (Moulines, 1997, p. 426-427) “como ha
reconocido el propio Popper, su definición de verosimilitudes es defectuosa,
pues produce inconsistencias... el principal problema es que dicho concepto,
independientemente de la medida específica que se dé, no resuelve el
problema para el que el realista recurre a él... debemos elegir las hipótesis
mejor corroboradas, pero tiene nada garantiza que corroboración y
verosimilitud vayan de la mano. Es perfectamente posible que hipótesis cada
vez más corroboradas sea cada vez menos verosímil. La verdad sigue estando
ausente de la investigación científica. Que la ciencia avanza hacia la verdad es
un supuesto injustificado y, por tanto gratuito. El realismo de Popper es
puramente testimonial...”
El profesor García, desarrolla “La paradoja de la verdad variable”, para criticar
fuertemente el concepto de verdad y de verosimilitud expuesto por Popper,
(García, 2001, p. 71-74) “permítanme iniciar este apartado recurriendo a un
símil gráfico. El propósito de la ciencia consiste en aproximarse, tanto como
sea posible a la verdad. Popper, y con él muchos otros autores, han expresado
su acuerdo al respecto, pero al tiempo nos han advertido que la línea de
llegada no se encuentra dibujada de manera definitiva. Como en un universo
en expansión, va modificándose de manera permanente de modo que a lo
único que realmente alcanzas las teorías es la verosimilitud. Es como la carrera
de Aquiles y la Tortuga: el veloz corredor no consigue alcanzar a su lento
adversario a pesar de sus crecientes esfuerzos; si bien con cada momento que
transcurre puede acercarse más. Se parece a la zanahoria que, colgada unos
centímetros adelante del hocico de un jumento recalcitrante, le sirve como
acicate para no desfallecer en su camino. En una representación esquemática
que Popper incluyó en su libro Conocimiento objetivo aparece una diana en
cuyo centro debe clavarse los dardos disparados por las teorías. La idea,
escribe el autor, “es acertar tanto como sea posible en la región de la verdad”,
pero olvidó decirnos que esos enunciados que ocupan el espacio demarcado
para la verdad, no permanece allí por siempre. Como resultado de un
fenómeno harto difícil de explicar, la ubicación de estos enunciados en la
región de la verdad es temporal. Conforme se transforman las teorías
científicas y surgen nuevos hallazgos, algunos enunciados abandonan este
campo y son reemplazados por otros, que pueden ser esencialmente nuevos o
haber sido reputados como falsos en el pasado“.
“El asunto se complica si tenemos en cuenta que Popper ha hecho de la
verdad un asunto intemporal. En sus obras más recientes ha escrito que los
enunciados son de una vez y para siempre verdaderos o falsos. Tal sugerencia
es correcta, nuestra comprensión del mundo se vería afectada cada vez que
seamos incapaces de descubrir con exactitud el valor de verdad de los
enunciados... el descubrimiento de la verdad se torna en una meta que no
puede alcanzarse jamás de manera efectiva... como no hay verdad definida es
posible prolongar el juego para siempre, pues cuando pensemos haber
acertado descubrimos que la meta se ha redefinido y que es indispensable
revisar y modificar nuestras jugadas, si queremos seguir participando en él.”
Se culmina esta crítica con una cita de Popper, “existen verdades inciertas –
incluso enunciados verdaderos que consideramos falsos- pero no existen
certezas inciertas. Como nunca podemos conocer nada con seguridad,
simplemente no vale la pena buscar la certeza; pero sí vale la pena buscar la
verdad; y esto lo hacemos principalmente buscando equivocaciones a fin de
poder corregirlas. Por ello la ciencia, el conocimiento científico, es siempre
hipotético: es conocimiento por conjetura. Y el método de la ciencia es el
método crítico: el método de búsqueda y eliminación de errores al servicio de la
verdad”.
También descarta Popper la necesidad del conocimiento histórico como
fundamental para la comprensión de la estructura lógica de las teorías, “no
necesitamos saber, además, cuál de los planetas es el más viejo, o cuál entró
en el sistema desde fuera: la historia de la estructura, aunque sea interesante,
en nada contribuye a nuestra comprensión de su comportamiento y de su
desarrollo futuro”
Con respecto a la sociología o sicología del conocimiento, Popper presenta una
consideración especial para las ciencias sociales y el papel que juega la
historia en la comprensión de las mismas, lo que sería parte de su análisis
objetivo, “es obvio que las estructuras físicas difieren grandemente en este
sentido de cualquier estructura social; estas no pueden ser entendidas, ni su
futuro predicho, sin un cuidadoso estudio de su historia, aunque tuviésemos un
conocimiento completo de su “constelación” en este momento”
Las diferencias en el estudio de la física y las ciencias sociales, se encuentra
también en la posibilidad de aislar el objeto de estudio, para extraer del mismo
las conclusiones “los experimentos sociológicos a gran escala nunca son
experimentos en el sentido físico. No están hechos para hacer progresar el
conocimiento como tal, sino para conseguir el éxito político. No son llevados a
cabo en un laboratorio aislado del mundo exterior; por el contrario, el mero
hecho de que sean llevados a cabo, cambia las condiciones de la sociedad.
Nunca pueden ser repetidos precisamente bajo las mismas condiciones, ya que
estas condiciones fueron cambiadas por su primera ejecución”, “... la situación
puede haber cambiado mucho antes de que nadie haya notado el cambio”.
La discusión que sostiene Popper con los historicistas, implica no solo una
refutación a tal concepción, sino también un reconocimiento de muchas de las
tesis por ellos defendidas, pero que encierran una concepción de objetividad
particular; para delimitar la acepción del término, se transcribe la concepción
del autor sobre el historicismo, (Popper, 1981, p. 17) “entiendo por historicismo
un punto de vista sobre las ciencias sociales que supone que la predicción
histórica es el fin principal de éstas, y que supone que este fin es alcanzable
por medio del descubrimiento de los ritmos o los modelos, de las leyes o las
tendencias que yacen bajo la evolución de la historia”.
La disertación se agudiza con respecto a la unidad de método o a la diferencia
de método que debe utilizar las ciencias naturales y las sociales; para
argumentar la unidad de método Popper expone “la sociología, como la física,
es una rama del conocimiento que intenta ser, al mismo tiempo empírica y
teórica...” al definir qué se entiende por empírico y por empírico, se determina
que la objetividad en ambas ciencias es alcanzada a través de la utilización del
mismo método”
“Al decir que es una disciplina teórica, entendemos que la sociología tiene que
explicar y predecir acontecimientos, con la ayuda de teorías o leyes universales
(que intentan descubrir); al describir la sociología como ciencia empírica,
queremos decir que ha de estar corroborada por la experiencia, que los
acontecimientos que explica y predice son hechos observables y que la
observación es la base que acepta o rechaza cualquier teoría propuesta”.
UNIDAD
IV:
EXPERIMENTOS
CRUCIALES
Y
REFUTACIONES EMPIRICAS EN LA METODOLOGIA DE
LAS CIENCIA
4.1 La disputa en torno a los significados de falsabilidad
El problema de la demarcación se refiere, dentro de la filosofía de la ciencia, a
la cuestión de definir los límites que deben configurar el concepto "ciencia". Las
fronteras suelen establecerse entre lo que es conocimiento científico y no
científico, entre ciencia y pseudociencia, y entre ciencia y religión. El
planteamiento de este problema conocido como problema generalizado de la
demarcación abarca estos tres casos. El problema generalizado, en último
término, lo que intenta es encontrar criterios para poder decidir, entre dos
teorías dadas, cuál de ellas es más "científica".
Tras más de un siglo de diálogo entre filósofos de la ciencia y científicos en
diversos campos, y a pesar de un amplio consenso acerca de las bases
generales del método científico, los límites que demarcan lo que es ciencia, y lo
que no lo es, continúan siendo debatidos.
La importancia del problema
Disponer de una solución al problema del criterio de demarcación no sólo tiene
importancia en el ámbito teórico, desde una dimensión estrictamente filosófica,
sino que es importante en campos prácticos y cotidianos. Distinguir lo que es
ciencia de lo que no, tiene relevancia desde el punto de vista económico (a la
hora de financiar proyectos de investigación), jurídico y de policía científica (a la
hora de evaluar pruebas), sanitario (a la hora de prescribir tratamientos
médicos), y educativo (a la hora de establecer programas de estudio), entre
otros.
La demarcación entre ciencia y pseudociencia tiene mucho que ver con la
crítica, la censura y la intolerancia en la investigación científica. La teoría de
Copérnico fue condenada al índice de ideas y obras prohibitivas por la Iglesia
Católica que tenía el poder político y "científico" (1616). El Partido Comunista
de la URSS declaró (1949) pseudocientífica a la genética mendeliana -por
"burguesa y reaccionaria"- y mandó a sus defensores como Vavílov a morir en
campos de concentración.
En palabras de Lakatos, el problema de la distinción entre lo científico y lo
pseudocientífico "no es un pseudoproblema para filósofos de salón, sino que
tiene serias implicaciones éticas y políticas".
El filósofo Karl Popper se dio cuenta de que los filósofos del Círculo de Viena
(al cual él mismo estuvo muy vinculado, pero no como miembro) habían
mezclado dos problemas diferentes para los que habían resuelto dar una única
solución: el verificacionismo. En contraposición a este punto de vista, Popper
remarcó que una teoría podría perfectamente tener significado sin ser
científica, y que, como tal, un 'criterio de significación' podría no
necesariamente coincidir con un 'criterio de demarcación'. Así pues, ideó su
propio sistema, al que se denomina falsacionismo (cabe señalar que Popper no
llama a su metodología falsacionismo, sino racionalismo crítico). Éste no sólo
es interpretable como una alternativa al verificacionismo; supone también un
acuerdo acerca de la distinción conceptual que habían ignorado las teorías
previas.
Popper vio la demarcación como un problema central en la filosofía de la
ciencia. Propuso el falsacionismo como una forma de determinar si una teoría
es científica o no. Simplificando, se podría decir que si una teoría es falsable,
entonces es científica; si no es falsable, entonces no es ciencia.7 Algunos [cita
requerida] han llevado este principio hasta el extremo de dudar de la validez
científica de muchas disciplinas (tales como la Macroevolución y la Cosmología
Física). La falsabilidad fue uno de los criterios utilizados por el Juez William
Overton para determinar que el creacionismo no era científico y que no debería
enseñarse en los colegios de Arkansas.
La falsabilidad es una propiedad de los enunciados y de las teorías, y, en sí
misma, es neutral. Como criterio de demarcación, Popper busca tomar esta
propiedad y tomarla como base para afirmar la superioridad de teorías
falsables sobre las no falsables, como parte de la ciencia, estableciendo así
una posición que podría ser llamada falsacionismo con implicaciones
políticas.[cita requerida] Sin embargo, muchas cosas de las que pueden ser
consideradas como dotadas de significado y utilidad no son falsables. Con toda
certeza, los enunciados no falsables desempeñan una función en las propias
teorías científicas. Lo que el criterio Popperiano permite ser llamado científico
está abierto a interpretación. Una interpretación estricta concedería muy poco,
puesto que no existen teorías científicas de interés que se encuentren
completamente libres de anomalías. Del mismo modo, si sólo consideramos la
falsabilidad de una teoría y no la voluntad de un individuo o de un grupo para
obtener o aceptar instancias falsables, entonces permitiríamos casi cualquier
teoría.
En cualquier caso, es muy útil conocer si un enunciado de una teoría es
falsable, aunque sólo sea por el hecho de que nos proporciona un
conocimiento acerca de las formas con las que alguien podría evaluar una
teoría. La tesis de Duhem-Quine argumenta que no es posible probar que un
enunciado ha sido falsado; en su lugar, la falsación ocurre cuando la
comunidad científica se pone de acuerdo en que ha sido falsado (véase
consenso científico). Esta es una crítica importante al falsacionismo, pues
cualquier enunciado observacional, por inocente que parezca, presupone
ciertas concepciones acerca del mundo, y resulta imposible preguntarse si esas
concepciones son científicas o no. El filósofo de la ciencia William Herbert
Newton-Smith, expresa así su crítica:
...para Popper, al aceptar el más modesto de los enunciados de observación
estamos implícitamente aceptando alguna teoría, y no podemos sentirnos más
justificados al creer en un enunciado observacional que en los enunciados
teóricos pertinentes
4.2 Refutaciones y progreso científico: los modelos de Popper,
Lakatos y Laudan
Popper
En las ciencias humanas y sociales se han utilizado de forma profusa términos
que han sido acuñados desde el tratamiento de las ciencias naturales y de la
Física como ciencia natural por excelencia. La economía no ha sido ajena a
este tratamiento, por ende la contabilidad como disciplina científico-económica
en su afán por adquirir un grado de rigor científico, ha utilizado de forma prolija
en la construcción y reconstrucción de su estructura conceptual los elementos
que han permitido el avance teórico de las ciencias naturales.
Así, se aborda el estudio de las teorías contables que han utilizado para su
elaboración las teorías de Popper, y en su evolución o crítica han abordado de
igual forma criterios que hacen referencia a Tomas Samuel Kuhn, Imre Lakatos
y Paúl Feyerabend. Entendiendo las construcciones de estos autores
desarrolladas en dialogo continuo, que permite descubrir un problema central
común pero con soluciones lógicas en el primero, histórico-sociológicas en el
segundo, histórico-logicismo en el tercero y pluralistas metodológicas en el
tercero.
Epistemología y contabilidad
Si en el estudio de la contabilidad se utilizan instrumentos propios de las
ciencias naturales, se podría estar frente a tres elementos que permitirían o no
tal transferencia:
- El primero que la contabilidad no sea una ciencia y por ende este utilizando
un lenguaje propio de otra categoría del saber.
- El segundo que la contabilidad es una ciencia, pero estaría clasificada en las
ciencias sociales, en este sentido estaría utilizando para una ciencia un
instrumental propio de un conocimiento con características diametralmente
opuestas.
- Una tercera opción es que la contabilidad es una ciencia social, y permite la
utilización del instrumental metodológico que utiliza la ciencia natural, porque el
método no es propio de la ciencia natural, sino de todas las ciencias, lo que se
puede denominar un monismo metodológico.
Para ampliar los elementos de juicio, se presenta unas consideraciones
específicas en cuanto a los términos. Karl Popper en su obra “la lógica de la
investigación científica” publicada originalmente en Viena en 1934. aborda el
problema de la demarcación y el problema de la inducción; estas
consideraciones y las posteriores del autor permiten calificar su teoría como un
“racionalismo crítico”
Considera Popper “el hombre de ciencia ya sea teórico o experimental,
propone enunciados y los contrasta paso a paso”; se opone radicalmente a los
“métodos inductivos”, entendido como “inferencia que pasa de enunciados
singulares –observaciones y experimentos- a enunciados universales –
hipótesis o teorías-“, esta crítica es tratada con elementos que ya había
formulado David Hume conocido como el “problema de la inducción”.
Hume arguye “incluso después de observar que se da frecuentemente una
conjunción constante de objetos, carecemos de razones para extraer inferencia
alguna acerca de ningún objeto que trascienda aquellos de los que hemos
tenido experiencia”, “¿por qué a partir de dicha experiencia formamos
conclusión alguna que vaya más allá de los casos de que hemos tenido
experiencia?”.
Kant intento resolver el “problema de la inducción” (Popper, 1982, p.29), a
través de lo que él llamaba el “principio de causación universal”, era “valido a
priori”, pero Popper concluye que “no tuvo éxito en su ingeniosa tentativa”. La
solución Kantiana la desarrolla en “la crítica de la razón pura y prolegómenos a
toda metafísica del porvenir”.
Popper se opone a todo tipo de inducción, aún a la probabilística, que plantea
que las teorías (Lakatos, 1983,p.12) “pueden alcanzar cierto grado de
seguridad o de probabilidad”, pues dice”que la probabilidad matemática de
todas las teorías científicas o deudo-científicas, para cualquier magnitud de
evidencia es cero”.
En el apéndice “probabilidad nula y estructura fina de la probabilidad y del
contenido, (Popper, 1982a, pp. 338-351), sostiene que y desarrolla “la teoría
probabilística de la inducción – o idea de una probabilidad inductiva es
insostenible”.
Frente a la inducción, Popper propone “la teoría del método deductivo de
contrastar” – método que surge fruto de un problema que formuló en los
siguientes términos “yo quería distinguir entre la ciencia y la seudo-ciencia,
sabiendo muy bien que la ciencia a menudo se equivoca y que la seudo-ciencia
a veces da con la verdad”.
El camino de contrastación es presentado en cuatro etapas, (Popper, 1982, p.
32) “podemos distinguir cuatro procedimientos de llevar a cabo la contratación
de una teoría: la comparación lógica de las conclusiones unas con otras...,
estudio lógico de la teoría..., comparación con otras teorías... y contrastar por
medio de la aplicación empírica de las conclusiones que pueden deducirse de
ella”
Bajo estos criterios, los contables han utilizado el leguaje de Popper para
desarrollo de teorías en la contabilidad; el profesor Richard Mattessich ha
presentado la propuesta de la Teoría General Contable como el marco
universal de orientación conceptual de los diferentes sistemas contables
existentes, esta Teoría General, es validada a partir de un criterio de
falsacionismo popperiano en sentido clásico, mientras que las interpretaciones
de esta Teoría General tendrá una validación de carácter teleológico, es decir
en función utilitarista. (¿Qué pertinencia tiene la aplicación de este criterio?)
El profesor Tua Pereda señala “los supuestos básicos de la teoría general son
proposiciones eminentemente positivas, cuyo origen es la búsqueda de puntos
comunes entre los diferentes sistemas contables en presencia y el medio que
operan... la comprobación de una teoría general de la contabilidad tiene que
estar invariablemente unida a proposiciones específicas que rigen sistemas
contables particulares; utilizando el criterio popperiano de la falsación o
verificación negativa”
Tua haciendo cita de Mattessich indica “en la práctica real pueden encontrarse
sistemas distintos a los caracterizados en la teoría general, los cuales,
evidentemente constituyen una refutación potencial. Si estos sistemas
defectuosos cumplieran sus propósitos correctamente, constituirían una
refutación de nuestra teoría, pero si no es así, lo único que queda claro es su
exclusión de la anterior teoría”...
Bajo este criterio se evidencian las consecuencias de la transferencia de
instrumental de una ciencia – la física- a una disciplina –la contabilidad-,
cuando esta última tiene consideración muy particulares, (Tua, 1983, 605) “el
carácter universal de las leyes nomológicas ha de ser entendido en términos
relativos en la contabilidad, una ley contable o mejor una asunción contable, es
universal en tanto cumple en todos los sistemas contables, pero al ser estos
mutables, la ley universal está sujeta a cambio”.
Evaluemos el tema de la demarcación, abordado también por Popper en “La
lógica de la investigación científica”, “el problema de la demacración consiste
en encontrar un criterio que nos permita distinguir entre ciencias empíricas y
sistemas metafísicos”, el problema de la demarcación es esencial y como
afirma Lakatos “tiene serias implicaciones éticas y políticas”
Pero qué es para Popper la ciencia y qué determina el rigor científico de las
teorías, el criterio propuesto por este autor es el de la falsabilidad de los
sistemas, apuntando que las teorías no son nunca verificadas empíricamente,
por el contrario el sistema científico se caracteriza por que “ha de ser posible
refutar por la experiencia un sistema un sistema científico empírico”.
Para poder aplicar la falsación debe de tenerse un conjunto de enunciados
singulares, que sirvan de premisas en las inferencias falsadoras; El contable
José María Requena en su libro “Epistemología de la contabilidad como teoría
científica” en referencia a los “enunciados singulares” dice “... obtendremos dos
subclases no vacías: la que incluye el conjunto de los enunciados que la
referida teoría excluye o prohíbe y el conjunto de los que no se hallan en
contradicción con la misma”
El problema de la base empírica concierne al carácter empírico de enunciados
singulares y a su contrastación; en las ciencias naturales, este problema ha
generado gran discusión, encontrando sólo respuestas provisionales, es decir
paradigmas en el sentido de Kuhn, en la acepción más sociológica del término.
Si se presenta ésta discusión sin solución única en las llamadas ciencias duras,
con mayor énfasis se presentarán alternativas múltiples de solución a la
justificación de la base empírica en las ciencias sociales, pues como dice Kuhn
“me asombré el número y el alcance de los desacuerdos patentes entre los
científicos sociales, sobre la naturaleza de problemas y métodos científicos
aceptados”
En contabilidad la posibilidad de aprehensión de conceptos propios, a través
del lenguaje de la epistémico-metodológica de las ciencias sociales es
altamente inapropiada. En la base empírica la referencia a la “percepción
sensorial” como alternativa de solución no da una salida concluyente; pues los
contables no tratan de determinar “si esta mesa es roja o azul”, sino que
intentan determinar el “valor” de la misma. Concepto de “valor” que genera una
disimilitud de apreciaciones en la determinación cuantitativa específica del valor
de un bien y/o servicio, con las técnicas utilizadas y permitidas dentro de la
contabilidad para calcularlo, además del mayúsculo problema de la orientación
que desde la economía se adopte de este término “valor”, si es que la
contabilidad no llega a contar con su propia orientación.
Para Popper la solución del problema de la base empírica, no está en la
“percepción sensorial” –para la contabilidad tampoco-, ni en la regresión
infinita, de justificación de enunciados a través de enunciados, ni en el
psicologismo, donde los enunciados se justifican por enunciados y por
experiencia perceptiva. En contabilidad se aproximan a este concepto de
rechazo de las justificaciones no aceptadas por Popper, enfocado en la
construcción de Mattessich donde se comparte el teorema de incompletitud de
Goëdel, por tornarse hacia el infinito.
En ese sentido el racionalismo crítico propone las características que los
enunciados básicos deben satisfacer: (Popper, 1982, p.96)
1. No se podrá deducir enunciado básico alguno a partir de un enunciado
universal no acompañado de condiciones iniciales.
2. Un enunciado universal y un enunciado básico han de poder contradecirse
mutuamente.
Un enunciado básico tiene la forma de un enunciado existencial singular como
“hay un cuervo en la región espacio temporal K”. El elemento al que se refiere
el enunciado básico ha de ser “observable”, es decir, contrastable
intersubjetivamente por “observación”.
En Contabilidad la formulación de las premisas básicas formuladas por
Mattessich en los veintiún asunciones, están referidas a fenómenos empíricos,
en ese sentido son contrastables con la realidad; Entendiendo que si existe un
sistema contable con características diferentes a las formuladas en la Teoría
General polivalente y que cumple satisfactoriamente los objetivos del sistema,
es un sistema que cumple las funciones de un enunciado falsador. Esta
orientación hace énfasis a los objetivos para los cuales fue diseñado un
sistema contable, consideración no compatible con Popper, donde el “hecho
crucial” es un elemento del conjunto no vacío de enunciados falsadores, que se
contrastan con la realidad empírica objetivizada por la no-intervención subjetiva
del investigador y no un criterio de validación teleológica, como el sistema
contable.
Tua en el acápite de Epistemología y Principios contables (Tua, 1983, pp. 637634), “la epistemología contable presenta unas peculiaridades específicas
derivadas del objeto material de la misma... hay que insistir una vez más en la
distinción entre los dos planos posibles de la epistemología contable: las
vertientes cognoscitiva y deóntica”, es decir Tua reconoce para la contabilidad
una estructura positiva y una teleológica, reconociendo la derivación de
principios desde la teoría general como una orientación teleológica y olvidando
que la teoría general, se construye sobre la base de unas características
comunes y universales a los sistemas contables, con justificación en su utilidad
técnica y metodológica y no por referencia a una realidad existente de forma
aséptica, donde el hombre es un simple observador cómo calificaría el
positivismo el conocimiento como tal.
El traslado de herramientas propias de las ciencias duras, a otros tipos de
conocimientos, como es el caso de la economía y la contabilidad no las hace
unas ciencias duras, muy por el contrario, obstaculiza su desarrollo y no les
permite el cumplimiento de objetivos específicos –razón de su existencia- peor
aún cuando pretenden seguir el camino de la neutralidad de las ciencias
naturales en su estadio más abstracto, abandonando por completo las
exigencias que la sociedad hace y debe hacer a los conocimientos que tienen
la función clara y determinada de responder a los problemas que se plantean a
diario y en condiciones singulares y regionales y no en generalizaciones
universalistas, trabajo propio de la ciencia, para los deterministas, defensores
de lo absoluto.
En la falsación el proceso debe aceptar un enunciado básico, como punto de
partida, la defensa de este acuerdo Intersubjetivo por parte de los científicos es
una respuesta no lógica en sentido riguroso que ofrece Popper al problema al
problema de la justificación de los enunciados, tal como él mismo lo reconoce
“es un tipo de dogmatismo inocuo”.
La preferencia de una teoría obedece a la capacidad de competencia de las
existentes, “la que por selección natural muestra ser más apta para sobrevivir”,
además afirma (Popper, 1982, 104) “la elección viene determinada, en parte,
por consideraciones de utilidad”; éste último criterio permitiría un acercamiento
con el conocimiento económico-contable, donde la referencia a la verdad es
desplazada por la preferencia hacia las teorías más útiles.
Si se comparte este principio convencionalista las hipótesis instrumentales de
la contabilidad, entendidas como macro-reglas para la acción, siguen un
método científico en su criterio de validación teleológica, en la contratación del
cumplimiento de los objetivos, para la cual es aplicada; además su inferencia
obedece a una estructura lógica, en la derivación de enunciados de más bajo
nivel, a partir de un itinerario lógico deductivo en la construcción de principios
contables.
Lo que Popper pretende es alcanzar un alto grado de “objetividad”, el término
objetivo y subjetivo de utilizado por éste racionalista crítico con una acepción
muy cercana al utilizado por Kant; pero difiere en el criterio de certeza diferente
que ambos manejan, es decir mientras Kant cree en la posibilidad de la ciencia
absoluta y verificable completamente –inspirado en la ciencia de Newton-,
Popper es un defensor del provisionalismo teórico y en la verificación negativa
con la utilización del Tollendo Tollens: “la negación del consecuente es la
negación del antecedente”; y concluye en que “la objetividad de los enunciados
científicos descansa en el hecho que pueden ser contrastados
intersubjetivamente”. Llegando a la siguiente conclusión “los sistemas teóricos
se contrastan deduciendo de ellos enunciados de un nivel más bajo”.
En esta línea Mattessich resume la validación para las proposiciones contables
en tres puntos (Tua, 1995, 350).
1. Las proposiciones de alto grado de abstracción, correspondientes a la teoría
general contable, se verifican en relación con la gama completa de los sistemas
que emplean la doble clasificación.
2. Las proposiciones del más bajo grado de abstracción, las últimas hipótesis
específicas de cada sistema contable, deben verificarse asegurando la utilidad
neta positiva en relación con los objetivos perseguidos y no menor que la
utilidad neta de la mejor alternativa no elegida.
3. Cada proposición de los niveles intermedios de abstracción debe estar en
conformidad, por un lado, con la proposición superior más próxima y por otro,
con todas las proposiciones inferiores que se deriven dela misma.
Esta orientación de Mattessich con respecto a la doble validación en la
contabilidad (cognoscitiva y teleológica), es particular de las ciencias aplicadas.
Además advierte el profesor Romero en el acápite “es científica la teoría
contable”, “para que una teoría se considere científica debe reunir una serie de
requisitos mínimos y antes de eso se constituye como una sistematización de
leyes o fórmulas legaliformes, mediante la cual se puede prever
acontecimientos... esta concepción de teorías queda descartada para la
contabilidad, primero porque es formulada para las ciencias factuales, las que
estudian hechos, y la contabilidad no se ocupa de hechos”.
La propuesta de Durkheim –en desarrollo de la idea de Augusto Comte de
aplicar el positivismo al análisis de los hechos sociales- es una potencial
respuesta a Romero León, propuesta que consiste en: entender que las cosas
sociales cobran realidad sólo a través de los hombres, son un producto de la
realidad humana y su estudio exige, tal como lo formularon Bacon y Descartes,
prescindir de todo tipo de ídolos y nociones preliminares, que nos entrega el
sentido el común, para abordar el hecho social como una cosa que es para
nosotros totalmente desconocido; se formula así la regla de la “ignorancia
metódica” y el necesario criterio para “desechar sistemáticamente todas las
prenociones” en buena medida tomando como fuente la consideración de
Descartes.
Descartes formula en esta dirección la primera regla del método “el primero
consistía en no recibir nunca cosa alguna como verdadera que yo no conociese
evidentemente como tal; es decir evitar cuidadosamente la precipitación y la
prevención; y en no incluir en mis juicios nada más que aquello que se
presentase a mi espíritu tan clara y tan distintamente, que no tuviese ocasión
alguna de ponerlo en duda”
Formula Durkheim que “los hechos sociales se deben tratar como cosas”, “todo
objeto de la ciencia es una cosa, salvo, acaso, los objetos matemáticos”, es en
este sentido que reconoce que su método no tiene nada de revolucionario y es
esencialmente conservador, además afirma (Mardones, 1991, p.148) “los
hechos sociales son cosas cuya naturaleza, aunque flexible y maleable, de
todos modos no puede modificarse a voluntad”.
El tratamiento que los autores como Mattessich, Cañibano, Tua Pereda,
Requena y Montesinos, entre otros han dado a la contabilidad es el de ciencia,
además coinciden en utilizar la metodología –separada y/o conjuntamente- de
Popper, Kuhn, Lakatos, Laudan, Balzer, Bunge y Stegmüller, como
instrumental para su estudio y validación; lo que exige determinar cuáles son
las teorías de la contabilidad, sus hipótesis y enunciados y criterios de
contrastación.
Mauricio Nieto (Universidad de los Andes, Colombia) dice con respecto al
traslado de este tipo de metodologías: “la propuesta de la filosofía de la ciencia
tradicional del positivismo lógico o los trabajos de Karl Popper y sus criterios
formales y a-históricos, eran inapropiados para describir el desarrollo del
conocimiento científico” y resalta la orientación historicista “la ciencia debe ser
susceptible de un estudio sociológico de idéntica manera que cualquier otro
tipo de conocimiento o cultura” –hace referencia a Kuhn, Lakatos y
Feyerabend-. “La ciencia occidental ha sido tradicionalmente vista como
benevolente, apolítica y neutral; y su extensión como una incuestionable
contribución al progreso material y a la civilidad”, este enjuiciamiento permite
pensar en si lo más acorde con el conocimiento es su transferencia irreflexiva o
el estudio y la construcción de nuestra propia historia científica –me refiero a
Latinoamérica-; además afirma el Nieto “la ciencia occidental también ha
contribuido al estancamiento de otros”, “la implantación de la ciencia y la
tecnología occidentales pueden también contribuir al despojo de los nativos del
control de sus propios recursos, restándoles poder de forma sistemática”.
Finaliza Nieto “la historia y la filosofía de la ciencia, en demasiadas ocasiones,
han sido un poderoso instrumento para quienes se interesan en legitimar el
presente, quienes quieren ofrecernos un futuro determinado por “fuerzas
históricas inquebrantables”, pero es categórico Nieto “no hay razón que nos
impida pensar las cosas diferentes y no estamos obligados a embarcarnos en
una carrera de modernización y competitividad científica cuyas reglas de juego
están determinadas por los intereses de grupos sociales específicos”. Este
análisis crítico de la filosofía y la historia de la ciencia, se podría aplicar casi
textualmente al debate actual del modelo económico único impuesto y
desarrollado en Colombia en la década del noventa y la implementación de las
Normas Internacionales de Contabilidad a partir del 1 de enero de 2005.
No es sólo el método el que da la categoría de ciencia a un conocimiento,
cuando un conocimiento que no tenga el rango de ciencia –de mayor aplicación
el análisis para los conocimientos sociales y humanos- y utiliza los métodos y
herramientas propios de la ciencia natural –ciencias duras-, no sólo no alcanza
su pretendido rango científico, sino que además puede estar alejándose de su
verdadera razón de ser, como para los conocimientos sociales es la resolución
satisfactoria de los problemas concretos de la sociedad; que se pueden
alcanzar con un rigor instrumental, finalista y participativo; mientras las ciencias
naturales tienen un estatuto de neutralidad, objetividad no teleológica.
Con respecto a la ciencia dice (Kant, 1985, p. 29), “si se quiere representar un
conocimiento como ciencia, debe ante todo, poder determinar exactamente lo
diferenciado, lo que en ella no es común a alguna otra y constituye
peculiaridad...” esta afirmación hay que entenderla en el sentido de necesaria,
pero no suficiente.
(Requena, 1981, p.157) da respuesta a este criterio de la contabilidad “es la
ciencia empírica, que con respecto a una unidad económica, nos permite en
todo momento el conocimiento cualitativo y cuantitativo de su realidad
económica con el fin genérico de poner de relieve la situación de dicha unidad
y su evolución en el tiempo”... (Requena, 1981, p.149) “la contabilidad posee
un objeto material común a la economía “la realidad económica”, pero un objeto
formal propio el conocimiento cualitativo y cuantitativo de esta realidad”.Este
concepto se cita como ejemplo de la preocupación por la identificación del
objeto de estudio de la contabilidad, pero al mismo tiempo hay que entenderlo
como reduccionista del radio de acción, función y alcance de la contabilidad.
Se abordó el problema del objeto de estudio de la contabilidad, término que se
transfiere de las ciencias naturales; Popper aborda un problema que dará luces
a la pertinencia de utilización del mencionado término, este análisis se abordó
en su texto “Conocimiento objetivo”, en el capítulo V “el objeto de la ciencia”.
Parte de la afirmación “la propia ciencia carece de metas”, paro acepta que la
actividad científica como racional ha de tener metas, así, “el objeto de la ciencia
consiste en dar explicaciones satisfactorias de todo aquello que nos parece
precisar una explicación” y “explicación es un conjunto de enunciados mediante
los cuales se describe el estado de la cuestión a explicar” y en este sentido se
prefieren “teorías que tengan un contenido cada vez más rico, un grado de
universalidad cada vez más elevado y un grado de precisión cada vez mayor”.
Desarrolla Popper, la tesis de la existencia de sistemas físicos que son
altamente regulares y los sistemas biológicos y sociales que son altamente
irregulares, desordenados –en contraposición al término clásico de orden- y
más o menos imprevisibles. Los sistemas físicos regulares, ordenados y de
comportamiento similar en el tiempo los relaciona con los relojes de predicción
–reloj de péndulo- los sistemas imprevisibles, los relaciona con las nubes.
No indica esta analogía que unos sistemas sean más perfectos y mejores que
otros, sino que muestra dos naturalezas diferentes, que requieren unas
condiciones específicas y particulares de estudio, esta afirmación es contraria a
la línea propuesta por Popper con respecto al monismo metodológico- el
falsacionismo- que no hace distinción metodológica entre un sistema y otro, ni
entre la ciencia natural y las humanas.
(Popper, 1982, 195) “Como ejemplo típico e interesante de nube recurrirá a una
nube o enjambre de moscas o mosquitos. Los mosquitos individuales que
como moléculas de un gas, forman todos un enjambre se mueve de un modo
asombrosamente irregular).
El sistema contable estaría clasificado dentro de la analogía de las nubes; en
su parte científica y cercano a los relojes en su parte técnica. “La contabilidad,
como ciencia encaminada al conocimiento de las unidades económicas es
distinta de la técnica de la contabilidad, pudiendo decir que aquella es a ésta lo
que el pensamiento a la acción. La ciencia es principio, la técnica normas de
aplicación”
Si la ciencia contable tiene como “objeto de estudio formal” “la realidad
económica en cuanto a sus características cualitativas y cuantitativas”, ésta
frente a un objeto dinámico, evolutivo y en constante movimiento, difícilmente
predictible.
Pero el determinismo físico, que formula que “todas las nubes son relojes”,
indicaría que el hecho de que no conozcamos las leyes que rigen ciertos
movimientos aparentemente irregulares, es sólo “un acuerdo de nuestra
ignorancia”, pero que un día podremos llegar a determinar esas regularidades.
En contabilidad aceptan los algunos contables que la técnica tiene el
funcionamiento de un reloj de péndulo, de lo contrario no podrían formular la
ecuación patrimonial A = C + P, Activo es igual a pasivo más patrimonio, esta
es una consecuencia de la aceptación de una teoría del valor y unos criterios
de medición y valoración, que son altamente falibles y de fácil refutación
empírica. Con esto se demuestra que el funcionamiento lineal y preciso es fruto
de acomodar la realidad a la teoría, pero no existe una explicación satisfactoria,
contrastable y contrastada de la realidad, que es la razón de la ciencia.
Como una nube funcionaría en la contabilidad las interpretaciones o
aplicaciones de la teoría general contable que dependen de las condiciones de
los entornos, de los objetivos específicos de los sistemas donde se instalan y
en buena medida de los juicios de valor de quien diseña e implementa el
sistema, en una clara orientación interdisciplinaria, tal como en la misma línea
popperiana con respecto a que los problemas no logran una solución desde
una sola disciplina del conocimiento sino que requieren el concurso activo de
diferentes parcelas del saber.
El físico americano Pierce formuló “todos los relojes son nubes” es decir “sólo
existen nubes”, lo que lo lleva a precisar un determinismo en el conocimiento;
para Compton el indeterminismo físico “resolvía no sólo problemas físicos, sin
también biológicos y filosóficos”. Esta influencia de la física es evidente en las
distintas épocas, para los diferentes autores de filosofía que asumen posición
en el determinismo o el indeterminismo, como lo muestra Kant en su obra, bajo
el predominio de la ciencia clásica de Newton, escribió con criterio de
absolutista sobre ciencia, ética y estética. – es de anotar que este absolutismo
es parcial, pues el noúmeno, permanece incognoscible-.
¿Qué es la contabilidad?, una “ciencia social” –responden algunos autores- y
en este sentido, la ética constituye un fundamento del desarrollo y aun de la
validación de la misma y en la definición de la estructura en la que ha de
sustentar sus bases, aún con la posibilidad de hacer un paralelo de
equivalencia entre hipótesis auxiliares en un programa de investigación
científico –lenguaje de Lakatos- y una hipótesis instrumental en la
interpretación de una teoría general contable con una orientación teleológica.
Para considerar la contabilidad como una ciencia, ésta debe determinar sus
“enunciados” y/o “teoría explicativa”, “enunciados observacionales” o
“enunciados contrastadores” y la “justificación de la pretensión de que una
teoría es verdadera”; pues estos elementos (Popper, 1982b, p.19), resuelve
tentativamente el problema de traducir los términos subjetivos en términos
objetivos; los términos subjetivos o sicológicos eran “creencias” “impresión”,
“justificación de una creencia”.
El problema de la demarcación entre lo que es ciencia y seudo-científico,
incluye el término “experimento crucial”, entendido como el experimento
riguroso que pueda o intente falsar una teoría, a través, de un hecho de un
genuino test falsador; es decir un enunciado singular observable, que lleve a la
falsación de la teoría.
En contabilidad, para cumplir este requisito se debe establecer el número de
teorías aceptadas, (excluyentes e incluyentes- pues en términos kuhnianos,
Hendriksen, hablo de la contabilidad, como disciplina multiparadigmática), al
igual que el conjunto de enunciados singulares falsadores de las teorías
vigentes, rivales o monopólicas.
¿Cómo entender entonces la contabilidad?, el determinismo de los sistemas
físicos, sociales o políticos, es otra variable a tener en cuenta; la economía no
puede entenderse como un sistema cerrado –es posible que no existan
sistemas cerrados-. (Popper, 1982b, p. 204) “por sistema físicamente cerrado
entiendo un conjunto o sistema de entidades físicas como átomos, partículas
elementales, fuerzas físicas o campos de fuerza que interactúan entre sí- y sólo
entre sí- de acuerdo con leyes definidas de interacción que no dejan lugar a
interacciones o interferencias con nada externo a ese conjunto o sistema
cerrado de entidades físicas”.
Si la economía y la contabilidad están analizando un objeto de estudio en un
sistema abierto, cada situación requiere una descripción y una explicación,
independiente; desde esta visión se invalida cualquier intento de universalizar
las condiciones diferentes a partir de la estandarización de técnicas que
busquen dar cuenta de una realidad; es utilizar instrumentos de “relojes” para
abordar “las nubes” en el sentido de sistemas precisos –si existen- y sistemas
caóticos –si existe lo irregular-.
La “doctrina de la necesidad” según la cual “causas semejantes producen
siempre efectos semejantes”, es una doctrina psicológica de seguidores de
Hume, que la reformularon de la siguiente forma: (Popper, 1982b, p. 285)
“nuestras acciones, voliciones, gustos o preferencias son causadas
psicológicamente por experiencias anteriores y en última instancia por nuestra
experiencia y nuestro medio”; esta apreciación final de los seguidores de
Hume, es tan vaga –dice Popper- que es perfectamente compatible con el
indeterminismo físico y no es comparable con determinismo físico.
En continuación de la idea afirma Popper “no todos los acontecimientos del
mundo físico están predeterminados con absoluta precisión en todos sus
detalles infinitesimales”. Este criterio se puede pensar en las ciencias sociales,
aun con mayor posibilidad de percepción, aceptando como lo plantea el
indeterminismo físico que no se pueden negar muchos acontecimientos que
siguen y tienen un grado de regularidad; pero de la aceptación singular y
relativa no se pasa a la aceptación universal y absoluta del determinismo.
La creencia en un determinismo físico y su traslado en la aplicación en las
ciencias sociales, no es un tema, de interés epistemológico exclusivamente,
sino que tiene fuertes implicaciones de carácter social, político y económico.
Pues el intento de buscar objetivos –situaciones ideales- a partir de la
determinación mono-causal o bi-causal o con un reducido número de variables,
que se confía que se comportarán de manera mecánica y absolutamente
precisa, puede llevar a excesos, dogmatismos y consecuencias con altos
costos para la humanidad; -en otra línea aún más rigurosa, se dice, que la
ciencia es neutral y en este sentido no puede buscar objetivos, -un positivismo
puro- aplicado a la economía.La pregunta se puede formular en particular para las ciencias del hombre,
(Popper, 1982b, p. 213) “lo que queremos es comprender de qué modo las
cosas no físicas, como los propósitos, deliberaciones, plantes, decisiones,
teorías, intenciones y valores pueden tomar parte en la introducción de
cambios físicos en el mundo”. Se responde que no es posible explicarlos en
términos absolutos de una teoría física determinista, o una teoría estocástica.
La contabilidad bajo este criterio no puede pensarse como una ciencia
aséptica, libre de juicios de valor e intencionalidades, más cuando su existencia
obedece a los propósitos específicos de las fuerzas que actúan en un mercado
y su técnica está reglamentada y tiende a mayor normalización no ingenua
cada día. -¿cuál es el interés de la Norma Internacional Contable?- y como lo
plante Foucault “cada fuerza tiene un poder de afectar (a otras) y de ser
afectada (por otras)”, esta consideración no justifica la defensa del puro azar,
donde todo y cualquier cosa puede ocurrir, pues no todo y de cualquier forma
emerge.
El método popperiano es el método del ensayo y supresión de errores, que
determina los enunciados a partir de los cuales se falsearán las teorías por
erradas, ¿qué pasa en las ciencias sociales? Que están más orientadas a la
construcción de situaciones ideales, que a la explicación neutral de las
situaciones pasadas. Una vez que el sustento de la explicación está
condicionado por el marco teleológico del modelo posible y provisional con que
cuenta un determinado grupo- varios grupos en lenguaje de Kuhn pueden tener
diferentes lenguajes en diferentes modelos paradigmáticos y no
necesariamente conmensurables-.
La contabilidad en oposición a un positivismo neutral puede ser evaluada
desde un instrumentalismo que evalué teleológicamente las herramientas más
útiles; en ese sentido el pensamiento filosófico lo expresa el profesor Jaramillo
“los instrumentalistas, miraron las teorías científicas de una manera
pragmática, vale decir, como útiles instrumentos de cálculo, al punto de que el
problema de la verdad de las teorías pasó a ser un problema secundario”[14]
Según Popper, ¿qué intencionalidad tiene la ciencia?, (Popper, 1982b, p. 238)
“no partimos de observaciones, sino siempre de problemas... el aumento del
conocimiento va de viejos a nuevos problemas mediante conjuras y
refutaciones”, cita a Darwin y manifiesta “es extraño que hay quien no vea que
toda observación tiene que estar a favor o en contra de algún punto de vista”; lo
que muestra que la observación no es independiente o neutral, por el contrario
está sujeta a unos condicionantes. En las ciencias económicas las
observaciones están determinadas por unas orientaciones teóricas que nos
permiten describir una realidad económico-social; se ha formulado que “todas
las observaciones son teóricas”. –Hanson, desarrolla un concepto al respecto-.
La objetividad va reduciendo su pretensión de neutralidad universal y va
quedando reducida a una cuestión de grado y es posible de convencionalismo
Intersubjetivo entre los miembros de una comunidad científica. Así mismo se
debe entender la observación, Popper se orienta por una observación que está
determinada y supeditada primero a la formulación previa de la hipótesis o
problema y estará supeditada a condicionantes de endógenos y exógenos en la
captura del dato observado.
Se refleja este caso en una situación propia de las ciencias sociales, como es
el análisis de la situación económica de un país; un humanista estudia –el
término observar es más complejo- el nivel de desarrollo de un país X en
Latinoamérica, en los datos de la observación o estudio, estará viendo las
consecuencias nefastas de implementación de un modelo enajenante,
generador de miseria y pobreza.
La misma situación es estudiada por un analista neoliberal, éste encontrará en
los datos observados el cumplimento de las leyes del mercado libre y las
bondades de la competencia, reflejando en los datos la eficacia, la eficiencia y
la derrota de los no competitivos; en una orientación del pensamiento de
Darwin a la ciencia social, en defensa de la supervivencia de los individuos más
aptos para sobrevivir a la competencia del mercado.
La disertación cobra fuerza además desde la sociología del conocimiento
científico, frente a las alternativas múltiples de estudiar el quehacer científico y
su estrecha relación con mecanismos de poder. Así se puede formular que las
teorías universalistas no son las más adecuadas para pensar los hechos
sociales y que estos requieren una orientación cada día más singular; en
contraposición con la característica tan aceptada de la universalidad de la
ciencia; pues cada hecho requiere un análisis individual y único.
4.3 Refutaciones empíricas y revoluciones científicas
Revolución, irracionalidad y fin de la historia: habría que agregar contra-natura
social y tendríamos completa la cuarteta sintetizando los conceptos centrales
de la defensa del fin de la historia por parte de los maestros mayores del
neoliberalismo: Friedrich Hayek, en el plano teórico-económico, y Karl Popper,
su mentor epistemológico. Ambos afirmaron reiteradamente que "el capitalismo
es insuperable", es decir, que es imposible que haya algo mejor después del
capitalismo. La gran pregunta es ¿por qué? Ambos propusieron respuestas
largamente fundadas en sus posturas acerca de la sociedad, el mercado, la
racionalidad, así como el ser humano, la historia, y el bien.
Nuestro propósito es desenmascarar rápidamente dichos argumentos para
exhibir el carácter falaz de los mismos, y, por lo tanto, la inaceptabilidad de la
tesis del fin de la historia. De camino, mostraremos la coherencia interna de
dichas posturas, lo que torna a sus conclusiones aún más peligrosamente
convincentes.
1. La irracionalidad de las revoluciones totales según Hayek-Popper
Popper propone que no hay mejor acepción del término "racionalidad" que
criticismo. Ello se debe a que, en tanto el fin de la ciencia es acercarse a la
verdad, no hay mejor medio-instrumento para ello que el método crítico.
Sabemos, además, que en todos aquellos en los cuales, como Popper,
racionalidad es básicamente racionalidad instrumental, proceder racionalmente
es hacerlo tratando de utilizar los medios más eficientes para alcanzar la meta,
fin u objetivo. Si tal objetivo es acercarse a la verdad, es decir, progresar hacia
ella, Popper estatuye que el mejor instrumento para ello es el método científico
que, en su versión del mismo, es el método crítico de conjeturar hipótesis para
resolver problemas y aceptar sólo aquella que resiste a nuestros intentos de
refutarla.
Luego, método científico = método de conjeturas y refutaciones = método
crítico, porque, según él, ¿qué otra cosa es la crítica, sino tratar de refutar lo
que se conjetura y adoptar lo que resiste a tal intento?
De ahí que la ciencia es, para Popper, racional por el modo en que progresa
(es decir, por aplicación sucesiva en el tiempo del método de conjeturas y
refutaciones). Es imprescindible recordar que, al decir de Popper, tal método es
totalmente elucidable mediante el uso exclusivo de la lógica formal deductiva.
Dicho método es el adecuado para establecer la aceptación o rechazo de
hipótesis y teorías de acuerdo a la evidencia empírica disponible y, para ello,
basta decidir si la hipótesis o teoría ha quedado refutada por dicha evidencia; y
la lógica deductiva, más específicamente, la regla de tal lógica conocida como
modus tollendo tollens es, según Popper, suficiente para cumplir tal función. De
ahí que: Racionalidad instrumental = método critico = progresividad =
logicalidad.
Tan larga "ecuación" sintetiza una postura ya clásica en el empirismo: la
ciencia es racional porque dispone de un método que la distingue, el cual
garantiza, de ser aplicado, el progreso hacia la verdad, para lo cual basta usar
acertadamente los recursos de la lógica formal. Todo contexto histórico social
queda fuera, toda referencia a valores de algún tipo también, toda influencia de
intereses más allá del sano y terapéutico interés por la verdad queda
proscripto. No en vano, Popper nos dice que tal desarrollo hacia la verdad de
las teorías científicas se da en un tercer mundo objetivo (distinto del primer
mundo de los hechos del mundo empírico y de un segundo mundo de nuestros
contenidos cognitivos), en donde los contenidos de las hipótesis y teorías están
lógicamente relacionados deductivamente. Ese tercer mundo es a-histórico, acontextual, a-social, a-cultural. Es un aséptico mundo de meros contenidos
objetivos y sus relaciones lógicas atemporales.
Todo ello es coherente con la reducción popperiana de la epistemología a la
mera lógica de la investigación, la cual, como vimos, reduce la racionalidad
operante en la ciencia a mera racionalidad instrumental elucidable por la lógica
formal deductiva. Una consecuencia inmediata es más que desafortunada: es
imposible discutir la racionalidad de los objetivos o fines. Si la racionalidad es
lógico-deductiva, tal lógica no puede discutir valores (pues los enunciados
valorativos no tienen la forma de sentencias declarativas, las únicas que la
lógica formal deductiva abarca), los cuales sin embargo están siempre
presentes toda vez que se trata de optar por objetivos o fines. Este es un límite
desafortunado del criticismo popperiano, pues no permite que la crítica alcance
a los fines u objetivos de la actividad científica. De ahí que Popper haya
repetido, y Hayek explícitamente asentido, que la adopción de los fines es pre-
racional. Esto ya no es sólo una limitación, sino una tragedia, porque lo más
importante a discutir en cualquier actividad, de lo cual depende todo lo demás,
son los fines u objetivos de la misma.
Por si ello fuera poco, Popper agrega que, como no es posible discutir
racionalmente los fines, ellos quedan establecidos por la tradición. Nunca, por
lo tanto, dispondremos de recursos racionales para justificar la necesidad de
cambiar la tradición. Más claramente: la tradición queda fuera de la posibilidad
de cambio racionalmente fundado. Si trasladamos todo ello al ámbito de las
ciencias sociales, proceder racionalmente en las mismas sería hacerlo
mediante la utilización consecuente del método propio de las ciencias sociales,
compuesto, según Popper, por la trilogía de lógica situacional, tecnología social
fragmentaria e ingeniería social.
No es nuestro propósito referirnos a todos los momentos de dicho método. Nos
basta con recordar que la tecnología social fragmentaria exige proceder
fragmentaria y gradualmente. En su falaz crítica al tipo de holismo
metodológico que supuestamente defendieron Marx y Adorno, Popper enfatiza
que el método de las ciencias sociales aborda problemas puntuales que se dan
siempre en un ámbito institucional determinado, para los cuales se dan siempre
soluciones específicas. De tal modo, por sucesivas graduales soluciones
específicas se han de ir resolviendo otros problemas puntuales, y así
sucesivamente. Pero nunca se ha de abordar a la sociedad como un todo
problemático, y nunca se ha de proponer como solución un cambio global de
dicha sociedad. Las soluciones vía revolución quedan descartadas.
Ahora podemos percibir que hacerlo sería atentar contra el gradualismo
metodológico, y ello, debido a que racionalidad se identifica con utilización del
método científico, implicaría proceder ir-racionalmente. Popper está aquí
hablando de la sociedad capitalista tal como la describe y explica Hayek, la
cual es para él, en este contexto, la tradición. Luego, todo intento de cambiar
radicalmente la sociedad capitalista de tal tipo, es atentar contra la racionalidad
científica.
No creemos que haya en el siglo XX mayor intento de legitimación de la
sociedad dominante capitalista, en tanto abandonarla seria abandonar la
racionalidad científica. Todos sabemos el rol persuasivo que tiene ello, por el
lugar casi-mítico que ocupa el conocimiento científico en la sociedad
contemporánea. No hay problema si se pretende cambiar o modificar
gradualmente dicha sociedad. Pero intentar cambiarla radical y globalmente,
como por ejemplo, intentar introducir un sistema económico alternativo,
significaría cometer el acto supremo de irracionalidad. Se ha consumado el fin
de la historia en aras de la pervivencia de la racionalidad científica. Nada deba
cambiar económico-estructuralmente, porque hacerlo sería abandonar la
manifestación suprema de la racionalidad humana; dicho de otro modo, sería
abandonar nuestra humanidad. En las palabras de Hayek, devendríamos como
Lucifer.
No hay duda: para los padres del neoliberalismo, el capitalismo es insuperable,
so pena de devenir irracionales, es decir, no fieles a uno de los ingredientes
definitorios de nuestra humanidad.
2. ¿Son también irracionales las revoluciones científicas?
Por supuesto que no lo son para un empirista como Popper, que considera la
racionalidad científica como la expresión máxima de la razón humana. Hay por
lo tanto, según Popper, cierto tipo de revoluciones, las científicas, que son
racionales. Cabe preguntarse ¿por qué? Y plantearse si esto no entra en
contradicción con nuestra propuesta primera, que creemos fiel a Popper, de
que las revoluciones sociales radicales, a las que Popper llama "revoluciones
totales", son irracionales. Veremos ahora que no hay tal contradicción sino, por
el contrario, una fuerte consistencia entre la racionalidad de las revoluciones
científicas que Popper defiende, y su versión del carácter irracional de las
revoluciones totales.
Es conveniente recordar que para Popper una teoría científica constituye un
progreso respecto de su predecesora si entra en conflicto con ella; esto
significa que lógicamente debe contradecir a su predecesora, debe desplazarla.
En tal sentido, "el progreso en ciencia es siempre revolucionario". Además, en
el progreso científico, la nueva teoría, aunque revolucionaria, "debe siempre
explicar el éxito de su predecesora". Por lo tanto, se dispone de un criterio para
juzgar a una teoría respecto de su antecesora, y, por ende, de un criterio de
progreso y "esto significa que el progreso en ciencia puede ser establecidoevaluado racionalmente". Pero como "el progreso científico es revolucionario",
Popper concluye que "las revoluciones científicas son racionales, en el sentido
de que, en principio es decidible racionalmente si una teoría es o no mejor que
su predecesora".
Todo ello es coherente con nuestra sinopsis de la teoría general popperiana de
la racionalidad, según la cual la ciencia es racional por el modo en que
progresa. Lo que la hace racional es que se dispone de un criterio que, en
última instancia, resulta de la aplicación del método científico de conjeturas y
refutaciones, y que en el caso de las revoluciones científicas permite establecer
si la anterior teoría queda refutada y si la nueva contradice a su predecesora.
Además, no entra en conflicto con el postulado de la irracionalidad de las
revoluciones totales, pues mientras estas violan el método científico gradualista
propio de las ciencias sociales, las revoluciones científicas no lo hacen, en
tanto siempre que se produce un cambio científico, el mismo se lleva a cabo de
acuerdo a las pautas de proponer nuevas conjeturas que reemplazan a
aquellas ya refutadas. Vistas desde las perspectivas de las revoluciones
sociales totales, las revoluciones científicas son micro-revoluciones en las que
no se cambia todo, sino que se conserva como aproximación (mediante
correcciones) la vieja teoría en la nueva. Es por eso que Popper hable de
"revolución en permanencia" al referirse al desarrollo progresivo de la ciencia.
Por otra parte, Popper distingue a las revoluciones científicas de las
revoluciones ideológicas y aclara que usa "el término ideología para cualquier
teoría no-científica o credo, o visión del mundo que luzca atractiva, y que
interese a la gente incluyendo a los científicos". Hay, según Popper,
revoluciones científicas que dieron lugar a revoluciones ideológicas
(copernicanismo y darwinismo, así como la revolución einsteniana). Pero para
las revoluciones ideológicas no tenemos un criterio lógico de progreso, como
en la ciencia, y por lo tanto, de racionalidad. En verdad, admite Popper "no
parecemos tener algo como un criterio de progreso o de racionalidad fuera de
la ciencia". Esta es, sin duda, una flagrante y explícita afirmación de
cientificismo.
Hubo, sin duda, revoluciones científicas no acompañadas por revoluciones
ideológicas como, por ejemplo, la revolución de Faraday y Maxwell, así como la
de J.J. Thomson con el descubrimiento del electrón, etcétera. Popper, incluso
"no ve una revolución ideológica como resultado del gran cambio producido por
Crick y Watson". Popper concluye que toda "revolución ideológica puede servir
a la racionalidad" pero, también, si está ligada a una revolución científica
"puede ser de un carácter elevadamente irracional, y puede concientemente
romper con la tradición". Así, la interpretación ortodoxa de la mecánica cuántica
"no es parte de la física, sino una ideología que es un serio obstáculo al
progreso de la ciencia". Esta extremísima tesis no sería aceptada hoy por la
mayoría de los físicos y por gran parte de los filósofos de la ciencia.
Se sostiene que una revolución científica "no puede romper con la tradición, en
tanto debe preservar el éxito de las predecesoras" y "este es el porqué de que
las revoluciones científicas son racionales". Podemos acotar que ello es,
también, la razón de que toda revolución social (total) es irracional porque, en
tanto global, involucra una ruptura radical con la tradición.
En resumen, y de acuerdo al criterio popperiano de racionalidad, las
revoluciones científicas son siempre racionales, las revoluciones sociales
totales siempre irracionales, mientras que las revoluciones ideológicas pueden
ser una u otra cosa, dependiendo de su funcionalidad al progreso científico. Lo
que sucede es que "una ideología que ha aprendido del enfoque crítico de las
ciencias es susceptible de ser más racional que una que choque con la
ciencia". Otra vez, cientificismo rampante.
Es obvio que en todo este análisis predomina la teoría popperiana de la
racionalidad científica instrumental cuyo objetivo es maximizar la consecución
del máximo objetivo de la ciencia, acercarnos progresivamente a la verdad
(acerca del mundo empírico en las ciencias naturales, y del mundo de las
instituciones en la sociedad capitalista democrática, en el caso de las ciencias
sociales). Como consecuencia, en todos los casos, la ruptura radical con la
tradición establecida, tanto en ciencias naturales como sociales, constituye la
suprema irracionalidad. Más allá de la declaración popperiana de "revolución
en permanencia" en el caso del cambio científico, la propuesta de Popper es
una versión de racionalidad meramente instrumental fuertemente
conservadora, fiel, en el plano político-económico, a una visión general más
conservadora aún. Hay algo profundo que une sus versiones de revolución
científica y social: la racionalidad que se utiliza para evaluarlas involucra no
ruptura radical con la tradición, por lo que sólo la reforma gradual, con
preservación de lo anterior es racional, tanto en el plano empírico natural, como
social.
Las revoluciones sociales como actos contra-natura
Hayek también asume una versión fuerte de racionalidad que podemos dividir
en tres afirmaciones: (a) actuar racionalmente es hacerlo tratando de
maximizar el logro de nuestros objetivos, (b) los agentes económicos en el
mercado actúan racionalmente, por lo que (c) comportarse irracionalmente es
violar las pautas del mercado.
Por lo tanto, toda revolución estructural profunda es irracional, porque pretende
cambiar radicalmente la sociedad donde el mercado es el locus supremo de la
racionalidad. Sin embargo, según Hayek, lo propio del ser humano no es ser
racional, sino ser social. Somos seres que necesitamos del semejante para la
supervivencia. Devenimos racionales, en un largo proceso histórico de
selección a través del cual arribamos a la actual sociedad de mercado. Tal
racionalidad es, pues, el resultado de un desarrollo que desemboca en un
sistema de la división del trabajo que requiere, para su mejor funcionamiento,
de una actividad guiada por el intento de maximizar la consecución de sus
objetivos. En ningún ámbito se logra ello mejor que en el mercado. Por eso
decíamos que, para Hayek, el mercado deviene el locus de la racionalidad
instrumental.
Tal orden del mercado no es relativo a ningún orden superior a él. Es el último
sistema de referencia: es, en verdad el sistema de referencia. Es pues, el
Orden Absoluto, con su moralidad específica, que es también "última" así como
lo es su racionalidad específica. O sea, no hay una teoría de la racionalidad
que vaya más allá que la teoría del mercado. Si alguien hoy aún busca
fundamentalismos absolutistas, aquí tiene un macro-ejemplo de ello.
Por lo tanto, por una parte, la racionalidad de cada individuo es estimada en
términos de su adecuación a la racionalidad del mercado. El acto supremo de
irracionalidad es discutir tal racionalidad del mercado o pretender cambiar las
reglas de juego del mismo (por ejemplo, interferir al menos con él tal como,
supuestamente, recomienda el keynesianismo). Por otra parte, hay que
recordar que a tal Orden del Mercado se llega como resultado de un largo
proceso de selección, donde tal orden queda legitimado por haber sobrevivido
a los cambios que se fueron dando en la organización social humana.
Hay en Hayek, pues, una defensa de la sociedad capitalista de mercado que no
sólo apela a una versión de la racionalidad instrumental (cambiarla sería acto
supremo de irracionalidad) sino también a una legitimación de la misma por
una argumentación de corte naturalista-spenceriana. Por ambas razones, la
sociedad capitalista de mercado constituye el fin de la historia.
Tal argumentación adolece, por un lado, de todas las falencias ya señaladas de
una teoría de la racionalidad meramente instrumental, con sus serias
limitaciones. Por el otro lado, es curioso como al evolucionismo al que se apela
se lo detiene y viola cuando conviene. En una auténtica postura evolucionista,
no hay instancia alguna que pueda reclamar el derecho de ser la última. Un
argumento evolucionista justifica a lo sumo a dónde se ha llegado, pero no
basta para postularlo como final. Es en ese sentido insuficiente, y explica que,
en el caso de Hayek, esté complementado por el argumento basado en la
racionalidad suprema del mercado.
Hay además, en la propuesta de Hayek, una apelación a cierta forma de la
falacia naturalista. La sociedad de mercado, tal como existe hoy, es el
resultado de un largo proceso de selección. Ello explica solamente una
cuestión de hecho: la forma estructural adoptada por la sociedad hoy. Pero ello
no basta para justificar que tal racionalidad y moralidad debe ser aceptada
(cuestión de derecho). Justamente, al postular una cuestión de hecho como
una cuestión de derecho, se naturaliza a esta última, se la concibe como una
cuestión de hecho natural más, cuando en verdad no lo es (falacia naturalista).
Además, en la argumentación evolucionista de Hayek, el éxito logrado
evolutivamente hace que tanto el mercado como su moralidad sean
presentados como inevitables. Esto es también una profunda violación de un
auténtico evolucionismo, en donde en lugar de necesidad e inevitabilidad,
domina la contingencia.
Hay más aún: el desarrollo "natural" de las sociedades nos ha traído, según
Hayek, el orden de la libertad, manifestada máximamente en el mercado sin
interferencias, el cual nos ha permitido mayor progreso económico y ascenso
social. Estamos, supuestamente, en una situación que nos permite ser mejores
que en cualquier otro orden alternativo. En consecuencia, si queremos cambiar
el orden de la sociedad de libre mercado, nos alejamos no sólo del locus de la
racionalidad sino también de la libertad, un orden, repetimos, logrado a través
de un largo y arduo proceso de selección. Esto enfatiza que sería contra-natura
buscar o proponer algún orden alternativo.
La sociedad capitalista de mercado es pues final, y como tal, al decir de Hayek,
es la que nos permite el mayor acceso al bien, porque el orden de la libertad
es, según él, intrínsecamente bueno. Sólo resta expandir tal orden. No extraña
pues que nos anticipe que la historia, en el futuro, va a consistir en acercarse
más y más a dicho bien. En otras palabras, la historia en el futuro consistirá en
la gradual e inevitable expansión del capitalismo de mercado. En todo ello, hay
más que el fin de la historia. La historia, así concebida por Hayek, anuncia el fin
de todas las utopías, pues no hay, so pena de irracionalismo y anti-naturalismo,
lugar alguno para algo distinto. Todo orden alternativo está fuera del único
lugar realmente posible (u-topos). No en vano, al recibir el Premio Nóbel,
Hayek afirmó que alterar tal orden del mercado bajo la promesa de traer el cielo
a la Tierra, no sería nada más que el advenimiento del Infierno (ver Nota II). No
debemos olvidar que, para Hayek, ese Infierno no era siquiera la sociedad
comunista de Marx o alguna otra forma de socialismo, sino básicamente un
mundo económico-político a la Keynes, en el cual se pretendiera, como parte
de la responsabilidad social, el logro de la justicia social.
Nadie como Hayek realizó una crítica tan feroz a la pretensión de justicia social,
concepto que para él carece de sentido, lo que acaece porque el mismo queda
fuera del marco conceptual que considera pertinente para abordar los hechos
económicos. Por razones de brevedad, nos limitaremos a considerar tres líneas
argumentativas acerca del porqué de tan extrema afirmación.
La primera se basa en la siempre repetida afirmación de la imposibilidad del
conocimiento total. Como no podemos disponer de toda la información
pertinente para una redistribución justa, no podemos hacerlo sin cometer
errores que generan nuevas desigualdades. Esta argumentación es debilísima
porque apela a la falacia del falso dilema de todo o nada. Como no podemos
ser totalmente precisos, estamos condenados a no poder hacer efectivamente
nada. Además, no es necesario conocer totalmente todas las variables, sino
aquellas que son pertinentes, relevantes y adecuadas.
La segunda línea de argumentación se basa en que la sociedad libre es el
resultado de un proceso evolucionista y, por ende, los resultados de un proceso
tal no son justos ni injustos. Pero es, justamente, tal carácter evolucionista del
desarrollo que desemboca en la sociedad de mercado el que hay que poner en
tela de juicio. Y Darwin estaría al frente de la larga fila de los que están en
desacuerdo, pues para él la estructura del proceso del desarrollo de las
especies no es trasladable al desarrollo de las sociedades humanas.
La tercera aproximación argumentativa hayekiana es en términos de la tensión
entre libertad y justicia social. Para distribuir justamente, hay que coercionar a
algunos para que otros tengan mayores beneficios, y tal coerción amenaza
irremediablemente la libertad de los individuos. Cabe preguntarse ¿por qué
necesariamente coerciona? ¿Y de qué libertad estamos hablando?
Obviamente, de la libertad negativa entendida como no interferencia, pero ello
debe sopesarse con el derecho a la libertad positiva que tenemos todos, algo
negado por la injusticia social Además, sería coerción para aquel cuya eticidad
está constituida exclusivamente por un egoísmo insaciable, aquel que Hayek
considera como parte de nuestra humanidad.
Es, por lo tanto, la estrechísima visión ontológica y ética del ser humano propia
de Hayek, la que subyace como premisa oculta a su argumento. Y es esa
concepción del ser humano la que resulta inaceptable, vaciando al argumento
de toda validez.
El carácter de juego que el mercado tiene para Hayek, enfatiza su enfoque
argumentativo. Si el mercado es un juego, hay siempre ganadores y
perdedores, de ahí la inevitable presencia de desigualdades como resultado de
la operatividad del mercado. Pero no hay nada injusto en ello, pues carece de
sentido responsabilizar al juego. Ergo: nadie es últimamente responsable por la
pobreza y las desigualdades. Cabe preguntarse, en este caso, si todos los que
viven en una sociedad de mercado, participan libre y voluntariamente en él, a lo
que cabe agregar, inquisitivamente, si todas las sociedades contemporáneas
que abrazaron una economía de mercado lo hicieron libre y democráticamente.
La obvia respuesta negativa a ambas preguntas erosiona el carácter
convincente de tal argumento hayekiano.
Por lo tanto, ninguna de las razones exhibidas por Popper y Hayek en aras de
un supuesto fin de la historia es aceptable. Esa ha sido la principal conclusión
de nuestro trabajo. Pero, además, por razones de todo tipo: económicas, como
la creciente polarización de las desigualdades; culturales, como la pérdida de
identidades locales, regionales y nacionales; políticas, como la erosión de las
soberanías nacionales; y fundamentalmente éticas, pues nadie en última
instancia es responsable de ayudar a los excluidos que, obviamente, son
creciente mayoría, el Infierno (no el de Hayek, sino ese que ya llegó) no puede
ni debe ser sacralizado como el fin de la historia. La tradición, la bendecida por
Popper y Hayek, es la que debe ser cambiada para que las sociedades
humanas puedan ser eso: plenamente humanas.
4.4 Pluralidad de teorías y la consolidación de revoluciones
científicas a través de refutaciones
Los aires de la posmodernidad han menoscabado la fe en la ciencia a través de
la caída del proyecto de la ilustración (el progreso de la humanidad gracias al
desarrollo de las ciencias y las técnicas) (Hottois, 1999: 481), aunque no es
éste el único metarrelato que ha perdido un cierto poder de imantación en la
contemporaneidad. Junto a la pérdida de credibilidad del progreso científico —
tal y como recuerdan los miembros de la Escuela de Frankfurt, éste ha
provocado el auge de la razón instrumental y con ella la barbarie de los campos
de concentración nazi, por citar un ejemplo—, habría que destacar el hecho de
que la sociedad de la información se "organiza en torno al conocimiento para
lograr el control social y la dirección de la innovación y el cambio" (Bell, 1976:
34).1 De hecho, se concibe a esta sociedad informacional como aquel estadio
de desarrollo no solamente en el que se aumenta el acceso a la información
hasta cotas históricas, sino en su sentido más amplio: como aquella "forma
específica de organización social en la que la generación, el procesamiento y la
transmisión de información se convierten en las fuentes fundamentales de
productividad y poder debido a las nuevas condiciones tecnológicas que surgen
en este período histórico" (Castells, 2000: 51).
Si bien la información y el conocimiento son dos de las fuentes de poder del
sistema, en el caso concreto del saber científico, éste se presenta como una
vía válida para acceder al mundo, un mundo caracterizado por la complejidad
(Luhman, 1996), por el dominio de las industrias culturales y por el constante
cambio que imprime el modelo de desarrollo sociotécnico capitalista (Castells,
2001) que rige la lógica mundial.2 Ahora bien, la ciencia no es el único camino
para acceder al conocimiento del hombre y de la sociedad,3 aunque, al
convertirse la construcción de dicho conocimiento en una tarea compleja
debido a la propia lógica social contemporánea, el papel desempeñado por las
ciencias sociales tiene, si cabe, un mayor valor que en épocas anteriores.
Ahora la cuestión está en esbozar una aproximación epistemológica al
concepto de ciencia, una vez que se ha reconocido que sobre ésta no hay un
acuerdo general (Alonso, 2004: 32), falta de consenso que es más pronunciada
en las ramas científicas sociales que en las naturales (Woolgar, 1991: 13).
Por todo ello, es el principal objetivo de este artículo esbozar los rasgos del
conocimiento científico a partir de las aportaciones de algunos filósofos de la
ciencia (principalmente: Karl R. Popper, Thomas Kuhn, Imre Lakatos y Paul
Feyerabend) y poner en evidencia que es posible inferir una conceptualización
de la ciencia, a pesar de la aparente contradicción de algunos de sus
supuestos. A partir de esta base común, pensada principalmente para las
ciencias sociales, cada disciplina deberá trazar sus propias particularidades
epistemológicas. Es éste el caso de la comunicación (de las ciencias de la
comunicación), en que las reflexiones de carácter epistémico continúan siendo
no solamente un área de interés, sino también una prioridad para definir la
identidad de la investigación en comunicación.
LA CONSTRUCCIÓN DEL CONOCIMIENTO DESDE UNA PERSPECTIVA
HISTÓRICA: POOPER, KUHN, LAKATOS Y EL ANARQUISMO
METODOLÓGICO DE FEYERABEND
En general, "la ciencia es valiosa como herramienta para domar la naturaleza y
remodelar la sociedad; es valiosa en sí misma, como clave para la inteligencia
del mundo y del yo; y es eficaz en el enriquecimiento, la disciplina y la
liberación de nuestra mente" (Bunge, 1981: 36).
Para presentar las diferentes aproximaciones a la ciencia que han propuesto
los filósofos en el siglo XX, me centraré principalmente en las concepciones de
Popper, Lakatos, Kuhn y Feyerabend del progreso científico, dado que todos
ellos han intentado explicar cómo es el proceso de construcción del
conocimiento. A lo largo del artículo, se señalarán los supuestos principales de
las propuestas de estos autores, se apuntarán las carencias y críticas de cada
una de dichas posturas y, finalmente, se superará la apriorística incongruencia
de algunos de estos supuestos.
Como veremos, el trasfondo que encierra esta "histórica discusión" es si existe
un método universal y ahistórico en la ciencia, que contenga las normas que
todas las disciplinas deben respetar si desean merecer el título de ciencia. Es
decir, si desde una perspectiva general, podemos esbozar los rasgos
característicos del conocimiento científico, en todas sus dimensiones
(disciplinas) a lo largo de la historia.
Ante todo, podría decirse que el empirismo popperiano ha "llegado a ser la
visión estándar de la ciencia" (Iranzo y Blanco, 1999: 64), dado que, según
Popper, toda teoría debe poder ser falsable y, en el momento en que no supere
las pruebas de confutación empírica, la teoría será sustituida por otra. Pero,
como se defenderá a lo largo del presente artículo, un enunciado, para que
adquiera el rango de científico, es suficiente con que sea racional y tenga un
principio que le confiera coherencia interna. Es ésta una concepción de ciencia
lata, vaga, que apunta el hecho de que el conocimiento científico ha de estar
metodológica y sistemáticamente contrastado.
Para Popper, el científico, independientemente de que sea teórico o
experimental, propone enunciados, hipótesis o sistemas de teorías y los
contrasta paso a paso por medio de observaciones y experimentos (Popper,
1999: 27). En esta idea se recogen algunos de los principales supuestos que
defiende Popper en la investigación científica, como el reconocimiento del
método deductivo para la ejecución de la obra teórica y la experiencia como
método de corroboración.
Por todo ello, Popper cree en el avance progresivo de la ciencia y propone,
como criterio de demarcación, que propicie la mejora gradual y creciente de la
investigación, el falsacionismo : "No exigiré que un sistema científico pueda ser
seleccionado, de una vez para siempre, en un sentido positivo; pero sí que sea
susceptible de selección en un sentido negativo por medio de contrastes o
pruebas empíricas: ha de ser posible refutar por la experiencia un sistema
científico empírico" (Popper, 1999: 40).
Popper habla de la necesaria comprobación empírica a la que han de ser
sometidos los enunciados para determinar la falsedad de una teoría, de ahí que
el autor (Popper, 1999: 38) crea en la experiencia como base de toda teoría,
pues concibe a la ciencia empírica como la representación del mundo real o
mundo de nuestra experiencia, porque ha de ser posible refutar con la
experiencia, un sistema científico empírico. El autor distingue los tres requisitos
que debe satisfacer dicho sistema: el primero es que ha de ser sintético, es
decir, ha de representar un mundo posible; el segundo es que debe satisfacer
el criterio de demarcación; esto es, la teoría, hipótesis o sistemas de teorías no
serán metafísicas, sino que representarán un mundo de experiencia posible.
Por último, es menester que sea un sistema que se distinga (de alguna
manera) de otros sistemas semejantes por ser el que represente nuestro
mundo de experiencia. Mas, "¿cómo ha de distinguirse el sistema que
represente nuestro mundo de experiencia? He aquí la respuesta: por el hecho
de que se le ha sometido a contraste y ha resistido las contrastaciones"
(Popper, 1999: 39).
La idea fundamental de esta propuesta es que la experiencia no puede
demostrar la verdad, pero sí la falsedad, es decir, las teorías o hipótesis deben
ser siempre tenidas en cuenta como certezas, que cada vez irán acercándose
más a la verdad a través de las críticas y la detección de errores: una teoría
puede ser definitivamente rechazada, pero nunca definitivamente aceptada. El
falsacionismo permite al investigador discernir entre unos enunciados y otros,
no porque los que sobrevivan sean verdaderos, sino porque mediante el
empirismo se ha demostrado que los desestimados son errados. "Los
enunciados científicos empíricos han de ser decidibles de modo concluyente,
es decir, que en un principio, tanto su verificación como su falsación han de ser
posibles" (Popper, 1999: 42).
Este supuesto no reúne el consenso de los filósofos de la ciencia, dado que no
siempre una teoría puede ser corroborada por la experiencia. Lakatos (1998)
se muestra contrario a que una proposición pueda ser confirmada o refutada
por los hechos, puesto que en función de las reglas de la lógica, este hecho
supondría mezclar lenguajes distintos. Según el autor, las proposiciones sólo
pueden ser derivadas a partir de otras proposiciones, no a partir de los hechos:
no se pueden probar enunciados mediante experiencias.
También Feyerabend (1986 y 2000) señala que las teorías científicas generales
no son comprobables por la experiencia; son construcciones teóricas tan
extremadamente elaboradas y complejas que están alejadas del plano de los
hechos. La elección de unas teorías generales llega a ser para Feyerabend una
cuestión de gusto, pues no hay un criterio objetivo de elección (más bien se
trataría de factores diversos: económicos, políticos, prácticos y estéticos),
debido a que se mueven en un plano muy abstracto.
Además, cuando la experimentación o la observación proporcionan evidencias
que entran en conflicto con las predicciones de cierta ley o teoría, puede ser
que la evidencia sea errónea y no la ley o la teoría. Esto es, cuando los
resultados de una hipótesis refutan la ley, el falsacionismo no prevé las
herramientas necesarias para que el científico discierna la ubicación del error
(si en la hipótesis o en la propia teoría): "No hay nada en la lógica de la
situación que exija siempre desechar la ley o la teoría en caso de una colisión
con la observación o el experimento" (Chalmers, 2003: 82).
Sobre este aspecto, se ha defendido que el método deductivo no termina de
corresponderse con la práctica científica, puesto que a menudo la investigación
no parte de una teoría, como sostiene Popper, sino que se certifica la realidad
de un fenómeno antes de que haya una propuesta teórica que sirva de
predicción (Hacking, 1983). Esto ha sido así en algunos de los descubrimientos
más relevantes de los últimos tiempos, como exponen Iranzo y Blanco (1999:
61): "En observaciones como el descubrimiento de los rayos X se certificó la
realidad de un fenómeno antes de que hubiera una teoría que lo explicase (...)
El caso es que no existe teoría científica alguna que guiase la construcción y
consolidación del objeto de estudio".
Popper parece creer en una ciencia sujeta a confutación por parte de hipótesis
más consistentes; se trata de una ciencia conformada por un conjunto de
teorías y modelos que en un momento determinado se han mostrado más
válidos que sus coetáneos y han superado con mayor éxito el rigor de las
comprobaciones empíricas. Es, pues, una ciencia en perpetuo cambio, en un
continuo avance, dado que "la ciencia progresa hacia la verdad mediante la
elaboración de teorías cada vez más verosímiles, mediante las adquisición de
verdades putativas y la destrucción definitiva de falsedades" (Iranzo y Blanco,
1999: 60).
Ahora bien, se ha apuntado que el falsacionismo ha fallado a la hora de
aprehender la complejidad del desarrollo de las teorías importantes.
Por ello, Kuhn (1989 y 2001), Lakatos (1998) y Feyerabend (1986 y 2000)
realizan otras propuestas mediante las que intentan explicar cómo ha avanzado
la ciencia desde una perspectiva histórica. Según Chalmers (2003: 98), lo que
tienen en común estas perspectivas —en mayor medida Kuhn y Lakatos,
puesto que como veremos Feyerabend niega la existencia del método científico
y aboga por el anarquismo metodológico— es que la "concepción más
adecuada de la ciencia debe originarse en la comprensión del entramado
teórico en el que tiene lugar la actividad científica (...) El significado de los
conceptos depende de la estructura de la teoría en la que aparecen, y la
precisión de aquéllos depende de la precisión y el grado de coherencia de
ésta" (Chalmers, 2003: 98 y 99).
A continuación, se expondrán las ideas principales de Kuhn, Lakatos y
Feyerabend, para inferir, a partir de estas premisas, los rasgos generales del
conocimiento científico.
Por su parte, Kuhn (1989 y 2001) sostiene que toda actividad científica se
desarrolla bajo un paradigma, entendido éste como "el conjunto de
ilustraciones recurrentes y casi normales de diversas teorías en sus
aplicaciones conceptuales, instrumentales y de observación. Ésos son los
paradigmas de la comunidad revelados en sus libros de texto, sus conferencias
y sus ejercicios de laboratorio" (Kuhn, 2001: 80). El paradigma debe ser lo
suficientemente inconcluso como para que en él se alberguen los distintos
desarrollos teóricos de un periodo histórico determinado. El autor rechaza el
falsacionismo porque considera que todos los paradigmas tendrán anomalías
(entendidas como el conjunto de problemas que se resisten a ser
solucionados), pero éstas se consideran como fracasos concretos y
particulares del científico, más que insuficiencias del propio paradigma. En el
momento en que está consolidado un determinado paradigma, dentro de él se
desarrollarán lo que Kuhn denomina periodos de ciencia normal, en que el
avance se produce de manera progresiva, añadiendo las nuevas
generalizaciones a las que ya están consolidadas (Kuhn, 1989: 86). Pero llega
un momento en que comienzan a aparecer numerosas dificultades que no
pueden ser resueltas dentro del paradigma y, por lo tanto, quedan fuera del
alcance del científico (Chalmers, 2003: 102). En este momento, se entra en un
periodo de crisis, que finalizará cuando emerja un paradigma completamente
nuevo, que gane la adhesión de la gran mayoría de la comunidad científica.
Cuando un paradigma sustituye a otro, se produce un cambio revolucionario,
más problemático que el normal, pues altera el modo en que se piensa, ya que
debe albergar a esos nuevos descubrimientos que no han podido ser
articulados en los conceptos que eran habituales en el paradigma en crisis.
Con este cambio de referentes tan radical, el desarrollo científico no puede ser
completamente acumulativo (como en el caso de la ciencia normal), pues "no
se puede pasar de lo viejo a lo nuevo mediante una simple adición a lo que ya
era conocido. Ni tampoco se puede describir completamente lo nuevo en el
vocabulario de lo viejo o viceversa" (Kuhn, 1989: 59 y 60).
El progreso, por tanto, se produce a través de estas revoluciones —más que de
una forma estrictamente acumulativa, como una línea ininterrumpida de
progreso (Escohotado, 1987: 461)— en las que un paradigma completamente
diferente sustituye a otro, planteando nuevas problemáticas que deben ser
resueltas por la ciencia, nuevos métodos y nuevas concepciones del mundo.
Para Chalmers (2003: 112 y 113), estos supuestos apuntan correctamente que
el trabajo científico implica resolver problemas dentro de un sistema que no se
cuestiona lo fundamental; no se trata, por tanto, del continuo planteamiento de
refutaciones y conjeturas del que hablaba Popper, ya que esta actitud puede
llevar a que no se produzca un avance explícito en la ciencia, debido a que no
se favorece la consolidación de un determinado corpus de conocimientos,
situación que no permite la profundización en la actividad investigadora: "Los
principios no permanecerán indiscutibles el tiempo suficiente para que se haga
el trabajo interpretativo" (Chalmers, 2003: 113).
Además, el planteamiento de las revoluciones científicas subraya la naturaleza
no acumulativa del avance de la ciencia, ya que el progreso a largo plazo no
sólo comprende la acumulación de hechos y leyes, sino que a veces implica el
abandono de un paradigma y su reemplazo por otro nuevo incompatible. La
principal diferencia de esta cuestión con la propuesta de Popper es que para
este último se trata simplemente del abandono de una teoría por otra, cuando
Kuhn habla del cambio en la visión del mundo, una transformación que es más
radical y profunda.
La perspectiva kuhniana presenta algunos inconvenientes. En primer lugar,
como el propio autor indica, el desarrollo científico en los periodos de ciencia
normal es tremendamente conservador, en el sentido de que suprime
frecuentemente innovaciones fundamentales, debido a que resultan
innecesariamente subversivas por sus compromisos básicos hacia el
paradigma dominante en ese periodo determinado (Kuhn, 2001). Aunque,
evidentemente, dichas innovaciones serán introducidas cuando se produzca la
revolución científica en la que emerge el paradigma que ha sustituido a su
predecesor, en principio la adscripción del científico a un solo paradigma puede
resultar un tanto empobrecedora.5 En segundo lugar, una de las críticas más
importantes esgrimidas a la comprensión de la ciencia que plantea Kuhn es
que el cambio de un paradigma a otro tiene algo de irracional, incluso de
relativista, ya que el autor no justificó por qué un paradigma es mejor que otro:
en última instancia, es la propia comunidad científica la que determina la mayor
idoneidad de una visión del mundo en detrimento de su contemporánea. A esta
deficiencia, Kuhn contestó que las teorías científicas posteriores son mejores
para resolver enigmas en los entornos, pero esto resulta contradictorio porque,
según él, lo que cuenta como enigma (es decir, problema) y su solución
depende del paradigma (Chalmers, 2003: 116). Así, a lo largo de la Estructura
de las revoluciones científicas, Kuhn (2001) asegura que algunos problemas de
un determinado paradigma, cuando éste es sustituido por otro, pueden ser
declarados como no científicos, o aquellas cuestiones que resultaron triviales
en un momento determinado o simplemente no existían, con el surgimiento del
nuevo paradigma, pueden volver a presentarse como los nuevos grandes retos
a conquistar por la comunidad científica. De ahí que al cambiar los problemas,
con frecuencia también lo hagan las normas que distinguen una solución
científica real de una simple especulación metafísica, por lo que el nuevo
periodo de ciencia normal no sólo es incompatible con el antiguo, sino, incluso,
incomparable.
Lakatos (1998: 13) intentó superar las debilidades del cambio de paradigma
kuhniano mediante sus programas de investigación científica,6 que cuentan
con un núcleo teórico–hipotético eficazmente protegido por un gran cinturón de
hipótesis auxiliares y con una maquinaria elaborada para solucionar problemas.
Así, el programa posee una serie de reglas metodológicas, que marcan qué
rutas de investigación deben ser evitadas (heurística negativa) y cuáles
seguidas (heurística positiva) (Lakatos, 1998: 66). El núcleo central estaría
conformado por un conjunto de hipótesis muy generales a partir de las cuales
se desarrolla el programa. Estos fundamentos necesitan ser ampliados con
suposiciones complementarias, con el fin de llenarlos de sustento y de proteger
al núcleo central de las falsaciones (Chalmers, 2003: 124).
La heurística negativa del programa impide que apliquemos el modus tollens a
este núcleo firme. Por el contrario, debemos utilizar nuestra inteligencia para
incorporar e incluso inventar hipótesis auxiliares que formen un cinturón
protector en torno a ese centro, y contra ellas debemos dirigir el modus tollens.
El cinturón protector de hipótesis auxiliares debe recibir los impactos de las
contrastaciones y para defender al núcleo firme, será ajustado y reajustado e
incluso completamente sustituido (...) La heurística positiva consiste en un
conjunto, parcialmente estructurado, de sugerencias o pistas sobre cómo
cambiar y desarrollar las versiones refutables del programa de investigación,
sobre cómo modificar y complicar el cinturón protector refutable. Impide que el
científico se pierda en el océano de anomalías (Lakatos, 1998: 66 y 69).
En principio, los programas de investigación de Lakatos se corresponderían
con los paradigmas científicos de Kuhn. La principal diferencia entre ambos es
que aquél intentó superar el cierto relativismo que suponía el cambio de
paradigma kuhniano. Lakatos (1998: 15) sí que ofrece las claves del avance
científico, justificando las razones a través de las cuales un programa de
investigación sustituirá a otro; se trata de los programas regresivos o
progresivos:
Las refutaciones no indican un fracaso empírico, como Popper ha enseñado,
porque todos los programas crecen en un océano permanente de anomalías.
Lo que realmente importa son las predicciones dramáticas, inesperadas,
grandiosas (...) Kuhn se equivoca al pensar que las revoluciones científicas son
un cambio repentino e irracional de punto de vista. La historia de la ciencia
refuta tanto a Popper como a Kuhn; cuando son examinados de cerca, resulta
que tanto los experimentos cruciales popperianos como las revoluciones
kuhnianas son mitos; lo que sucede normalmente es que los programas de
investigación progresivos sustituyen a los regresivos (Lakatos, 1998: 15 y 16),
siendo más eficiente los primeros en la predicción de los nuevos fenómenos.
De esta manera, un programa de investigación es superior a otro en cuanto a
que puede predecir con más éxito un fenómeno nuevo: "En un programa de
investigación progresivo, la teoría conduce a descubrir hechos nuevos hasta
entonces desconocidos. En los programas regresivos, las teorías son
fabricadas sólo para acomodar los hechos ya conocidos" (Lakatos, 1998: 15).
Lakatos reconoce el papel trascendental que desempeñan las predicciones en
los programas, hasta tal punto que cuando un programa sea incapaz de
generar nuevas perspectivas de futuro y únicamente trate de encajar hechos ya
pasados, estará en un proceso degenerativo. Precisamente en este punto es
en el que el núcleo de un programa puede ser abandonado cuando deje de
anticipar hechos nuevos: "Nuestro núcleo firme puede derrumbarse en ciertas
condiciones (...) una posibilidad que es fundamentalmente lógica y empírica"
(Lakatos, 1998: 68).
En contra de lo que apuntaba Popper, en el sentido de que una teoría que no
supere las falsaciones debe ser desestimada, Lakatos (1998: 16) explica que
hay "que tratar con benevolencia a los programas en desarrollo; pueden
transcurrir décadas antes de que los programas despeguen del suelo y se
hagan empíricamente progresivos. La crítica no es un arma popperiana que
mate con rapidez la refutación". Según lo señalado por Lakatos, si se
destruyeran los supuestos teóricos con la rapidez preconizada por Popper, no
sería posible alcanzar un cierto avance científico: "La principal diferencia con
respecto a la versión original de Popper creo que es que, según mi punto de
vista, la crítica no destruye (ni debe destruir) con la rapidez que imaginaba
Popper. La crítica destructiva, puramente negativa, como la refutación o la
demostración de una inconsistencia no elimina un programa de investigación.
La crítica de un programa es un proceso largo y a menudo frustrante; hay que
tratar a los programas en crecimiento sin severidad" (Lakatos, 1998: 122).
Por tanto, Lakatos (1998: 17) apuesta por un progreso científico que es
racional, al igual que Popper y en contraposición a Kuhn, quien parece creer
que el "cambio de un paradigma a otro es una conversión mística que no puede
estar gobernada por pruebas racionales" (Lakatos, 1998: 19).
La principal objeción esbozada a la propuesta de Lakatos es que no ofrece las
pautas para desestimar definitivamente un programa de investigación, puesto
que "es racional aferrarse a un programa degenerativo con la esperanza de
que podrá regresar" (Chalmers, 2003: 138). Esto sucedió con algunas teorías,
como, por ejemplo, con la copernicana, que degeneró durante un siglo,
después de sus primeros éxitos, antes de que volviera a generar predicciones
gracias a la recuperación que llevaron a cabo Galileo y Kepler (Chalmers,
2003: 136).
El propio Lakatos reconoce la debilidad de la racionalidad instantánea, que
para él no existe en la ciencia, de ahí que sólo a largo plazo (es decir, desde
una perspectiva histórica) se pueda determinar la validez o inconsistencia de
un programa, por lo que su propuesta no sirve como método para desestimar
un determinado paradigma, sino que servirá principalmente para esbozar la
valoración desde una perspectiva histórica (Chalmers, 2003: 136).
En relación con el núcleo inamovible de los programas de investigación, en
ocasiones el avance científico ha estado generado precisamente por la
transformación de su propia fundamentación (fue el caso de las teorizaciones
de Copérnico).
Esta problemática redunda directamente sobre uno de los pilares más básicos
de la propuesta que se expone, puesto que si no es posible determinar el
núcleo del programa de investigación, tanto más difícil para la comunidad
científica será establecer qué hipótesis deben permanecer inamovibles y cuáles
deben ir siendo modificadas con el fin de que cumplan el papel de cinturón
protector–receptor de críticas y refutaciones.
Por último, Lakatos, para esbozar una perspectiva de cómo se produce el
avance científico, parece hacer referencia, por los ejemplos con los que ilustra
sus supuestos, principalmente a la ciencia física (también a la lógica y la
matemática). Es posible que la metodología y las normas usadas para juzgarla
no sean apropiadas en otras disciplinas, puesto que "no se pueden hacer
ensayos experimentales con la gente y las sociedades, sin destruir lo que se
está investigando. Los sistemas vivos necesitan de una gran complejidad para
funcionar, de modo que se puede esperar que incluso la biología exhiba
diferencias importantes con la física. En las ciencias sociales el conocimiento
que se produce forma él mismo un componente importante de los sistemas en
estudio" (Chalmers, 2003: 138).7, 8
Un filósofo de la ciencia que ha criticado la propuesta de Lakatos ha sido
Feyerabend, autor que apuesta por una total anarquía en los procedimientos
que deben seguirse en la construcción del conocimiento científico. Feyerabend
parte del hecho de que no existe un solo método científico como tal, pues, a lo
largo de la historia, en general la investigación ha atacado alguna de sus
normas metodológicas; de tal manera que la mayoría de los avances históricos
de la ciencia no se ajustan a las teorías planteadas por los filósofos clásicos.
"Descubrimos entonces que no hay una sola regla, por plausible que sea, y por
firmemente basada que esté en la epistemología, que no sea infringida en una
ocasión u otra" (Feyerabend, 1986: 7), por lo que si hay que apuntar algún
principio del método científico (que en realidad no existe) será el del todo vale,
ya que los científicos tienen que seguir sus propios deseos y deben desarrollar
su trabajo en un total ambiente de libertad, lejos de todo tipo de prejuicios,
supersticiones o restricciones metodológicas, liberando a la sociedad de la
camisa de fuerza que supone una ciencia ideológicamente petrificada
(Feyerabend, 1986: 307 y ss).
Feyerabend mantiene que la mayor parte de las investigaciones científicas
nunca se han desarrollado siguiendo un método racional, por lo que el
anarquismo debe reemplazar al racionalismo: de esta manera se alcanzará el
progreso intelectual, mediante la creatividad y el propio empuje del científico.
La idea de un método que contenga principios firmes, inamovibles y
absolutamente obligatorios para conducir la actividad científica tropieza con
graves dificultades cuando se confronta con los resultados de la investigación
histórica. Es evidente que tales infracciones no son acontecimientos
meramente accidentales, no son resultado de la insuficiencia del conocimiento
o de descuido que pudieran haberse evitado (Feyerabend, 1986). En concreto,
para este autor, el falsacionismo popperiano impide el desarrollo de teorías
alternativas: "El requisito de aceptar sólo aquellas teorías que son consistentes
con los hechos disponibles y aceptados nos deja también sin ninguna teoría,
pues no existe ni una sola teoría que no tenga una dificultad u otra... El método
correcto no debe contener reglas que nos obliguen a elegir entre teorías sobre
la base de la falsación. Por el contrario, las reglas de dicho método deben
hacer posible elegir entre teorías que ya fueron contrastadas y resultaron
falsadas" (Feyerabend, 1986: 49), de ahí que la sumisión a reglas y normas
haga, a la larga, estéril el trabajo del científico y, más que una teoría del camino
recto, deba escribir una teoría del error. Para él, la ciencia es una combinación
de reglas y errores, de lo que se deduce que el científico que trabaja en una
situación histórica particular debe aprender a reconocer el error y a convivir con
él, teniendo siempre presente que él mismo está sujeto a añadir nuevos errores
en cualquier etapa de la investigación.
Feyerabend no pretende abolir todo tipo de normas o demostrar que no tienen
valor, sino que trata de ampliar el inventario de reglas y proponer un uso
distinto de éstas. En principio, la comunidad científica maneja unas
construcciones teóricas determinadas en función de la elección mayoritaria
dentro de un extenso grupo de opinantes. No se elige necesariamente la que
parece más ajustada a la realidad, pues se mueven en un plano muy abstracto
y en la elección influyen factores muy diversos: económicos, políticos, prácticos
y aun estéticos (Escohotado, 1987: 478).
Por eso, se apuntaba que el científico no debe trabajar bajo el constreñimiento
de la supeditación a un solo método, sino que en función de la investigación se
usará una regla u otra según interese e incluso se abandonarán las reglas ya
existentes para inventar una nueva (Feyerabend, 1986).
Según Feyerabend, la única regla de contrastación de teorías consistirá en
compararlas, no con la experiencia, como sugieren Popper y Lakatos, sino con
sistemas teóricos combinados con ésta. "La evidencia relevante para la
contrastación de una teoría T a menudo sólo puede ser sacada a la luz con
ayuda de otra teoría T', incompatible con T " (Feyerabend, 1986).
Para Martínez Freire (1990), la actitud de Feyerabend es útil para evitar
dogmatismos en metodología, pero su radicalidad le lleva a olvidar la existencia
de patrones de descubrimiento que son eficaces; las consideraciones de
Feyerabend son relevantes en el contexto de la investigación en nuevos
campos de estudio, pero no pueden pretender aplicarse a la práctica científica
en campos de estudio ya conocidos, en los que la rutina en el uso de reglas es
posible.
Feyerabend apunta que la ciencia progresa cuando existe independencia y
autonomía en la utilización metodológica, y no sometimiento a normas estrictas
de investigación. Blaug (1985: 63) lo resume de la siguiente forma:
"Feyerabend no está en contra del método en las ciencias, sino que más bien
está en contra del método en general, incluyendo su propio consejo de ignorar
todo método". También arremete Feyerabend contra el estatus de la propia
ciencia,9 pues ésta no posee ningún rasgo que la haga superior al resto de
conocimientos: se le ha atribuido un rango que no le pertenece, un rango cuasi
religioso.10 En Diálogo sobre el método, Feyerabend (2000: 85) arremete
contra los científicos11 y equipara a la ciencia con otros saberes, como la
astrología, ya que para él los ataques que la descalifican como ciencia son
infundados: "La astrología constituye también un ejemplo excelente de cómo
los ignorantes (es decir, los científicos), con el concurso de otros ignorantes
(los filósofos de la ciencia, por ejemplo) corren el riesgo de engañar a todo el
mundo" (Feyerabend, 2000: 85). En definitiva, Feyerabend apuesta por el
pluralismo metodológico y paradigmático, por la transparencia y por una ciencia
humanista y plural. Pero la total libertad de creación que defiende el filósofo no
es en la práctica muy factible, puesto que el científico, para hacer una
contribución a la ciencia deberá enfrentarse a los trabajos previamente
consolidados, por lo que "los caminos abiertos a los científicos en general
vendrán delimitados por la situación objetivamente existente, mientras que el
camino abierto a un científico en particular estará determinado por el
subconjunto de los recursos existentes a los que puede tener acceso. Los
científicos serán libres de seguir sus deseos subjetivos sólo en la medida en
que puedan elegir entre la serie restringida de opciones que les son posibles.
Aún más: les guste o no, los individuos tendrán que hacer una caracterización
de la situación con la que se enfrentan como pre–requisito para su
comprensión. Bien sean cambios en la ciencia, bien en la sociedad en general,
el trabajo teórico principal implica una comprensión de la situación a la que se
enfrenta el individuo, y no una llamada generalizada a una libertad sin
restricciones".
UNIDAD V: EL DESARROLLO DEL CONOCIMIENTO
CIENTIFICO EN LA FILOSOFIA ACTUAL DE LA
CIENCIA
5.1 El cambio científico en la moderna teoría de la ciencia.
Cuando la Ciencia Normal fracasa en su propósito de dar solución a los
Enigmas y a sus problemas tradicionales, sobreviene un período de
inseguridad profesional que, agravado por la aparición de la Anomalía, se
convertirá en una verdadera crisis paradigmática.
En estas circunstancias son muchos los científicos que abandonan su disciplina
incapaz de soportar ese estado de desordenada confusión.
Poco duraría la ciencia si no fuera por esos científicos, los más jóvenes y
creativos, tolerantes del derrumbamiento científico, que, embistiendo con una
teoría nueva, edificarán y ordenarán una nueva tradición científica.
Esa lucha que Kuhn denominó tensión esencial, acabará con el paradigma
anterior.
LA TENSION ESENCIAL
Un signo evidente de que la crisis ha cuajado es la aparición de la anomalía y
de las Escuelas en competencia como consecuencia del fracaso de la Ciencia
Normal en sus resoluciones.
Pero para que la Anomalía provoque una crisis es necesario que ponga en tela
de juicio fundamentaciones y generalizaciones importantes del Paradigma
anterior.
Si esto es así, el Paradigma anterior quedará invalidado en la confrontación de
éste con el mundo y con la nueva teoría y ocupará su lograr un nuevo
candidato. Simultáneamente se rechazará una teoría y se aceptará otra.
Kuhn compara este proceso con el de las revoluciones políticas: ningún
descubrimiento científico es definitivo; la Ciencia no tiende hacía una meta
donde, después de ella no hay nada.
Es difícil que la Ciencia llegue un día a tal grado de perfección y acabamiento
que no pueda seguir haciéndose. Ningún Paradigma es concluyente; todos son
provisionales y, como tales, algún día dejarán de satisfacer porque no podrán
resolver los nuevos problemas planteados y, entonces, se creará una
conciencia de mal funcionamiento que provocará la búsqueda de un nuevo
paradigma.
MECANISMOS DE CAMBIO DE PARADIGMAS
La Revolución Científica siempre supondrá una incompatibilidad entre
paradigmas: se elige un paradigma y se eliminan los demás.
Esta elección no se hará siguiendo ningunos criterios objetivos con los cuales
comparar las teorías entre sí puesto que, para Kuhn la una norma válida para
preferir una u otra es la plena aceptación del nuevo paradigma por la
Comunidad Científica. Este punto de la teoría Kuhniana ha provocado fuertes
discusiones porque se han enfrentado dos posturas radicalmente opuestas: el
racionalismo científico frente al no-racionalismo:
En La Estructura de las Revoluciones Científicas Kuhn observa que se puede
apelar a esos factores para persuadir a los científicos de que cambien de
opinión.
La fuerza de la apelación a esos factores reside únicamente en su aceptación
general, pero esos facto res carecen de fundamento puesto que no hay manera
de justificarlos, y, siendo esto así, el proyecto racionalista estaría condenado"
Los racionalistas exigen la justificación de los principios por los que se va a
comparar y elegir entre dos teorías, pero Kuhn se va a mostrar escéptico a la
hora de establecer criterios objetivos y reglas que obliguen a la balanza a
inclinarse a un lado o a otro de la elección.
Algunos de los criterios Kuhníanos que más de acuerdo van a estar con los
presupuestos racionalistas son:
- Que la teoría sea precisa en sus predicciones para que haya un mayor
acuerdo entre naturaleza y teoría.
- La consistencia teórica
- El alcance amplio y la simplicidad en la teoría Que el Paradigma sea
fructífero.
Pero esos factores, aunque. Son generalmente compartidos por los miembros
de las comunidades científicas, sin embargo, no están libres de discrepancias y
por lo tanto no se pueden aplicar rigurosamente en la elección de teorías; es
decir, carecen de fundamento puesto que no se pueden justificar.
Kuhn va a apelar a factores psicológicos y sociológicos para comparar teorías.
Si la ciencia no es acumulativa los paradigmas serán incompatibles. Las
nuevas teorías nacen de anomalías que no pueden coexistir con los
paradigmas de los que surgieron y esto es, justamente, lo que produce la
génesis de nuevos modelos.
Y si las teorías son incompatibles ¿qué razón habrá para elegir una teoría u
otra sino la adopción de alguna por la Comunidad Científica?
Todas las teorías se adecuan a los hechos, pero de forma relativa. El que
concuerde mejor o peor con ellos es algo subjetivo.
Si hay una competencia entre paradigmas ninguno puede probar su argumento
y la adopción de un u otro será decisiva porque comportará una determinada
forma de ver el mundo.
Después de una revolución científica el nuevo y el antiguo modelo son
necesariamente irreconciliables. Suponiendo eso, aparecen nuevos temas de
estudio, metodologías, problemas y formas de resolución y, por consiguiente,
un gran cambio en las normas y reglas de la Ciencia con respecto a la tradición
anterior.
Este cambio de paradigma producirá una transformación en los científicos, en
su forma de ver el mundo; es decir, representará por un lado, una visión del
mundo determinada y, por otro, de la Ciencia.
Esto se puede comprender muy bien mediante un análisis histórico de las
concepciones del mundo a través de la ciencia. Por ejemplo, no es lo mismo el
mundo Aristotélico, pequeño, finito y con tendencias, que el Newtoniano,
infinito, absoluto y mecánico.
El investigador, ante un cambio de paradigma, debe aprender a cambiar la
percepción que tiene del medio ambiente que le rodea, porque ese mundo es
también incompatible con el anterior.
Aquí Kuhn toma elementos de la Gestalt donde el concepto fundamental es el
cambio de formas (sobre un mismo dibujo se puede percibir una copa o una
cara, deduciéndose que lo importante es cómo se mira y bajo qué supuestos y
no el objeto observado en sí)
Newton y Smith calificaron esta postura de idealista o no objetivista. El cambio
de visión, para Kuhn afecta tanto a la Ciencia como a la visión que se tenga del
mundo y, en alguna medida, al mundo mismo.
Los que dicen que el mundo no cambia, lo dicen porque se hallan inmersos en
una tradición paradigmática determinada iniciada por Descartes y Newton
dentro de cuyos presupuestos estaba esta idea implícita.
Aunque el mundo no cambie materialmente después de una Revolución
Científica, el profesional trabaja, de hecho, con un mundo nuevo, ya que no hay
datos fijos que se puedan interpretar científicamente y de manera siempre
invariable. LO DADO
Lo dado no es lo que se capta por la experiencia, sino que, este proceso está
determinado por el modelo paradigmático vigente en una Comunidad Científica
de terminada.
En toda percepción hay un factor sociológico y social que determina el modo de
aprehensión de lo dado.
Lo dado, objetivamente y de una forma neutral, no existe en ningún lenguaje de
observación. Todo lenguaje supone un paradigma, es decir, un mundo
estructurado de una manera particular, tanto perceptual como
conceptualmente, lo que, sin embargo, no supone que esto se diseñe de una
manera tan fija e inquebrantable que se haga impensable un cambio en la
tradición científica dominante.
De hecho las, revoluciones científicas ocurren de tal manera que aunque el
instrumental, el vocabulario y la conceptualización no hayan variado apenas, sí
lo han hecho, y de una manera bastante importante, los problemas a seguir, los
datos utilizados, la noción de ciencia y, por ende, la visión del mundo que ésta
proporcione para explicar y manipular la naturaleza.
5.2 El reto de la inconmensualidad en la filosofía de la ciencia
de Kuhn y Feyerabend
La inconmensurabilidad, en la filosofía de la ciencia, es la imposibilidad de
comparación de dos teorías cuando no hay un lenguaje teórico común. Si dos
teorías son inconmensurables entonces no hay manera de compararlas y decir
cuál es mejor y correcta.
En 1962, Thomas Kuhn y Paul Feyerabend, de manera independiente,
introdujeron la noción de inconmensurabilidad en la filosofía de la ciencia. En
ambos casos el concepto provenía de las matemáticas, y en su sentido original
se define como la falta de una unidad común de medida que permita una
medición directa y exacta entre dos variables; se predica, por ejemplo, de la
diagonal de un cuadrado con relación a su lado.
Inconmensurabilidad en las matemáticas
Esta diagonal es inconmensurable con respecto a sus lados.
Artículo principal: Conmensurabilidad (matemática).
La idea central de este concepto en matemáticas no es la imposibilidad de
comparación, sino la ausencia de un factor común que pueda ser expresado.
Se analiza el ejemplo de la diagonal de un cuadrado con relación a su lado. La
razón de la diagonal d de un cuadrado y su lado l es inconmensurable (es
irracional).
La demostración de que d/l no es racional se puede hacer de manera indirecta,
considerando lo contrario. Se busca llegar a una contradicción. Si se llega a
una contradicción, lo contrario no es cierto, y se establecería lo que se desea.
En términos lógicos: si queremos demostrar la proposición J, asumimos que
"no J" es correcta. Mediante deducciones lógicas a partir de "no J" llegamos a
una contradicción. Entonces se concluye que "no J" no es cierta y, por lo tanto,
J debe ser verdadera. Este método se llama reducción al absurdo.
Introducción al término
La introducción del término estuvo motivada por una serie de problemas que
ambos autores observaron al tratar de interpretar teorías científicas sucesivas y
sin duda su implementación se entiende mejor a la luz de la crítica que tanto
Kuhn como Feyerabend realizaron ante ciertas tesis que los representantes de
la llamada concepción heredada habían sostenido, entre las cuales destaca la
famosa tesis de la acumulación del conocimiento científico, la cual afirma que
el corpus del conocimiento científico ha ido aumentando con el paso del
tiempo, tesis que tanto Kuhn como Feyerabend rechazan.
Otra tesis igualmente importante es la existencia de un lenguaje neutro de
contraste en el cual puedan formularse las consecuencias empíricas de dos
teorías en competencia, de tal forma que se puede elegir a la que tenga el
mayor contenido empírico verificado – o no falseado si la formulación es
popperiana.
La noción de fondo de esta segunda tesis no es sólo la existencia de tal
lenguaje sino que implica, al menos, dos postulados más. Primero, la
afirmación de que la elección entre teorías tiene como prerrequisito su
intertraducibilidad, por ejemplo entre una teoría T y su sucesora T’ – y en el
caso de Popper la deducibilidad de T’ a partir de T – y segundo, que la elección
siempre se realiza bajo los mismos estándares de racionalidad.
En ambos casos el concepto de inconmensurabilidad hace imposible la
viabilidad de las tesis. En el primero, al mostrar que ciertas consecuencias
empíricas entre teorías sucesivas se pierden. En el segundo, al afirmar que es
posible una elección racional entre teorías incluso cuando éstas no pueden
traducirse a un lenguaje neutro. Sin embargo, aunque los motivos - y las
críticas a las que da origen – para su introducción son semejantes, de ninguna
manera son idénticos los sentidos en el que los dos coautores le emplearon,
por lo cual se discute la noción de inconmensurabilidad para cada coautor en
particular.
Visiones
Visión de Feyerabend
Feyerabend ubica la inconmensurabilidad desde un principio en el terreno
semántico, la noción fundamental que hay detrás es el cambio de significado
de los términos básicos de una teoría, cambio que invade la totalidad de los
términos de la nueva teoría, haciendo que entre T y T’ no exista ninguna
consecuencia empírica común.
Teorías
En 1989, Feyerabend presenta esta noción a contraluz del racionalismo crítico
de Popper en el cual "la investigación empieza con un problema. El problema
es el resultado de un conflicto entre una expectativa y una observación que, a
su vez, es constituida por la expectativa." (Feyerabend, 1989; pp. 96). La
metodología de la ciencia es entonces el resolver problemas al inventar teorías
que sean relevantes, falseables, al menos en mayor grado que cualquier
solución alterna. Una vez que tal alternativa está presente comienza la fase
crítica con respecto a T’, la cual habrá de contestar las siguientes preguntas:
(a) por qué la teoría T había tenido éxito hasta ahora, y (b) por qué ha
fracasado. Si la nueva teoría T’ da cuenta de ambas preguntas, entonces T se
deshecha.
Esto es, una teoría nueva T’, para ser una sucesora adecuada de una teoría
refutada T, debe tener un conjunto de predicciones adicionales con respecto a
T (clase A), así como un conjunto de predicciones exitosas que coincide en
cierta medida con la vieja teoría T (clase S) – lo cual constituye parte del
contenido de verdad de la nueva teoría – y, asimismo, excluir una serie de
consecuencias de T, los fracasos de la vieja teoría, los cuales son parte del
contenido de falsedad de la nueva teoría (clase F).
Dado este modelo es posible construir enunciados relacionales entre ciertos
términos de T y de T’, los cuales serán la base de la comparación entre las
teorías, permitiendo una elección entre ambas a la luz de su contenido
empírico. Pero, si nos enfrentamos a una teoría T’ tal que la clase S es vacía,
las teorías son inconmensurables entre sí.
Sin embargo, Feyerabend aclara, la inconmensurabilidad entre T y T’
dependerá de la interpretación que se les dé a las teorías. Si ésta es
instrumental, toda teoría que se refiera a un mismo lenguaje de observación
será conmensurable. De igual forma, si lo que se busca es una perspectiva
realista, entonces se favorecerá una posición unificada en la cual se emplearán
los términos más abstractos de cualquiera que sea la teoría que se considere
para describir a ambas teorías otorgando un significado a los enunciados de
observación en función de estos términos, o, al menos para reemplazar el uso
habitual que se les da.
Sobre la interpretación instrumentalista se puede comentar que existirían
ciertas oraciones cuyo valor de verdad no sólo dependería de los enunciados
observacionales sino de los criterios de evaluación a los que éstos se someten
y que están anclados en las teorías. Por ejemplo, si se afirma el carácter
relacional de toda longitud, tal aseveración no puede ser decidida en términos
meramente observacionales sino que su valor de verdad depende en parte de
la teoría que establece el sentido en el cual se usarán los términos, en este
caso la Mecánica Cuántica (MQ) en oposición a la Mecánica Clásica (MC). En
este sentido, la posición instrumentalista atiende sólo a las consecuencias
empíricas y deja de lado la relación que los conceptos tienen entre sí.
En este mismo sentido, Feyerabend comenta que:
Es cierto, desde luego, que el esquema relativista nos da muy a menudo
números que son prácticamente idénticos a los números que se obtienen de
MC, pero no por ello los conceptos son más similares... [Pues] Ni siquiera el
caso... que da lugar a predicciones estrictamente idénticas puede utilizarse
como argumento para mostrar que los conceptos deben coincidir al menos en
este caso, pues magnitudes diferentes basadas en conceptos diferentes
pueden dar valores idénticos en sus respectivas escalas sin dejar de ser
magnitudes diferentes... [Así es que] Ni se puede hacer una comparación de
contenido ni se puede emitir un juicio sobre la verosimilitud.
Paul Feyerabend
Objeción realista
Sobre la objeción realista, Feyerabend retoma un argumento elaborado por
Carnap y comenta que el uso de tales conceptos abstractos conlleva a una
posición imposible, pues «...los términos teóricos reciben su interpretación al
ponerse en conexión o bien con un lenguaje de observación preexistente, o
bien con una teoría que ya ha sido puesta en conexión con un lenguaje de
observación, y que esos términos están vacíos sin esa conexión.»
(Feyerabend, pp. 373). De lo anterior se sigue que no se les puede usar para
otorgar significado al lenguaje de observación pues este lenguaje de
observación es su única fuente de significado, con lo cual lo que se realizaría
no sería una traducción sino un reemplazo del término.
Así Feyerabend considera que tanto la interpretación realista como la
instrumentalista son fallidas, con lo cual pretende defender la noción de
inconmensurabilidad como una noción legítimamente insalvable y con ello
anular la tesis de la acumulación y el panracionalismo en la ciencia.
Esto lleva a la siguiente consideración: si cada nueva teoría tiene su propia
base observacional, en el sentido de la carga teórica, cómo podemos esperar
que las observaciones que produzca logren eventualmente refutarla, pero aún
más, cómo podremos dar cuenta de que efectivamente la nueva posición
explica lo que se supone que pretendía explicar o si está deambulando por
campos diferentes, y en este sentido, cómo comparar finalmente las teorías.
La respuesta de Feyerabend a la primera consideración radica en realizar la
siguiente distinción: los términos primitivos de una teoría sólo dependen de los
postulados de la teoría y las reglas gramaticales asociadas mientras que las
predicciones que realiza dependen también de las condiciones iniciales del
sistema. Feyerabend no explora mucho más el punto pero puede suponerse
que si la predicción no corresponde con la observación y si tenemos un alto
grado de confianza en la descripción que hemos realizado de las condiciones
iniciales, entonces podemos asegurar que el error debe estar presente en
nuestra teoría y sus términos primitivos.
Sobre la segunda consideración, Feyerabend responde con una pregunta: «por
qué habría de ser necesario disponer de una terminología que permita decir
que dos teorías hablan del mismo experimento. Esto supondría una pretensión
unificacionista, posiblemente realista, cuyo objetivo parecería ser la verdad, sin
embargo, es de suponerse que la teoría puede contrastarse bajo un criterio de
adecuación empírica. Tal criterio partiría de la relación que se establece entre
el enunciado observacional que describe el resultado de un experimento
formulado para cada teoría de forma independiente, el cual se compara con las
predicciones que cada teoría postula. En este sentido, la elección se realiza
cuando una teoría es empíricamente más adecuada. Y si con esto la objeción
ante la posible deambulación de la nueva teoría no se contesta, es irrelevante
pues muchas veces la historia nos ha demostrado que en efecto las posiciones
varían o modifican sus campos de aplicación, por ejemplo, la física aristotélica
y la newtoniana»
Elección de teorías
Lo dicho anteriormente implica que el proceso de elección de teorías no
obedece a una racionalidad universal. Sobre si la ausencia de ésta constituye
una posición irracional Feyerabend afirma:
No, porque cada episodio particular es racional en el sentido de que algunos de
sus rasgos pueden ser explicados en términos de razones que o fueron
aceptadas en el tiempo en el que ocurrieron, o inventadas en el curso de su
desarrollo. Sí, porque incluso estas razones locales que cambian de época en
época nunca son suficientes para explicar todos los rasgos importantes de un
episodio particular.
Paul Feyerabend
Con lo anterior Feyerabend trata de arrojar luz sobre una consideración hecha
por el mismo Popper, y que afirma que siempre somos capaces de revisar todo
pronunciamiento, incluso los sistemas de referencia que guían nuestra crítica.
Sin embargo, las conclusiones de ambos son diferentes, pues Popper supone
que siempre es posible realizar una crítica una vez que los nuevos criterios han
sido aceptados, con lo cual la elección puede ser vista como el resultado de
una racionalidad a posteriori de la elección. Mientras que en la posición de
Feyerabend, esta solución es meramente un ornamento verbal toda vez que los
estándares se ven influidos por el primer mundo de Popper, el mundo físico, y
no sólo se desarrollan en el mundo tres. Es decir, los estándares se ven
influidos por las expectativas a las que dan origen, las actitudes que conllevan,
y las formas de interpretar el mundo que favorecen, pero esto es estrictamente
análogo al proceso mismo de una revolución científica, lo cual nos lleva a creer
que la tesis de la inconmensurabilidad puede ser aplicada también a
estándares, como lo evidencia la siguiente aseveración:
Incluso el racionalista más puritano se verá obligado entonces a dejar de
argumentar y a emplear, por ejemplo, la propaganda no porque algunos de sus
argumentos haya dejado de ser válido, sino porque han desaparecido las
condiciones psicológicas que le permitían argumentar efectivamente y, por
tanto, influir sobre los demás.
Paul Feyerabend
Feyerabend afirma que el criticismo popperiano es, o bien relativo a ciertos
procedimientos claramente definidos, o bien es totalmente abstracto y deja a
otros la tarea de llenarle ahora con este, después con aquel contenido
concreto, haciendo que la racionalidad a Popper sea un «mero ornamento
verbal». Lo anterior no implica desde luego que Feyerabend sea un irracional
sino que considera que el proceso de cambio científico no puede ser explicado
en su totalidad a la luz de alguna racionalidad, precisamente porque hay
inconmensurabilidad.
Visión de Kuhn
El segundo coautor de la tesis de la inconmensurabilidad es Thomas Kuhn,
quien la introduce en su obra de 1962, La estructura de las revoluciones
científicas, obra en la que le describe como una propiedad global que describe
las relaciones entre paradigmas sucesivos. Bajo este entendido, la
inconmensurabilidad rebasa el terreno semántico y abarca todo lo concerniente
a las prácticas, ya sea desde los campos de problemas hasta los métodos y
normas de resolución que se les asocian. Sin embargo, el término se fue
refinando a través de toda la obra de Kuhn, primero, al acotarle a un terreno
semántico y con una formulación local, para posteriormente redefinirlo en un
sentido taxonómico donde el cambio se encuentra en las relaciones de
semejanza/diferencia que los sujetos de una matriz disciplinar trazan sobre el
mundo.
Etapas
En este sentido, y siguiendo a Pérez Ransanz, podemos ubicar tres grandes
etapas en la obra de Kuhn, por lo menos en lo que a este concepto se refiere.
La primera, como ya hemos visto, es la presente en ERC y se caracteriza por
una visión global que se aplica a los paradigmas. Tal visión es reemplazada en
los años setenta por una visión localista y semanticista en la cual se le define
ahora como la relación que se predica entre dos teorías que están articuladas
en dos lenguajes que no son completamente traducibles entre sí, como deja
ver Kuhn en el siguiente pasaje de su obra:
La frase "sin medida común" se convierte en "sin lenguaje común". Afirmar que
dos teorías son inconmensurables significa afirmar que no hay ningún lenguaje
neutral o de cualquier otro tipo, al que ambas teorías, concebidas como
conjuntos de enunciados, puedan traducirse sin resto o pérdida... [Sin
embargo] La mayoría de los términos comunes a las dos teorías funcionan de
la misma forma en ambas...
Thomas Kuhn
Lo anterior sólo prohíbe un tipo de comparación, aquella que se efectúa entre
los enunciados de estas dos teorías en una relación uno a uno. Una idea que
subyace a tal formulación es que la traducibilidad implica simetría y
transitividad pues si una teoría T es traducible con otra teoría T’, entonces T’ es
traducible a T, y más aún pues si existiese una tercera teoría T’’ y ésta fuese
traducible con T’, no podría ser el caso que las teorías T y T’ fuesen
inconmensurables, toda vez que la relación transitiva y simétrica asegura que
sus enunciados podrán ser comparados uno a uno.
En este punto cabe hacer notar que Kuhn no niega que dos teorías
inconmensurables tengan un ámbito común de referencia, y en este sentido no
afirma la imposibilidad de la comparación sino que su tesis se refiere
únicamente a la capacidad de traducir los enunciados de estas teorías en una
relación de uno a uno, como se muestra en el pasaje:
Los términos que preservan sus significados a través de un cambio de teoría
proporcionan una base suficiente para la discusión de las diferencias, y para
las comparaciones que son relevantes en la elección de teorías. [Continuación
en un pie de página] Nótese que estos términos no son independientes de la
teoría, sino que sencillamente se usan de la misma manera en las dos teorías
en cuestión. Se sigue que la contrastación es un proceso que compara dos
teorías, no un proceso que pueda evaluar teorías por separado.
Thomas Kuhn
Lo anterior es relevante porque permite dilucidar que el sentido de la
racionalidad en Kuhn está ligado a la capacidad de comprensión, y no a la
capacidad de traducción misma (Pérez Ransanz, 2000).
En la tercera etapa de la obra de Kuhn la formulación de la tesis de la
inconmensurabilidad se redefine en términos taxonómicos y se explica en
función del cambio de las relaciones de semejanza/diferencia entre dos teorías.
Este cambio, aclara Kuhn, atañe a los conceptos de clase A no sólo porque hay
un cambio en el modo de referir los conceptos sino porque la estructura
subyacente en ellos se ve alterada, esto es, varía el sentido – su intención –
pero también su referencia. De esta forma Kuhn afirma que no todos los
cambios semánticos son cambios que conlleven a la inconmensurabilidad, lo
son sólo aquellos que, por ser realizados en las categorías de base, operan de
manera holista, resultando en que toda la relación entre estos términos se vea
alterada. Lo anterior, de un carácter local pero explicado en términos
taxonómicos, define a la inconmensurabilidad como la imposibilidad de
homologar las estructuras taxonómicas de dos teorías, imposibilidad que se
expresa en una traducción necesariamente incompleta.
Caracterización taxonómica
Es precisamente esta caracterización taxonómica la que le permite postular su
principio de no traslape, pues si las categorías taxonómicas son particiones en
un sentido lógico entonces esto implica que las relaciones que se establecen
entre estos conceptos y el resto son necesariamente jerárquicas. Y es
justamente por este tipo de relación que los cambios en las categorías son
holistas, pues la modificación de una categoría necesariamente implica la
modificación de las categorías que le circundan, lo cual explica porque una vez
dado este cambio las taxonomías no pueden ser ya homologables – en el
sentido de isomorfas.
Una ventaja de tal caracterización – que se encontraba ya presente en su obra
más con remanentes de la caracterización semántica, misma que Kuhn llevó a
todo su potencial a finales de los ochenta en su caracterización taxonómica –
es su creencia de que los criterios que permiten a las personas el identificar un
concepto con sus referentes son muchos y variados, de tal forma que no es
relevante para la comunicación exitosa una coincidencia en criterios, sino sólo
en las categorías que estos implican; es decir, Kuhn visualiza las relaciones
entre los conceptos como existentes en un espacio multidimensional, las
categorías consisten en particiones de ese espacio, y son éstas las que deben
coincidir entre los comunicantes, no así los criterios que establecen una
ligadura entre este espacio y el referente asociado.
Reluctancia
Una precisión importante que debe realizarse, y que aparece constante en toda
la obra de Kuhn, es su reluctancia a igualar traducción e interpretación,
equiparación que Kuhn atribuye a la tradición analítica en la filosofía. La
traducción es una actividad casi mecánica en la cual se produce un manual de
traducción quineano que relaciona secuencias de palabras de tal forma que los
valores de verdad de estas oraciones se conservan. Sin embargo, el proceso
de la interpretación implica la elaboración de hipótesis de traducción, las cuales
habrán de ser exitosas cuando permitan entender de manera coherente y con
sentido aquellas preferencias que son extrañas. Kuhn entonces reniega de un
principio de traducibilidad universal pero no de un principio de inelegibilidad
universal, distinción que será muy importante para entender el rechazo de
Kuhn hacia las críticas que le realizaron, por ejemplo, Popper y Davidson.
Pero sin lugar a dudas la noción anterior nos invita a cuestionarnos cómo es
que somos capaces de interpretar en primer lugar, la solución de Kuhn consiste
en afirmar que esto es como aprender un nuevo lenguaje. Sobre cómo es que
somos capaces de aprender un nuevo lenguaje cuando nos enfrentamos a un
cambio holista como el implicado con la noción de inconmensurabilidad caben
mencionar cuatro aspectos:
Primero, para realizar tal asimilación es necesario que el vocabulario
complementario esté bien comprendido.
Segundo, las definiciones habrán de cumplir un papel mínimo, son los ejemplos
paradigmáticos los que introducen el uso de los nuevos conceptos de tal forma
que un componente estipulativo u ostensivo es indispensable.
Tercero, que los conceptos de clase no pueden aprenderse aislados sino en
relación a una serie de conjuntos de contraste.
Cuarto, que el proceso de aprendizaje conlleva la generación de expectativas,
las cuales son la base de la proyectabilidad de los términos de clase, de tal
suerte que éstas son a su vez la base de, entre otras cosas, las inferencias
inductivas. Y último, así como los criterios para relacionar la clase y su
referente varían, también lo hacen las rutas de aprendizaje de los sujetos.
Descargar