Naturaleza de las Leyes, las Teorías y los Modelos científicos

Anuncio
NATURALEZA DE LAS LEYES, LAS TEORÍAS Y LOS MODELOS
CIENTÍFICOS. EL CONTEXTO DE LA JUSTIFICACIÓN CIENTÍFICA Y EL
CONTEXTO DEL DESCUBRIMIENTO CIENTÍFICO
1. Introducción
Explicar algo es haber llegado a entenderlo de tal manera que sea uno capaz de hacer
que otro lo entienda. Así, el que pide "explícame esto" supone que aquel a quien hace
la petición le entiende de manera distinta que él y que este entendimiento es
comunicable.
Aprender algo significa conseguir uno u otro tipo de actuación aprobada, o llegar a
entender el marco cuyas razones permiten comprender la aprobación. Llegar a
entender significa, en este sentido, adquirir cierta destreza perceptivomotora o hábito, y
pudiera significar adquirir todo lo que se requiera para la justificación teorética o
conceptual de determinada cosa. Cabe distinguir, por tanto, entre el tipo de aprendizaje
que implica la formación de hábitos, en los términos perceptivomotores más sencillos, y
el tipo de aprendizaje que implica la formación de conceptos y la utilización de la
inferencia en alguna de sus formas. Se trata de la distinción que Aristóteles hacía entre
aquel conocimiento que versa sobre la destreza aplicada a casos particulares y aquel
otro que versa sobre principios y causas. Aristóteles consideraba al segundo de ellos
como un conocimiento científico.
Podría decirse que el científico aprende como actúa la naturaleza observando lo que él
considera como casos ejemplares, lo cual no quiere decir que la naturaleza imparta al
observador los principios de la actividad natural. La naturaleza no explica las leyes
mediante las que funciona, es el hombre el que lo hace, porque, si la naturaleza pone
de manifiesto leyes de funcionamiento, lo hace en casos particulares, y un caso no es
una ley, ni tampoco lo es una colección de casos: no cabrá decir, por tanto, que la
observación de casos revele las leyes que los gobiernan. Lo que cabe decir es que la
relación entre estos casos, cuando es invariante, pone de manifiesto una ley, pero al
conocimiento de esta invarianza se llega sólo mediante una actividad intelectual que
entraña generalizaciones, y éstas implican la elaboración de hipótesis o enunciados
universales legaliformes, cuyo alcance es tal que postulan invarianzas más allá de lo
que cabe presentar a modo de resumen de los casos observados. Las hipótesis son
saltos conceptuales que van más allá de las "lecciones de la naturaleza": son
formulaciones generales ligadas a casos observados en el marco de un sistema en el
que los enunciados que se refieren a observaciones pueden deducirse de las hipótesis
y de la información que exprese las condiciones bajo las cuales tenga lugar la
observación. Una hipótesis es la conjetura de que el orden descubierto en las
observaciones muestra de hecho una ley de la naturaleza.
En los tipos precientíficos de explicación cabe hacer las distinciones siguientes:
1. Reglas. Las reglas son instrucciones prescriptivas o reguladoras en cuanto a la
acción correcta a desarrollar; surgen de la práctica técnica, de la organización
social, etc., y pueden darse:
a. Mediante ejemplos. Se da la regla en forma particular.
b. Mediante preceptos. Se da la regla en forma general
2. Leyes. Las leyes se aplican a los casos en que hay una invarianza. Una ley
afirma que se conoce una cuestión de hecho.
3. Teorías. Proporcionar normas para realizar las observaciones adecuadas, reunir
las pruebas adecuadas, emplear las técnicas experimentales adecuadas,
realizar las inferencias inductivas adecuadas, dar la forma adecuada a las
representaciones deductivas o formales de las relaciones entre los hechos,
hacer las hipótesis adecuadas, etc. No explican los procesos naturales ni las
cuestiones de hecho, pero explican por qué debe uno admitir o aprobar las
conclusiones de la investigación científica, y sirven de guía de conducta en
cuanto a tales investigaciones. Proporcionan los criterios de lo que se considera
explicación adecuada.
Las teorías explican en virtud de postular o afirmar la existencia de unas
"entidades teoréticas" cuyas propiedades son tales que, a partir de ellas, se
pueden inferir sus leyes de actuación; y conociendo qué leyes son las que
describen las relaciones de invarianza entre unas propiedades o sucesos
naturales, se puede construir una entidad hipotética cuya existencia explique las
leyes.
Por una parte, las teorías pueden concebirse como leyes de gran generalidad,
de las que pueden deducirse leyes de menor generalidad por un método de
inferencia; por otro lado, pueden distinguirse las teorías de las leyes en virtud de
las aseveraciones existenciales de las primeras.
2. Las leyes
En la ciencia el lenguaje se usa primariamente para realizar aserciones, para decir que
ciertas cosas son de cierto modo. Para este uso los conceptos son esenciales, pero no
bastan considerados aisladamente; los conceptos por sí solos no constituyen unidades
asertivas. Las unidades aseverativas deben ser necesariamente complejas o
articuladas, no hay aserción sin articulación, y la complejidad no es en general esencial
a los conceptos. Las unidades aseverativas mínimas son las proposiciones o, en
términos lingüísticos, los enunciados, entidades que sí son esencialmente complejas o
articuladas. En el discurso científico, un tipo especialmente importante de unidades
proposicionales son las leyes, que se pueden articular a su vez entre ellas
conformando unidades más amplias, las teorías.
Las leyes son las unidades aseverativas mínimas que no son informes sobre
acaecimientos particulares, esto es, las leyes son (un tipo de) aseveraciones generales,
expresan regularidades.
El concepto científico de "leyes de la naturaleza" parece ser que nació de una peculiar
interacción entre las ideas religiosas, filosóficas y legalistas del mundo europeo de la
Edad Media. Aparentemente está relacionado con el concepto de la ley natural en el
sentido social y moral conocida por los juristas medievales y significa una notable
desviación de la actitud griega ante la naturaleza. El empleo de la palabra "ley" en
semejantes contextos habría resultado ininteligible en la antigüedad, mientras que la
creencia habraica y cristiana en una deidad que era a la vez Creador y Legislador la
hacía válida. La existencia de leyes de la naturaleza era una consecuencia necesaria
del designio en ella, ya que, de no ser por tales leyes, ¿cómo podría perpetuarse la
integridad del designio? Sólo el hombre gozaba de libre albedrío, la facultad de
transgredir las leyes que debía observar; a los planetas no se les había otorgado la
facultad de desviarse de sus órbitas. De aquí que la regularidad de los movimientos
planetarios, por ejemplo, que Aristóteles atribuyó a la vigilancia de unas inteligencias,
pudiera explicarse como obediencia a los decretos divinos. El Creador había dotado la
materia, las plantas y los animales de ciertas propiedades y características inalterables,
y las más universales de éstas constituían las leyes de la naturaleza, discernibles por la
razón humana. En palabras de Boyle:
Dios estableció esas reglas del movimiento y ese orden entre las cosas corpóreas que
denominamos leyes de la naturaleza. [Así] siendo el universo obra de Dios, y
establecidas las leyes del movimiento, y todo sostenido por su concurso y su
providencia incesante, la filosofía mecanicista enseña que los fenómenos del mundo
son producidos físicamente por las propiedades mecánicas de las partes de la materia
(Robert Boyle, Of the excellency and grounds of the mechanical hipótesis, 1674)
2.1 Concepciones de las leyes científicas
2.1.1 Punto de vista realista
El objeto de la investigación científica parece ser, en gran medida, la formulación de
enunciados de alcance universal que expresen alguna invarianza entre propiedades o
sucesos. La ley no es mas que un enunciado en el que se resumen no sólo todos los
casos observados de x, sino todos los posibles casos observados de x. La condición
para que un enunciado legaliforme sea verdadero es que para cada caso de x, lo que
se afirma sea cierto, y no podremos saber si el enunciado es una ley a no ser que
sepamos si es o no verdadero.
Para que una ley sea tal, ha de enunciar algo verdadero, sin restricciones en todos los
casos posibles, pues la ley es una generalización que va más allá de los datos de que
momentáneamente se dispone. Pero, si esto es así, no podremos saber si una ley es
verdadera en todos los casos, y nos encontramos, por tanto, en la posición de tener
que decir que si una ley es verdadera no podemos saberlo, y que si sabemos que un
enunciado universal es verdadero en todos sus casos particulares, no es una ley.
Se puede distinguir entre leyes de la naturaleza y leyes de la ciencia. Las leyes de la
naturaleza lo son tanto si alguien lo sabe como si no lo sabe; por el contrario, las leyes
de la ciencia sólo se convierten en tales cuando alguien las conoce. Si una ley es una
ley de la naturaleza esta se cumple tanto en los casos observados como en los no
observados, tanto si estos casos no observados llegan a observarse alguna vez, como
si no.
Una ley de la naturaleza se cumple independientemente de si alguien la conoce o no e,
incluso, independientemente de si es posible conocerla; con ello lo que se quiere decir
es que las leyes de la naturaleza son objetivas. Es por ello que las leyes de la
naturaleza han de expresarse en términos de observabilidad, pero no de observables
de hecho. Las leyes de la naturaleza se expresan en forma de condicionales
contrafácticos, cuya forma es: "si x (hubiera)... entonces y". Estos condicionales son
aplicables a hechos que han ocurrido como a hechos que no han ocurrido, pero que si
hubieran ocurrido se habrían atenido necesariamente a la ley, si es que ésta es tal.
Las leyes de la naturaleza son reales, están ahí fuera en el mundo o la naturaleza, con
o sin mi consentimiento e independientemente de la posibilidad de que yo observe los
casos particulares y, por tanto, la aseveración de la ley constituye una inferencia, ya
sea a partir de ciertos datos o a partir de otras leyes de las cuales pueda deducirse. Si
es una inferencia a partir de ciertos elementos de juicio, parece que habrá de ser
inductiva y, concretamente, una que, si está de acuerdo con ciertas normas, se
considere como base para una creencia racional o justificada; si se deduce de otras
leyes de mayor generalidad, su fuerza no será mayor que la de la más débil de las
premisas a partir de la cual se haya deducido, y se obtiene deductivamente a partir de
premisas que se consideren como necesariamente verdaderas, se podrá sostener que
también la ley es necesariamente verdadera, pero entonces la observación no
desempeñaría papel alguno en su confirmación, porque sería verdadera
independientemente de toda observación y, en consecuencia, una ley a priori, no una
ley empírica.
Las leyes de la naturaleza son hipótesis o postulados que son objeto de creencia
racional basándose en pruebas, y si, de hecho, las leyes de la ciencia son ciertas,
entonces son expresión de leyes de la naturaleza.
A este modo de ver las cosas cabría llamarlo punto de vista realista acerca de la
naturaleza de las leyes de la naturaleza, punto de vista que podría resumirse en:
1. Toda ley expresa una relación de invarianza entre todos los miembros de una
clase dada, y esta relación puede darse en forma de condicional universal:
(x)(Fx®Gx), bicondicional: (x)(Fx«Gx), o en forma de condicional contrafáctico:
para cualquier x, si ocurriera que Fx, ocurriría que Gx. Toda ley de la naturaleza
se cumple para una clase infinitamente grande de sucesos y es independiente
del tiempo.
2. Un enunciado legaliforme es la expresión de una ley de la naturaleza si es cierto
en cualesquiera casos subsumidos por la ley y, por tanto, el dominio de la ley es
tal que sirve de base a una generalización genuina. Las condiciones bajo las
cuales puede afirmarse que la ley es cierta se expresan en forma subjuntivocondicional: "Si para cualquier x ocurriera que Fx, ocurriría que Gx". El
condicional subjuntivo deja abierta la posibilidad de que, de hecho, algo haya
ocurrido, ocurra o vaya a ocurrir, pero entraña nuestro desconocimiento acerca
de si nada de esto es cierto. La condición epistemológica que consiste en saber
que, de hecho, algo no ha sucedido o no sucede, junto con la afirmación de que,
si hubiera sucedido, la ley sería cierta, expresa la creencia de que la ley es cierta
sin restricciones, que adopta la forma de un condicional contrafáctico.
3. Toda ley científica es un enunciado del que no se sabe si es cierto en todos los
casos, pero tal que haya motivos para creerlo racional o justificadamente.
Según el punto de vista realista toda ley es universal, y las relaciones de invarianza que
expresa existen en la naturaleza, independientemente de si se conocen o no y de las
condiciones en que se conozcan. Según otra interpretación de este punto de vista,
cualquier ley científica es una verdad parcial o en perspectiva, relativa a los elementos
de juicio y al marco conceptual en el que éstos sean significativos y, así, las
proposiciones verdaderas con las que se expresan las leyes de la naturaleza serían
objetivamente ciertas, pero nuestro conocimiento de ellas en cualquier instante sería
relativo, y la falibilidad de las leyes de la ciencia residiría, por tanto, en su relatividad.
La postura realista acerca de las leyes supone, pues, que hay enunciados
objetivamente ciertos que son expresión suya, y que las leyes científicas se aproximan
constantemente a ellas, conforme van eliminándose posibles hipótesis o conforme
aumenta el número de elementos de juicio y progresan la crítica y el refinamiento de
métodos.
2.1.2 Nominalismo
Mientras que el realista supone que las leyes de la naturaleza existen en realidad, el
nominalista impugna la opinión de que los universales existan en absoluto. Según el
nominalista, con nuestra experiencia no alcanzamos a conocer universales, sino solo
singulares; después, agrupamos tales casos con arreglo a los rasgos comunes que
apreciamos en ellos, y los universales "existen" sólo en los nombres que utilizamos
para señalar tales rasgos. Los rasgos comunes no existen aparte de los casos
singulares que experimentamos o tienen lugar. El único rango que poseen los
universales es el de los nombres, y estos nombres existen sólo como marcas
singulares empleadas en ocasiones singulares: los universales, por tanto, no existen.
Con respecto a las leyes, esta postura mantendría que existen en la naturaleza sólo en
los casos en que aparezcan ciertos rasgos, y que no hay ligazón universal entre éstos,
excepto en el sentido de que pueden unirse todos bajo una única expresión, que sirve
cómodamente para agruparlos y referirse a ellos.
El nominalismo se presta a interpretar cualquier ley de la ciencia como nada más que
una marca conveniente, que sirve a la comunidad lingüística de medio para denotar o
seleccionar un conjunto de casos. La descripción abreviada conveniente o económica
que tales enunciados legaliformes dan es la única función que éstos desempeñan y, de
este modo, el nominalista tiende a apoyar un enfoque instrumentalista de las leyes y las
teorías, considerándolas sencillamente como adecuadas de ocuparse de la naturaleza,
y no verdaderas ni falsas, como hace el realista.
2.1.3 Conceptualismo
Esta postura es un intento de superar las dificultades de los enfoques realista y
nominalista. Si el nominalista dice que las leyes no son realmente universales, sino sólo
"universales" con respecto a la colección de casos señalados mediante un nombre o
descripción común, y si el realista mantiene que los universales existen o que no son
reales, el conceptualista pone en cuestión ambos punto de vista: ¿quiere decir el
realista que los universales existen aparte de los casos en que se encarnan?. Si es así,
habrá un reino de universales aparte del mundo de hechos particulares, y la relación
entre aquellos y éstos presenta dificultades insuperables. Si, por otra parte, lo único
que existen son hechos singulares, el hecho de su relación pasa a ser un hecho
incomprensible, pues una colección no es mas que una colección, a no ser que haya
alguna relación legaliforme que realmente se cumpla por los singulares. Si el
nominalista mantiene que lo que hace es ordenar los hechos bajo un nombre o marca
convencional, la aportación que lleva a cabo al hacerlo queda encubierta por él mismo
cuando mantiene que esto no es mas que dar nombres, pues, efectivamente, todo
enunciado de relaciones aporta algo que no figura en una simple lista de singulares
acumulados: el descubrimiento de un orden o una relación entre los singulares, o de
aquello en virtud de lo cual se presten a ser agrupados. Esto no se encuentra explícito
en los hechos singulares, no es un universal real que lo ligue, sino que es más bien la
inteligencia, al descubrir la relación, la que efectúa las conexiones, haciendo explícito lo
que estaba implícito en los hechos singulares. El universal se construye en la
inteligencia, o se conceptualiza en calidad de orden revelado por la indagación. El
universal o ley no subsiste independientemente de forma ideal, pero por encontrarse
implícito en las relaciones reales entre los sucesos que constituyen los procesos
naturales, la inteligencia podrá hacer explícitamente consciente esta forma u orden,
emulando o creando una imitación ideal de la naturaleza. La ley representa los
procesos naturales en la forma en que éstos son conocidos por una inteligencia
racional, y las leyes de la ciencia serán, por tanto, la forma en que las leyes de la
naturaleza pasan a ser objetos de la razón o del juicio conceptual. Las leyes de la
naturaleza se realizan en esta actividad conceptual, pero son verdaderas (o falsas)
porque representan (o no representan) adecuadamente las relaciones legaliformes de
la naturaleza y, en consecuencia, no son convenciones, aunque la forma en que se
expresan pueda ser convencional.
De acuerdo con el enfoque realista, un suceso singular se explica mediante una ley en
el sentido de que tal hecho será un caso particular de ella, y podrá demostrarse que "se
sigue" de ella, es decir, el hecho singular posee un lugar en la relación sistemática
expresada por la ley.
Para el nominalista, dado que no hay realidad subyacente tras los hechos, la "ley" es
sólo una descripción abreviada cómoda o un sumario de hechos singulares y, por tanto,
no puede decirse en absoluto que las leyes expliquen.
Para el conceptualista, una ley explica en el sentido de que lo que está implícito en la
experiencia queda en forma consciente y explícita como objeto del entendimiento. La
ley científica explica porque hace darse cuenta o muestra al pensamiento consciente lo
que antes estaba implícito en la experiencia o "en la naturaleza".
2.2 ¿Cómo se expresan las leyes?
2.2.1 Las leyes numéricas
Podemos distinguir, por un lado, las leyes que enuncian relaciones invariantes entre
números, en cuanto propiedades físicas de conjuntos de cosas y, por otro, las
relaciones formales del lenguaje matemático, cuya sintaxis atañe a las relaciones entre
los numerales en su calidad de nombres de los números. De acuerdo con la
interpretación formalista de este lenguaje matemático, se puede construir esta sintaxis
numérica libremente, utilizando cualesquiera juntores (bien definidos) que se quiera
utilizar, con tal que se cumplan ciertas condiciones lógicas, entre las que se
encuentran:
1. Las reglas que delimitan la ambigüedad, para que no se confundan los
numerales unos con otros
2. Las reglas (o normas) de coherencia, para que lo que se construya no conduzca
a teoremas contradictorios
3. Las reglas de formación y transformación, es decir, las reglas para formar las
expresiones significativas y las reglas de inferencia para pasar de un enunciado
a otro.
Suponiendo que la sintaxis sea la del sistema formal de la aritmética, puede decirse
que toda ley numérica es un enunciado universal acerca de una relación de invarianza
entre numerales, enunciado que constará de variables individuales, constantes y
algunos juntores aritméticos. Las leyes numéricas, si se construyen formalmente, en el
sistema formas de los numerales, son fácticamente vacías.
La ley numérica sirve de representación de cualquier número de relaciones entre
cualquier número de entidades que se hayan postulado, con tal que las relaciones
muestren la mínima invarianza. La forma de la ley numérica es tal que a todo valor de
una variable independiente se encuentra asociado un valor (o valores) de una variable
dependiente, de acuerdo con una relación de invarianza que se pone de manifiesto con
la ley.
El empleo de los números en la ciencia se encuentra relacionado con la interpretación
de los numerales como números concretos, es decir, con las propiedades numéricas de
las magnitudes físicas. Cuando se encuentra tal interpretación, cabe esperar que si se
deducen consecuencias numéricas de acuerdo con la ley (que da los valores de las
variables dependientes correspondientes a los valores de las variables
independientes), esto de lugar a hipótesis o predicciones que admitan una
interpretación física, y que puedan, por tanto, comprobarse para ver si las
consecuencias deductivas están de acuerdo con las medidas empíricas.
2.2.2 Las leyes físicas
Si consideramos la ciencia como una ciencia cuantitativa o matemática, cuyos
enunciados de observación son enunciados de medida, la forma de las leyes
numéricas nos dará la forma de las leyes físicas, con la diferencia de que, en éstas, se
considera que los numerales representan propiedades numéricas de magnitudes
físicas tales como la longitud, la carga, la masa, etc.; y, de hecho, lo que consigue la
cuantificación de la ciencia física es precisamente esto, y se gana con ello que, con la
corroboración de las leyes numéricas mediante las interpretaciones físicas, o con la
posibilidad de formalizar las relaciones físicas en términos matemáticos, el inmenso
poder de la inferencia formal y del cálculo matemático queda a disposición del
pensamiento físico, pero el isomorfismo entre las leyes numéricas y las relaciones
numéricas que se descubran entre las magnitudes físicas no está asegurado a priori,
sino que es cuestión que la física ha de descubrir y comprobar constantemente.
2.2.3 Las leyes de la biología y las ciencias humanas
En la biología y las ciencias humanas aparece un tipo distinto de ley que no adopta la
forma de ley numérica y, de hecho, en muchos casos no está claro que la explicación
tenga lugar en forma de "ley" que comprenda casos particulares.
Lo distintivo de las explicaciones biológicas es que son con frecuencia funcionales, en
el sentido de que explican algo sobre la base de las funciones que desempeñe dentro
de un organismo complejo. Las explicaciones biológicas se apoyan en funciones que
son con vistas a un fin, que, a su vez se relaciona con un fin más amplio, y así
sucesivamente; explicación que sólo se obtiene ante el organismo completo, o que
prosigue para estudiar sistemas vivos o sociedades de organismos. Semejantes
explicaciones parecen contestar a la pregunta "¿Para qué sirve x?", o, refiriéndose a un
proceso, "¿Porqué funciona así?"; pero el porqué de las explicaciones biológicas suele
ser un para qué, y es por esto por lo que estas explicaciones han sido llamadas
teleológicas.
Para Lundbberg
El término ley científica puede y debería significar en las ciencias sociales exactamente
lo que significa en cualquiera de las restantes ciencias.
Lundberg define así el concepto de ley científica:
Una ley es: 1) un grupo de símbolos verbales o matemáticos que, 2) designan un
número ilimitado de eventos definidos desde el punto de vista de un número limitado de
reacciones, 3) de tal manera que la realización de las operaciones especificadas
siempre conlleve resultados predecibles dentro de límites mensurables (Lundberg,
G.A., "The Concept of Law in the Social Science", Philosophy of Science, V, 1983, 189203, p. 189)
Lundberg precisa que: (1) se refiere a enunciados generales sobre alguna secuencia
conductual, que (2) requiere que dichas generalizaciones deben ser verificables y
verdaderas, mientras que (3) admite la existencia de grados de verificación. Tras
reconocer que la mayoría de las generalizaciones usadas en las ciencias sociales sólo
satisfacen el primer requisito, el programa de reducción fisicalista de las ciencias
sociales es propuesto:
Todos los fenómenos humanos y culturales están enteramente contenidos en el
cosmos físico y dependen enteramente de transformaciones de energía dentro del
cosmos (ibid., 192)
El objetivo de las ciencias sociales consiste en controlar y medir los factores que
influyen en la conducta social. Y concluye:
Sólo cuando dichas condiciones son conocidas y medidas tenemos una ley científica tal
y como aquí está definida (ibid., 196)
Dray, por su parte, afirma la inadecuación del modelo hempeliano para la explicación
de los hechos históricos, ni aunque fuera en el supuesto de que el recurso a leyes
explicativas fuese únicamente implícito, como sugirió Popper. La propia noción de
explicación es para Dray un concepto pragmático, que no puede ser caracterizado
simplemente sobre la base de propiedades lógico-sintácticas: por eso propuso el
concepto de explicación racional como el adecuado para el caso de la historia. Dicho
tipo de explicación siempre tiene en cuenta la intencionalidad de las acciones
humanas, que implica la necesidad de una comprensión por parte del historiador del
sentido de cada hecho histórico.
La noción de explicación racional ha sido sistematizada ulteriormente por von Wright,
para quien la historia, al igual que otras muchas ciencias sociales y humanas, versa
sobre acciones ineludiblemente intencionales. El análisis del explanandum debe ser
llevado a cabo conforme a reglas diferentes, basadas en una lógica de la acción, y más
concretamente en los silogismos prácticos. Un ejemplo típico de dicho silogismo sería
el siguiente:
A
se
propone
dar
A considera que no puede dar lugar
Por consiguiente, A se dispone a hacer a.
a
lugar
p a menos
a
de
hacer
p
a
Sobre la base de este esquema es posible explicar la racionalidad de las acciones
humanas; sin embargo, no resulta claro que este tipo de racionalidad involucre algún
tipo de ley científica que la sustente. A lo sumo, cabe hablar de una explicación
teleológica, sobre la base del logro de los objetivos propuestos.
Por su parte, Malinowski, en el campo de la antropología, propuso denominar
"funcionales" a las relaciones entre las necesidades humanas (principio regulador de
todas las acciones) y las formas culturales que se desarrollan para satisfacerlos:
La función no puede ser definida de ninguna otra manera más que por la satisfacción
de una necesidad mediante una actividad en la que cooperan seres humanos, usan
artefactos y consumen bienes (Malinowski, B., A Scientific Theory of Culture and Other
Essays, Chapel Hill, 1944, p. 38)
Para lograr objetivos de cualquier tipo, y, por tanto, por razones puramente funcionales,
los seres humanos tienen a organizarse. El concepto explicativo fundamental pasa a
ser el de organización, debido a la radical dependencia de los individuos respecto de
los grupos a los que pertenecen. La noción de institución, y las leyes que la regulan
(caso de haberlas), sería la base de toda explicación racional de las acciones
humanas. Una institución, según Malinowski, tiene seis componentes: su estatuto
fundacional (o propósito), su personal, sus normas, su aparataje material, sus
actividades y su función.
2.2.4 Las leyes históricas
Pueden concebirse de dos maneras:
1. Cabe la posibilidad de decir que una ley es histórica si describe algún proceso o
secuencia de acontecimientos que dependa del tiempo; es decir, si los sucesos
o estados que la ley describe guardan, uno respecto a otro, la relación anterior a
o posterior a, cabe decir que la ley es temporalmente asimétrica o direccional y,
de este modo, todas las leyes cronológicas que sirvan para caracterizas
variaciones ordenadas e irreversibles podrán considerarse como históricas.
2. Puede uno, por otra parte, referirse solo a aquellas leyes que atañen a la historia
como registro de las acciones e instituciones humanas. En este caso, la historia
propiamente dicha se distingue de la mera cronología porque atañe a modo
especial a las acciones humanas, es decir, a aquellas que se distinguen por su
internacionalidad y son acciones de individuos únicos. Aun cuando los procesos
o sucesos que tales leyes históricas describan sean sociales o institucionales
más que personales y biográficos, no son, desde este punto de vista, reducibles
a las leyes históricas que describen la cronología natural, ni siquiera análogos a
ellas.
2.3 La naturaleza de las leyes
Todo análisis satisfactorio de las leyes debe satisfacer dos requisitos. En primer lugar,
el análisis debe mostrar cómo las leyes implican regularidades factuales (IRF); esto es,
el análisis debe tener como consecuencia que de "A implica-nómicamente B" se derive
""x(Ax ® Bx)". En segundo lugar, el análisis debe mostrar cómo las leyes se distinguen
de las meras regularidades factuales (DRF); esto es, el análisis debe tener como
consecuencia que las leyes, y no cualquier generalización verdadera, tienen las
propiedades que distinguen a las regularidades nómicas de las accidentales. Todo
análisis ha de mostrar que no toda regularidad factual es una ley, pero toda ley implica
una regularidad factual.
Las concepciones regularitivistas analizan las leyes como regularidades de cierto tipo.
Una ley es una regularidad verdadera que satisface ciertas condiciones adicionales:
[Reg] A implica-nómicamente B syssdef "x(Ax ® Bx) y g("x(Ax ® Bx)).
g expresa la condición adicional que debe satisfacer la regularidad para ser ley
(condición que a veces se formula como condición sobre el enunciado ""x(Ax ® Bx)").
La idea es sencilla: el análisis satisface (IRF) pues según él toda ley es una
generalización material verdadera, y además puede satisfacer (DRF) pues no toda
generalización material verdadera es una ley, sólo lo son las que satisfacen g. Que se
satisfaga o no efectivamente (DRF) dependerá de que se deriven o no las propiedades
en cuestión (explicatividad, apoyo a contrafácticos, intensionalidad, etc.).
Es común caracterizar los análisis regularitivistas de humeanos, pues Hume fue el
primer defensor explícito de esta concepción. Pero eso es parcialmente confundente
pues la teoría de Hume se caracteriza además, y fundamentalmente, por la tesis según
la cual no hay necesidades en la naturaleza. Dentro de los regularitivistas
distinguiremos, entonces, los que están de acuerdo con esa tesis y los que no. La
diferencia tiene que ver con la condición g. Si la condición g supone la aceptación de
algún tipo de necesidad o modalidad en la naturaleza independiente de nuestro
conocimiento, calificaremos dicho análisis regularitivista de realista. Si, contrariamente,
la condición se da en términos que suponen la tesis antirrealista de Hume, si la única
necesidad a que se apela es una necesidad proyectada por nosotros (nuestro
conocimiento, la ciencia, etc.), lo calificaremos de humeano.
2.3.1 Regularitivismo humeano
Para Hume, g es una condición "epistémico-psicológica", grosso modo: que los casos
pasados observados están de acuerdo con la regularidad y que tengamos la tendencia
de proyectarlos hacia el futuro. Una ley es una regularidad observada que, por hábito y
otros mecanismos psicológicos, proyectamos hacia el futuro, esperamos que continúe
igual.
Un intento de defender esta posición sin apelar tan inmediatamente a elementos
psicológicos o epistémicos es el de Hempel. Hempel pretende dar una caracterización
de las leyes como cierto tipo de regularidades sin recurrir a una supuesta necesidad en
la naturaleza, pero sin recurrir tampoco explícitamente a condiciones epistémicas. Este
autor considera leyes los enunciados generales mismos y no lo que ellos expresan.
La idea de Hempel es que g imponga constricciones sintácticas y semánticas,
aproximadamente las siguientes: que el enunciado general no contenga esencialmente
términos singulares y que los predicados sean predicados cualitativos puros, esto es,
que no encubran referencias implícitas a particulares. El problema de esta estrategia es
que no da cuenta de la diferencia entre pares de regularidades como las ejemplificadas
por
1. Todas las esferas de uranio tienen menos de 1 km de radio
2. Todas las esferas de oro tienen menos de 1 km de radio
Estas dos regularidades no se diferencian por ningún hecho sintáctico ni semántico y
sin embargo una es accidental (2) y la otra nómica (1). Por tanto, ninguna
caracterización de g en términos exclusivamente sintácticos y semánticos sirve para la
distinción.
En la línea humeana, si no se quiere apelar a necesidades naturales parece que no hay
más alternativa que recurrir a condiciones epistémicas de aceptación e integración
teórica. En este caso, g contiene sólo referencias al uso que hace la comunidad
científica; es dicho uso el que constituye la regularidad en ley. La idea básica es que la
diferencia entre generalizaciones nómicas y accidentales no reside en los hechos sino
en la actitud de quienes las exponen o en el modo en que se utilizan; no es que
usemos una regularidad para explicar y predecir por qué es una ley, sino que la
regularidad es una ley porque la usamos para explicar y predecir. Una ley es, pues, una
regularidad (presuntamente verdadera) que forma parte del corpus científico, que
pertenece a alguna de las teorías con las que explicamos y predecimos.
La principal dificultad de los humeanos es la objetividad. Si por objetividad se entiende
que la diferencia entre leyes y regularidades meramente fácticas es independiente de
nuestro sistema de conocimiento, obviamente no pueden explicar la objetividad de las
leyes. Su tesis central es justamente que no son objetivas en ese sentido, y acusarles
de ello es, en su opinión, viciar la cuestión pues es precisamente eso lo que está en
juego. Pero esto no quiere decir que las leyes sean "inventadas" o que no se
"descubran". En tanto que regularidades, son verdaderas o falsas dependiendo del
mundo, independientemente de nuestro conocimiento. En este sentido son
descubribles y objetivas. Lo que no es objetivo, lo que depende de nuestro
conocimiento, es qué regularidades verdaderas son leyes.
En su versión más simple esta concepción tiene una consecuencia que parece
claramente contraintuitiva. Si
a. las leyes son las regularidades articuladas entre sí dentro del sistema teórico y
b. el sistema teórico es el conjunto de teorías actualmente aceptadas por la
comunidad científica, entonces
c. la diferencia entre leyes y regularidades puede variar de una comunidad a otra o,
dentro de una misma comunidad, variar con el tiempo. Las leyes naturales
serían mutables. No se trata de nuestras creencias sobre ellas, que son
indudablemente cambiantes, sino que las leyes mismas serían cambiantes. Hoy
la naturaleza estaría regida por una ley y quizá mañana no. Los humeanos que
no están dispuestos a aceptar esta consecuencia rechazan (b). El sistema
teórico en relación al cual algunas regularidades se constituyen en leyes no es el
actual, sino "el" sistema teórico ideal, el correspondiente al estado de la ciencia
en condiciones epistémicas ideales o, como se suele decir, a "la ciencia del
Séptimo Día". Las leyes son las regularidades que pertenecen al mejor conjunto
de teorías, al sistema epistémicamente ideal, y por tanto no cambian con el
tiempo, siempre han sido, son y serán las mismas.
Casi todos los que apelan al sistema teórico ideal coinciden en entender por tal "el"
sistema que mejor combina simplicidad y fuerza (adecuativa). Para hacer precisa esta
idea, y que sirva a la función para la que se recurre a ella, se requieren dos
condiciones. En primer lugar, fijado un lenguaje, dar criterios de simplicidad y fuerza
que sean aplicables y que no varíen de una comunidad a otra o, en una misma
comunidad, de un momento a otro. En segundo lugar, dar un criterio para sopesar
simplicidad y fuerza que permita, en la comparación de cualesquiera dos sistemas por
su "simplicidad + fuerza", determinar cuál es el mejor, un criterio que además no varíe.
2.3.2 Regularitivismo realista
El anterior programa se encuentra con una dificultad aparentemente insalvable si
permanece fiel al principio humeano de no recurrir a constricciones externas al
conocimiento. La dificultad se deriva de la relatividad de los criterios a un lenguaje
dado, pues afecta esencialmente la evaluación de la simplicidad comparada. Si en
lugar de usar unos predicados (por ejemplo "verde" y "azul") usamos otros (por ejemplo
"verdul" y "acerde"), un sistema muy simple se puede convertir en uno muy complejo y
viceversa. Supuesto que se dé con un criterio universal de simplicidad, al comparar dos
sistemas, el criterio puede dar resultados opuestos según formulemos los sistemas en
un lenguaje u otro. Por tanto, caso de que existan tales criterios, sólo se garantiza que
seleccionan un único sistema si se fija un lenguaje. Un modo de solventar esta
dificultad es abandonar el humeanismo y aceptar constricciones externas al
conocimiento, esto es, aceptar algún tipo de necesidad o distinciones objetivas en la
naturaleza en relación a las cuales fijar el lenguaje. Esto es lo que hace D. Lewis.
Lewis analiza la causalidad en términos de contrafácticos, éstos en términos de leyes
(y de historias parciales de mundos posibles) y define las leyes como las regularidades
verdaderas que pertenecen al sistema que mejor maximiza simplicidad y fuerza. Pero
para resolver la crítica mencionada termina aceptando una constricción externa: la
comparación de sistemas es relativa "al" lenguaje cuyos predicados son "naturales",
esto es, predicados que denotan propiedades (clases, géneros) naturales; y acepta la
distinción entre propiedades naturales y no naturales como una distinción primitiva y
objetiva por completo independiente de nuestro conocimiento, es una distinción que
radica exclusivamente en la naturaleza. En este sentido, Lewis ya no es humeano pues
acepta que la distinción entre regularidades nómicas y meramente fácticas descansa
en última instancia, a través de las clases naturales objetivas, en la naturaleza; la
necesidad natural no es algo proyectado por nuestro conocimiento.
2.3.3 Necesitativismo
Según esta concepción, la necesidad nómica descansa en algún tipo de distinción
objetiva que "está en la naturaleza". Para el necesitativista las leyes no son
generalizaciones, las leyes consisten en relaciones singulares entre universales o
propiedades naturales.
Los particulares son susceptibles de estar en ciertas relaciones, unas independientes
de nosotros y otras no. Según esta concepción, los universales, que existen
independientemente de nosotros, también pueden estar en ciertas relaciones. Para el
necesitativista cada ley natural es un caso concreto de cierta relación objetiva que se
da entre algunos universales independiente de nuestro conocimiento. Si usamos "Þ"
para denotar esta relación, podemos expresar este análisis del siguiente modo:
[Nec] A implica nómicamente B syssdef A Þ B
Todo análisis ha de partir de algunos primitivos y la cuestión es si su articulación con el
resto de las nociones logra la finalidad pretendida. En este caso, la cuestión es si este
análisis satisface, al menos, IRF y DRF. En cuanto a DRF, es sencillo ver que
efectivamente se obtienen las propiedades deseadas en las leyes. La relación Þ es
objetiva e intensional: se da o no entre ciertos universales independientemente de
nuestro conocimiento; y si se da entre universales concretos A y B no tiene por qué
darse también entre otros coextensivos con ellos. El resto de las propiedades se
obtienen inmediatamente pues contrafácticos, explicación, confirmación y predicción se
suelen caracterizar en esta concepción en términos de leyes. La dificultad mayor radica
en IRF, en explicar por qué el que se dé la relación entre el universal A y el universal B
tiene como consecuencia que todo particular que ejemplifica A también ejemplifica B.
Tras esta acusación se encuentra la vieja crítica de Hume según la cual ese tipo de
entidades (supuestas causas o necesitaciones "en la naturaleza") son empíricamente
incontrastables y, con ello, inútiles para explicar el desarrollo de nuestro conocimiento y
en ese sentido superfluas. La idea es que los enunciados ""x(Ax ® Bs)" y "A Þ B"
(suponiendo que se satisface IRF y por tanto que el segundo implica el primero) son
empírica o contrastacionalmente equivalentes. Toda experiencia que confirma uno
confirma el otro y viceversa. Por tanto, lo que de más contiene el segundo, a saber,
referencias a supuestas necesidades en la naturaleza, es empíricamente
incontrastable; la supuesta necesitación no se manifiesta en la experiencia más que
como regularidad funcional. Apelar a cosas del segundo tipo no ayuda en absoluto a la
hora de dar cuenta de la práctica científica. Por tanto, por lo menos desde el punto de
vista del análisis de la práctica científica, esas supuestas entidades son para el
humeano perfectamente prescindibles.
2.4 Características de las leyes científicas
2.4.1 Generalidad pura e irrestricción
A veces se ha propuesto que las leyes, a diferencia de las generalizaciones
accidentales, no pueden contener referencia alguna (ni implícita ni explícita) a objetos
particulares, lugares o momentos específicos, esto es, deber ser puramente generales.
Si embargo, esta condición es excesiva, pues excluye leyes claramente aceptadas
como tales, por ejemplo, las de Kepler, que hacen referencia al Sol. La respuesta es
aceptar algunas de estas generalizaciones no puras como leyes si son derivables de
otras puras; a éstas se las considera las leyes fundamentales y a aquéllas leyes
derivadas. Pero esta estrategia no es viable por dos motivos, uno histórico y otro lógico:
primero, las leyes de Kepler eran consideradas leyes genuinas antes de la existencia
de las leyes fundamentales de las que se derivan (las leyes de Newton); y segundo, es
obvio que de generalizaciones puras solas no se pueden derivar generalizaciones no
puras, hacen falta además afirmaciones particulares pues las generalizaciones no
puras hablan implícitamente de objetos particulares.
Una condición con espíritu semejante, pero más débil, es que la generalización sea
irrestricta. Tanto las leyes de Kepler como por ejemplo la generalización accidental
"Todos los tornillos del auto de Pedro, a mediodía del Año Nuevo de 1990, están
oxidados" contienen referencia a particulares. La diferencia radica en que el ámbito de
aplicación de la segunda está restringido a una región espaciotemporal y el de la
primera no, pues aunque los planetas estén de hecho en determinada región ello no
está presupuesto por la ley. Pero esta condición sigue siendo parcialmente
insatisfactoria. En primer lugar, es discutible que no pueda haber leyes genuinas que
involucren esencialmente regiones espaciotemporales particulares. Y, en segundo
lugar, muchas generalizaciones accidentales satisfacen esa condición.
2.4.2 No vacuidad
Las leyes, a diferencia de las generalizaciones accidentales, no pueden ser
vacuamente verdaderas. Ahora bien, tampoco esta condición es clara, pues las leyes
genuinas contienen a menudo idealizaciones; por ejemplo, superficies sin fricción o
espacio vacío, que pueden no ser nunca satisfechas. Por otro lado, tampoco es
plausible aceptar como
consecuencia de una ley.
ley
cualquier
generalización
vacuamente
verdadera
2.4.3 Confirmación
Las regularidades nómicas (leyes) se consideran confirmadas por sus instancias, las
accidentales no. Si la regularidad es una ley, la constatación de instancias particulares
se acepta como confirmación de la ley; eso sí, conformación parcial, y tanto mayor
cuanto mayor sea el número de instancias constatadas.
En la medida en que una generalización se considere nómica, se estará dispuesto a
considerarla confirmada (en cierto grado) a través de sus instancias concretas. Si la
generalización es considerada accidental, "hasta la última instancia" no podemos decir
nada, ni siquiera de grado (por ello, si hay generalizaciones accidentales cuyo
antecedente se aplica a un número infinito de objetos, tales regularidades son
inconfirmables por principio).
2.4.4 Explicación
Las leyes son explicativas, las regularidades accidentales no.
2.4.5 Causalidad
A veces se ha sugerido que la legalidad-nomicidad descansa en la causalidad. En las
regularidades nómicas hay una relación causal entre las condiciones antecedentes y
consecuentes. Esta condición tiene una interpretación débil y otra fuerte. La
interpretación fuerte es que toda ley contiene explícitamente elementos causales. Así
interpretada es claramente incorrecta. Hay leyes genuinas que no son causales en este
sentido fuerte. En su interpretación débil, afirma que toda ley que no sea directamente
causal se subsume en, o deriva de, otras que sí lo son. Si ello significa que no se
consideran leyes sin disponer de tal derivación, sigue siendo incorrecto, pues aunque,
por ejemplo, las leyes de Kepler recibieron un fuerte respaldo al derivarlas Newton de
su sistema, fueron consideradas leyes perfectamente legítimas antes de que Newton
desarrollara su mecánica. Se puede debilitar todavía más y decir que las leyes no
causales son "en principio" o "en última instancia" derivables de leyes causales. Pero
esto sólo se puede defender proporcionando una teoría sustantiva y muy específica de
la causalidad, discutible filosóficamente.
2.4.6 Apoyo a contrafácticos
Si bien es dudoso que las leyes son siempre causales, no lo es que siempre suponen
cierto tipo de necesidad entre las propiedades involucradas. Este elemento de
necesidad es sobre el que descansa un tipo específico de modalidad, la nómica. Las
leyes son esencialmente modales. Una de las manifestaciones de su naturaleza modal
es que soportan o apoyan cierto tipo específico de afirmaciones modales, las
afirmaciones condicionales contrafácticas.
Un condicional contrafáctico, o subjuntivo, es una afirmación del tipo "si hubiera
ocurrido a, habría ocurrido b", o "si ocurriera a, ocurriría b". Las leyes dan apoyo a este
tipo de expresiones.
Es este hecho de afirmar situaciones contrafácticas el que está detrás de las
diferencias entre la predicción y la explicación. La predicción no es más que la
aplicación de un contrafáctico en el que el antecedente puede no haberse dado todavía
pero se dará. Si una ley explica es justamente porque contiene el elemento de
modalidad expresado en el contrafáctico que apoya. Incluso si una ley "todos los A son
B" es tal que la condición antecedente nunca se da de hecho, sigue siendo cierto que si
se diera tal condición, se daría también la condición consecuente.
Según esto, no hay especial problema en que una ley sea vacuamente verdadera
contemplada como generalización condicional material, pues lo que importa es su
aspecto modal, que no queda explícito si se la contempla así. En realidad, es
inadecuado contemplar las leyes como siendo sólo generalizaciones materiales. Lo
correcto es decir que implican generalizaciones materiales, pero entonces es claro que
el que la generalización material implicada sea vacuamente verdadera no tiene por qué
afectar a la ley. El núcleo de la cuestión es que si "Todos los A son B" es una ley,
entonces esta generalización contiene esencialmente un elemento modal; es una
generalización material "con algo más" y ese algo más es de carácter modal.
2.4.7 Intensionalidad
La capacidad de las leyes de apoyar contrafácticos es la expresión más manifiesta de
su carácter modal. Otra manifestación especialmente clara de la modalidad de las leyes
es su intensionalidad. Cierta característica aplicable a afirmaciones es extensional si
siempre se preserva al sustituir un atributo por otro coextensional; si alguna de estas
sustituciones coextensionales modifica la característica entonces decimos de ella que
es intensional. En términos lingüísticos: el operador correspondiente a dicha
característica es extensional si el enunciado que contiene dicho operador preserva el
valor veritativo tras una sustitución tal; es intensional en caso contrario, esto es, si no
vale la sustitutividad salva veritate de expresiones coextensionales.
La nomicidad (legalidad) es una característica intensional. El operador de modalidad
genera contextos intensionales: en los enunciados del tipo "es una ley que todos los A
son B" no rige la sustitutividad salva veritate de expresiones coextensionales: la
sustitución, por ejemplo, de 'A' por otro predicado coextensional 'C' puede modificar su
valor veritativo (entiéndase bien, puede variar el valor veritativo del enunciado "es una
ley que todos los A son B", no el del enunciado "todos los A son B"). El valor veritativo
se altera justamente cuando la coextensionalidad de los atributos no es nómica sino
accidental, esto es, cuando la regularidad bicondicional "Todo es A si y sólo si es C" es
meramente fáctica.
2.4.8 Proyectabilidad y clases naturales
Una regularidad observada es proyectable si estamos justificados a proyectarla hacia el
futuro. Así, por ejemplo, todas las esmeraldas observadas hasta la fecha son verdes y
parece que podemos proyectar esta regularidad: las futuras esmeraldas que se
observen serán verdes. Goodman mostró que esta cuestión es más complicada de lo
que parece. Digamos que algo es "verdul" syss es observado antes del año 2000 y
verde, u observado después del año 2000 y azul. Tenemos entonces otra regularidad
observada, a saber, que todas las esmeraldas observadas hasta la fecha son verdules,
y sin embargo parece que ésta no se puede proyectar. O, en otros términos, parece
que la experiencia observada permite confirmar la regularidad "Toda esmeralda es
verde" pero no "Toda esmeralda es verdul". La cuestión es por qué.
Una posible respuesta a este problema es decir que verde es proyectable y verdul no
porque verde interviene en leyes mientras que verdul no. Pero si definimos los atributos
proyectables como aquellos que intervienen en leyes, entonces el problema es
especificar qué distingue a las leyes. Una posibilidad a la que se suele recurrir es
distinguir entre clases (géneros, atributos, propiedades) naturales y clases no
naturales. Podemos agrupar las cosas en las clases que queramos, pero no todas esas
agrupaciones corresponden a divisiones en la naturaleza. Podemos formar una clase
con los objetos verdules, o quizá otra con objetos que son caballos o pinos, pero estas
colecciones no corresponden a divisiones objetivas en la naturaleza. Contrariamente, y
según los defensores de las clases naturales, la clase de los objetos verdules, o la de
los caballos, o la de las moléculas de agua, sí son clases naturales. Pues bien, la idea
es entonces que las leyes sólo deben involucrar clases naturales, con lo que se termina
identificando las propiedades proyectables con las naturales. Sin embargo, esta
condición parte de nociones, como la de clase natural, que requieren tanta elucidación
como la noción misma de ley, por lo que no se puede tomar como condición
intuitivamente exigible a las leyes sino como alternativa (debatible) para un análisis
filosófico sustantivo de las leyes. Una de sus principales dificultades es afrontar el
problema de la implicación lógica: si las consecuencias lógicas de leyes son leyes,
entonces dadas dos leyes "Todo A es B" y "Todo C es D" también será una ley "Todo A
o C es B o D", pero no siempre que A y C (o B y D) son clases naturales su unión
también lo es.
3. Teorías
El objeto de la ciencia es penetrar más allá de lo inmediato y lo visible, establecer
relaciones para colocar los fenómenos observables en un nuevo y más amplio
contexto, pues sólo una pequeña parte del mundo físico se revela ante nosotros de
modo directo. La suprema función de una teoría es ayudarnos a captar la imagen
completa de este mundo físico. En su nivel más simple una teoría nos ayuda a
interpretar lo desconocido en términos de lo ya conocido. Es un esquema conceptual
que inventamos o postulamos para explicarnos a nosotros mismos, y a los otros, los
fenómenos que observamos, y las relaciones que existen entre ellos, para reunir de
este modo, en una estructura única, conceptos, leyes, principios, hipótesis, y
observaciones provenientes a menudo de campos muy diversos.
Las teorías y las hipótesis difieren solamente en el grado de generalidad. Así, tenemos
por un lado la hipótesis de trabajo limitada, por la cual nos guiamos en una experiencia
determinada, y por otro, con teoría general, que nos guía en el diseño e interpretación
de toda clase de experiencia de aquel campo de estudio.
Para que una teoría sea considerada como tal, ha de cumplir al menos tres funciones.
1. Una teoría sirve, generalmente, para relacionar hechos independientes en un
esquema mental lógico y fácilmente asequible. Una teoría fructífera no sólo
explicará las leyes que abarca dentro de su marco de acción, sino que también
mostrará donde y porqué estas leyes no son válidas en la práctica.
Además, una buena teoría nos permite captar, recordar y deducir un gran
número
de
hechos
que
de
otro
modo
resultan
evasivos.
Las teorías simples de la física están, a menudo, basadas en modelos
mecánicos; pero no por ello todos los esquemas conceptuales de la ciencia han
de reducirse a tales modelos; es más, una fe demasiado firme en un modelo
mecánico puede ser un obstáculo serio para el progreso de la ciencia.
2. Una teoría, o hipótesis, sea general o limitada, debe sugerir nuevas relaciones
que presenten a la imaginación la trabazón hasta entonces insospechada, entre
hechos antiguos y nuevos, y que extiendan los antiguos horizontes. Con
respecto a este punto, Popper afirmaba que lo verdaderamente interesante de
una teoría científica no es que sea verdadera o falsa, aunque esto también sea
importante, sino que lo verdaderamente importante es que plantee problemas
nuevos y desconocidos, pues la resolución de estos problemas nuevos
redundará en un aumento de nuestro conocimiento de la naturaleza, y toda
teoría científica a lo que en definitiva tiende es a aumentar nuestro conocimiento
de la naturaleza. Una teoría falaz, si se sigue amplia y activamente, puede
conducir a observaciones claves necesarias para una teoría mejor, pues, como
decía Bacon, «la verdad surge más fácilmente del error que de la confusión».
3. Una teoría que se precie de tal debe predecir nuevos fenómenos observables y
solucionar problemas de carácter práctico. Este tercer punto es esencial por dos
razones:
a. El que la teoría prediga hechos observables nos da un método efectivo
para comprobarla en la práctica; en efecto, al contrastar
experimentalmente los hechos predichos por la teoría, si estos se ven
confirmados, la teoría queda corroborada, mientras que si no es tal el
caso, la teoría queda, o al menos una parte de ella, refutada.
b. b) Las teorías científicas pretenden ser omniabarcantes, lo cual quiere
decir que intentan explicar una parcela de la realidad lo más amplia
posible, y una teoría será tanto más completa cuanta más parcela de la
realidad explique. Ahora bien, hay dos tipos de explicación, una
explicación a priori y una explicación a posteriori. Cuando un hecho
experimental observado es explicado a priori ello nos indica que la teoría
era lo suficientemente completa como para incluirlo dentro de sí antes
incluso de haberlo observado, mientras que si este mismo hecho es
explicado a posteriori esto nos indica que la teoría en su primitiva
formulación no era lo suficientemente completa, y que es necesario ir
retocándola poco a poco según avanza nuestro conocimiento
experimental de la realidad.
4. Otro requisito básico de una teoría científica es el de la simplicidad; en efecto, la
mejor entre dos teorías rivales resulta ser la más simple en el sentido de que
requiere menos hipótesis o supuestos básicos. Tales teorías sobreviven a causa
de la economía de pensamiento que supone su adopción. Una teoría que
requiera hipótesis o mecanismos distintos para explicar cada hecho, no es sino
una tautología elaborada y estéril.
5. Idealmente, las hipótesis deben ser plausibles, incluso aunque no estén sujetas
inmediatamente a ensayo; y la teoría en conjunto no debe estar en conflicto con
las ideas en boga. Si esto no ocurre así, la teoría puede enfrentarse,
frecuentemente, con una recepción tormentosa y hostil y ha de someterse a un
largo y cuidadoso escrutinio antes de su general aceptación.
¿Porqué una teoría ha de ser razonable y estar de acuerdo con las ideas en
boga de la época en que surge? Porque las grandes ideas revolucionarias
(Copérnico, Darwin, Einstein) surgen raras veces comparadas con el gran
número de ideas fructíferas y aptas para trabajar, concebidas dentro de un
marco
tradicional.
Además, cuando una teoría revolucionaria surge, raramente tiene demasiados
hechos empíricos a su favor y, además, suele tener algunos hechos, empíricos y
de sentido común, en su contra, de modo que si esta nueva teoría triunfa es por
culpa de la constante propaganda que de ella hacen sus nuevos - pocos al
principio, y más a medida que pasa el tiempo - partidarios, y porque sus
enemigos van muriendo poco a poco. Max Planck escribió: «Una innovación
científica importante raramente se desarrolla gradualmente venciendo y
convirtiendo a sus oponentes: raramente sucede que Saulo se convierta en
Pablo. Lo que sucede es que los oponentes van muriendo y la nueva generación
ya está, desde el principio, habituada a las nuevas ideas: otro ejemplo de que el
futuro pertenece a la juventud» (Max Planck: La filosofía de la física)
6. Una buena teoría ha de ser lo suficientemente flexible para desarrollarse y sufrir
las modificaciones precisas.
3.1 La concepción axiomática de las teorías
3.1.1 Teorías axiomáticas
Según cierta noción de teoría, una teoría es un conjunto de afirmaciones sobre un
determinado ámbito de la realidad. Concebidas de este modo, las teorías se analizan o
reconstruyen como teniendo cierta estructura que expresa las relaciones que
mantienen entre sí las diversas afirmaciones y los diversos términos o conceptos con
los que se realizan tales afirmaciones. La noción formal que expresa esa estructura es
la de cálculo axiomático o, simplemente, teoría axiomática, y se aplica por igual a
teorías empíricas y a teorías puramente formales.
3.1.1.1 Cálculos y teorías axiomáticas: términos primitivos, axiomas y teoremas;
definiciones y términos derivados
La idea básica es que una teoría o conjunto de afirmaciones se puede "resumir" o
"concentrar" en algunas de sus afirmaciones, de las que se derivan todas las restantes
mediante un proceso de inferencia inductiva. A las afirmaciones que forman parte de
ese "conjunto-resumen", consideradas primitivas, se las denomina "axiomas", y a las
afirmaciones que se deducen de los axiomas, consideradas derivadas, se las denomina
"teoremas". Si llamamos contenido de una teoría al conjunto de todas sus afirmaciones,
entonces tal contenido se encuentra ya completo, aunque implícito, en los axiomas. El
contenido de la teoría, la información que da, es por tanto el conjunto de consecuencias
lógicas de los axiomas. Los teoremas no contienen información nueva, sólo hacen
explícita la información contenida implícitamente en los axiomas. Para que esto sea así
es preciso que de los axiomas en cuestión se sigan efectivamente todas las
afirmaciones de la teoría, o sea, que el conjunto de axiomas sea suficiente, o completo.
Al axiomatizar una teoría se pretende dar con un conjunto de axiomas para ella. Ésta
es pues una condición necesaria para una buena axiomatización.
La anterior condición, aunque necesaria, no es suficiente. Que de los axiomas se
obtengan todas las afirmaciones no basta para una buena axiomatización, pues de lo
contrario el simple conjunto de todas las afirmaciones sería ya un buen conjunto de
axiomas. De tal conjunto se obtienen efectivamente todas las afirmaciones; es, si se
quiere, un conjunto de axiomas, pero no es un buen conjunto de axiomas pues viola el
espíritu que inspira la axiomatización, a saber, dar una versión lo más "resumida" o
"concentrada" posible de la teoría. Así pues, es un principio metodológico general que
los axiomas han de constituir un conjunto mínimo de afirmaciones primitivas, ningún
axioma debe ser deducible de los restantes; los axiomas deben ser independientes
entre sí. Un buen conjunto de axiomas para una teoría es un subconjunto de sus
afirmaciones que sea completo y cuyos miembros sean independientes entre sí. Estas
condiciones no determinan un único subconjunto de tales afirmaciones. Dada una
teoría (en sentido intuitivo), siempre hay más de un subconjunto completo e
independiente de afirmaciones, siempre hay axiomatizaciones alternativas.
Los términos de una teoría, los constituyentes de sus afirmaciones, expresan el aparato
conceptualizador de la teoría, esto es, el aparato con el que se pretenden capturar las
entidades de diverso tipo que conforman el ámbito de la realidad del que se ocupa la
teoría. La introducción de nuevos términos a partir de otros anteriores supone la
entrada en juego de otro tipo de "afirmaciones" o enunciados, las definiciones, pues
sólo mediante enunciados (o esquemas de tales) es posible explicitar el modo en que
se introduce un término nuevo a partir de otros anteriores. Las definiciones siempre
tienen la forma de una equivalencia del tipo:
(1) "a(t(x1, ..., xn)) syssdef b(t1, ..., tk, x1, ..., xn)" (n ³ 0, k ³ 1)
Aquí t es el nuevo término y t1, ..., tk, son términos ya disponibles, esto es, términos
primitivos o ya definidos con anterioridad a t; n indica el número de variables a las que
se aplica el término, esto es, su aridad; a y b son funciones proposicionales. Hay
también términos singulares y functores que nombran, respectivamente, a individuos y
a funciones-operaciones entre individuos. Las definiciones de términos singulares y de
functores no se ajustan a la forma (1) sino a estas otras:
(2)
"t =def g(t1, ..., tk)" para términos singulares, y
(3) "t(x1, ..., xn) =def g(t1, ..., tk, x1, ..., xn)" para functores (n-ádicos),
donde en ambos casos la parte derecha "g(...)" es una descripción que usa otros
términos ya disponibles. Sin embargo, estas definiciones se pueden expresar también
mediante una equivalencia de la forma (1), esto es, respectivamente, mediante:
(2')
"para todo z: z = t syssdef z= g(t1, ..., tk)",
(3') "para todo z: z = t(x1, ..., xn) syssdefinición z= g(t1, ..., tk, x1, ..., xn)".
Las definiciones no son afirmaciones del mismo tipo que los axiomas y los teoremas,
no son afirmaciones sustantivas de la teoría sino que expresan meras abreviaturas
notacionales. Esto se expresa diciendo que las definiciones deben cumplir dos
requisitos: han de ser
a. Eliminables. Cualquier afirmación que contenga un término definido ha de poder
eliminarse usando la definición que introduce dicho signo; esto es, con ayuda de
la definición se debe poder probar que tal afirmación es equivalente a otra que
no contenga dicho signo, y en última instancia, si eliminamos los otros signos
definidos previamente, equivalente a otra afirmación que contenga sólo signos
primitivos.
b. No creativas o inocuas. Si tenemos una afirmación que involucra el término
definido t cuya prueba recurre, además de a los axiomas y otras definiciones
previas, a la definición de t, su afirmación equivalente resultante de eliminar t ha
de poder probarse sin recurrir a la definición de t, y si se han eliminado todos los
términos definidos, ha de probarse a partir de los axiomas solos. En caso
contrario la presunta definición contendría subrepticiamente información
sustantiva, no sería una mera abreviatura terminológica. Las definiciones son
pues prescindibles, todo lo que se dice con su ayuda puede decirse sin ella.
Ahora bien, aunque las definiciones son teóricamente superfluas, no lo son en la
práctica de la construcción y aplicación de una teoría; para teorías de un mínimo
de complejidad conceptual y fuerza expresiva, el prescindir totalmente de
definiciones haría a éstas inmanejables y prácticamente incomprensibles. Las
definiciones poseen un gran valor de "economía intelectual" en la construcción
de las teorías.
3.1.2 Caracterización
interpretados
general
de
las
teorías
empíricas
como
cálculos
Según los primeros análisis que se hicieron del concepto de teoría empírica, una teoría
empírica es un cálculo interpretado, donde por "cálculo" se entiende un cálculo o teoría
axiomática.
3.1.2.1 Teorías formales y teorías empíricas
Según la posición dominante en filosofía de las ciencias formales, los axiomas del
formalismo abstracto son lo único que interviene en la caracterización de las entidades
"de las que habla" una teoría matemática; qué cosas son esas de las que pretendemos
hablar al usar los términos de la teoría es algo que depende únicamente de los
axiomas, las entidades en cuestión son cualesquiera de las que los axiomas sean
verdaderos. A veces se expresa esto diciendo que los axiomas caracterizan las
entidades de la teoría o, también, que definen implícitamente los términos primitivos.
Los axiomas "definen" implícitamente los términos primitivos en el sentido de que ellos
son los únicos elementos constitutivos del significado de los términos; cualquier
estructura que sea modelo de los axiomas es una interpretación admisible de los
mismos; esto es, los constituyentes de cualquiera de tales estructuras son
interpretaciones admisibles de los términos con que se formulan los axiomas.
Mientras que en las ciencias formales parece razonable, o al menos defendible, la tesis
de que las entidades a las que la teoría se refiere son cualesquiera de las que sean
verdaderas los axiomas, ella es totalmente inaceptable aplicada a las ciencias
empíricas. Por ejemplo, si los principios de la mecánica newtoniana, formulados con
términos como "partícula", "masa" y "fuerza", fuesen por causalidad verdaderos de los
ángeles, su "cantidad de espiritualidad" y sus "afinidades", no por ello diríamos que
ésas son cosas de las que habla la teoría mecánica, no diríamos que son sistemas
mecánicos. La idea de que los términos de la mecánica se refieren a cualesquiera
entidades que satisfagan el formalismo abstracto es claramente inaceptable. El motivo
es que, a diferencia de las ciencias formales donde esa idea es cuando menos
discutible, las teorías empíricas tienen, además de las constricciones derivadas del
sistema axiomático abstracto, otras constricciones derivadas de su vinculación con el
mundo físico-natural, o mejor dicho, con algún aspecto científico del mismo del que
pretenden dar cuenta.
Aceptando esta peculiaridad de las teorías empíricas, ¿cómo se debe recoger este
hecho específico en el análisis de las mismas? La respuesta parece inmediata:
incluyendo, junto con el sistema axiomático abstracto, otro elemento que exprese la
conexión de dicho formalismo con "situaciones de la experiencia" en las que
interactuamos o "contactamos" con el mundo físico. La articulación específica de esta
respuesta que se impondrá en la Concepción Heredada es que esas situaciones de
experiencia en las que se da el contacto básico con el mundo físico son situaciones de
observación directa de fenómenos físicos.
3.1.2.2 Cálculos interpretados: vocabulario; axiomas y reglas de correspondencia
Cada teoría científica está conformada por un cálculo axiomático abstracto y otro
componente que conecta las expresiones de dicho cálculo abstracto con situaciones de
la experiencia entendidas como situaciones de observación directa. Este segundo
elemento está conformado por enunciados que vinculan los términos del sistema
axiomático con términos observacionales que refieren a objetos, propiedades o
relaciones directamente observables. A esos "enunciados conectores" se les ha
denominado de varios modos: reglas de correspondencia, definiciones coordinativas,
enunciados interpretativos, postulados de significación, diccionario o definiciones
operacionales. Su función es proporcionar interpretación empírica al cálculo axiomático
que por sí mismo está vacío de contenido empírico. Las teorías empíricas son pues
cálculos axiomáticos interpretados empíricamente a través de esos enunciados que
conectan los términos del formalismo con situaciones de observación directa.
Las teorías empíricas dan cuenta de fenómenos empíricos postulando ciertas
entidades o procesos gobernados por ciertas leyes; esas entidades postuladas no
están directamente dadas en la observación, están "alejadas" de la experiencia
observable, contrariamente a los fenómenos de los que pretenden dar cuenta,
directamente accesibles a la observación. La teoría introduce nuevos términos para
referirse a esas entidades y procesos no observables. Diremos de esas entidades que
son entidades teóricas y de los términos introducidos para referirnos a ellas que son
términos teóricos.
Podemos dividir el conjunto de expresiones o vocabulario V de una teoría en tres
partes.
1. Términos puramente lógico-matemáticos. Éste es el vocabulario formal VF de la
teoría
2. Términos observacionales. Éste es el vocabulario observacional V O de la teoría,
esto es, el vocabulario que se refiere a entidades directamente observables y a
propiedades y relaciones entre ellas directamente observables.
3. Términos teóricos. Éste es el vocabulario teórico V T de la teoría, esto es, el
vocabulario que se refiere a entidades, propiedades y relaciones no
directamente observables postuladas para dar cuenta de los fenómenos.
Si llamamos vocabulario descriptivo VD al vocabulario no meramente formal de apoyo,
tenemos V = VF È VD, VD = VO È VT, VF Ç VD = Æ y VT Ç VO =Æ.
Toda afirmación de la teoría contiene vocabulario formal, pero no sólo vocabulario
formal, también contiene términos descriptivos. Por tanto, los enunciados de las teorías
científicas pueden ser de tres clases:
1. Enunciados (puramente) teóricos. Contienen como vocabulario descriptivo
únicamente términos teóricos. De entre ellos se seleccionan algunos como
axiomas o postulados primitivos: A1, ..., An; el resto se deriva de ellos como
teoremas. Son los enunciados que expresan el comportamiento de las entidades
teóricas. Ej.: "la fuerza eléctrica es directamente proporcional al producto de las
cargas").
2. Enunciados (puramente) observacionales. Contienen como vocabulario
descriptivo únicamente términos observacionales. Algunos describen situaciones
observables particulares y otros son afirmaciones general, esto es, expresan
generalizaciones o leyes puramente empíricas-observacionales. Ej.: "Esta
porción de agua se ha solidificado".
3. Reglas de correspondencia. Contienen tanto términos teóricos como términos
observacionales. En la medida en que unas se puedan derivar de otras, también
se pueden escoger de entre ellas unas que hagan de primitivas: R 1, ..., Rm. Son
los enunciados que conectan los términos teóricos con la experiencia observable
cargando así de interpretación empírica los axiomas puramente teóricos. Ej.: "A
presión constante, el volumen aumenta con la temperatura". Estos enunciados
son el puente que permite pasar de lo observacional a lo teórico y viceversa.
Esta clasificación de los términos y los enunciados permite expresar de un modo simple
la estructura de las teorías en tanto que cálculos interpretados: una teoría T es un par T
= <A,R>, donde A es el conjunto (o la conjunción) de todos los axiomas y R es el
conjunto (o la conjunción) de todas las reglas de correspondencia. Las teorías
empíricas son cálculos interpretados: A es el cálculo axiomático, R proporciona la
interpretación empírica.
3.1.3 La distinción teórico/observacional y la naturaleza de la base empírica
3.1.3.1 Entidades observables y distinción teórico/observacional
Para muchos empiristas y positivistas lógicos del período de entreguerras, la
fundamentación del conocimiento en la experiencia se entendía en términos
fenomenalistas: los primeros datos sobre los que se construye todo conocimiento, que
justifican nuestras creencias, son datos de la experiencia fenoménica. Esta posición
extrema plantea múltiples dificultades, y el fenomenalismo termina por ser abandonado.
Las entidades fenoménicas (qualia, datos sensoriales) son entonces sustituidas por
entidades que se caracterizan simplemente como "directamente presentes a la
observación". Sin embargo, esta nueva versión tiene sus propios problemas, el
principal de ellos es su vaguedad. Las entidades fenoménicas son claramente
distinguibles de las no fenoménicas, pero por su "privacidad" o subjetividad son poco
plausibles como constituyentes de la base de experiencia para la ciencia. Las
entidades observables, públicas, parecen en primera instancia poder desempeñar más
plausiblemente tal función, pero ahora el problema es la dificultad para distinguir
nítidamente entre entidades observables y no observables (teóricas).
Carnap intentó una caracterización precisa de los términos observacionales como
aquellas expresiones del lenguaje tales que, en condiciones normales, un observador
puede determinar a través de una serie de observaciones, y con un alto grado de
confirmación, si el término se aplica o no en una situación dada. Esta caracterización
es inadecuada, pues se aplica también a predicados pretendidamente no
observacionales. En escritos posteriores, Carnap se limitó a caracterizar el vocabulario
observacional como aquel que se refiere a entidades observables: los términos
observacionales son predicados que denotan propiedades observables de
acontecimientos o cosas, o relaciones observables entre ellos. Pero es claro que si no
se especifica lo que caracteriza las entidades observables, simplemente se desplaza el
problema.
El primer exponente de la doctrina oficial en reconocer el carácter fluido de la distinción
fue Nagel, quien afirma:
Es dudoso que haya un sentido riguroso que pueda ser asignado con utilidad a la
palabra "observable"; y en la medida en que la distinción [entre leyes empíricas y
axiomas teóricos] se base en el contraste entre lo que es observable y lo que no, la
distinción patentemente no es nítida (Nagel, E., The Structure of Science, Harcourt,
Nueva York, 1961, cap. 5, § 1)
A pesar de la fluidez o vaguedad de la distinción, tanto Nagel como Carnap insisten en
su utilidad para la caracterización de la naturaleza y estructura de las teorías. Así, por
ejemplo, Carnap insiste en que las leyes empíricas son las que contienen términos que
refieren a entidades "directamente observables por los sentidos o medibles mediante
técnicas relativamente simples".
3.1.3.1.1 Neutralidad teórica de los términos observacionales y carga teórica de
los hechos
El principal motivo de la introducción de la distinción teórico/observacional era
proporcionar legitimidad semántica, según los criterios empiristas, a los términos "sin
conexión empírica inmediata" que las teorías científicas introducen a través de sus
leyes para dar cuenta de los fenómenos. Esta finalidad semántica va acompañada de
otra metodológica, pues se pretende que la base observacional es la que proporciona
la experiencia "neutra" con la cual contrastar las afirmaciones de la teoría. Esta
neutralidad teórica de la base de contrastación parece en primera instancia
fundamental, pues de lo contrario parecería que la teoría resulta autojustificativa. Si la
experiencia observacional que se usa para contrastar la validez de una teoría fuese
dependiente de la teoría en cuestión, esto es, si la elaboración de los informes
observacionales que sirven de base de contrastación presupusiera la validez de la
teoría, entonces tendríamos un círculo autojustificativo. Por tanto, la base
observacional, si ha de servir para la contrastación, debe ser teóricamente neutral.
Ya antes de la formulación explícita de la Concepción Heredada, Duhem rechazó que
la observación esté libre de conceptualización teórica, aunque usualmente sí lo está
respecto de algunas teorías, esto es, puede ser que las observaciones no presupongan
una teoría que usa de ellas en su contrastación. Lo que constató Duhem es que toda
observación, o mejor dicho todo informe observacional, supone una interpretación de
los datos de los sentidos, y una interpretación no es más que una conceptualización
teórica, sea explícita o implícita. Quizá el aparato conceptual interpretador que genera
la base observacional no corresponde a cierta teoría que usa dicha base en la
contrastación, pero en cualquier caso corresponderá a otro "constructo teórico"; este
constructo presupondrá a su vez otro en la descripción de sus propios fenómenos
empíricos y así sucesivamente. No hay (en general) una autojustificación inmediata de
cada teoría, pero sí un círculo global autojustificativo en el conjunto de la ciencia.
Fue Popper quien primero expresó de forma explícita el componente teórico de la base
empírica de contrastación, lo que después se denominará carga teórica de los hechos.
Popper es uno de los mayores críticos de las tesis centrales del Círculo de Viena, pero
comparte en general la caracterización de las teorías como cálculos interpretados. El
principal punto de desacuerdo tiene que ver con la epistemología de la contrastación;
frente al confirmacionismo y la lógica inductiva de Carnap, de los que Popper fue el
primer y más severo crítico, él defiende una lógica de la falsación. Pero otro de los
puntos de disensión tiene que ver con nuestra actual cuestión. Declaró abiertamente
que en la determinación de la base de contrastación, de "los hechos", interviene un
conocimiento de fondo necesitado de aceptación previa. Al someter a prueba una
teoría, señala, no sólo intervienen en ellas las condiciones iniciales y los supuestos
auxiliares sino también cierto conocimiento de fondo sobre los hechos singulares. Este
conocimiento de fondo, que "contiene" lo que se acepta como hechos, se puede
considerar constituido por teorías de bajo nivel que se aceptan como altamente
corroboradas y que no entran en el juego de la contrastación. Y no entran en el juego
por decisión (no necesariamente consciente):
Siempre que una teoría se somete a contrastación [...] hay que detenerse en algún
enunciado básico que decidimos aceptar: si no llegamos a decisión alguna a este
respecto, [...] la contrastación no lleva a ninguna parte (Popper, K.R., The Logic of
Scientific Discovery, Hutchinson, Londres, 1958, § 29)
Esta idea pone de manifiesto lo que se denomina la carga teórica de los hechos.
Hanson fue el primero en hacer de este fenómeno algo esencial para el análisis de la
ciencia y en defender la opinión de que ello modifica dramáticamente la visión
tradicional de la misma. Siguiendo a la psicología de la Gestalt, destacó la importancia
del contexto y los elementos organizativos ya en la percepción.
Al contemplarlas figuras 1 y 3, se ven en los extremos inferiores derechos dos animales
diferentes a pesar de que son "la misma cosa" (figura 2); además, cuando
contemplamos el dibujo aislado podemos ver una cosa u otra, pero no las dos a la vez.
En parte se ve lo mismo (hay una excitación similar del córtex) y en parte no, y el
sentido interesante de "ver" relevante para la ciencia es el segundo. No se trata de
interpretaciones diferentes a partir de una misma visión; eso, afirma, no tiene sentido,
pues "interpretar", si se quiere llamar así, es parte constitutiva de "ver". Además, el
contexto puede no darse explícitamente, no es esencial al hecho que el ejemplo
pretende mostrar que en él el contexto esté manifiesto; piénsese, afirma Hanson, en lo
que ven un físico y un profano ante los rastros de una cámara de niebla. Este
fenómeno, que salvo radicales diferencias culturales tiene en la vida cotidiana escasa
trascendencia, es determinante en la ciencia, donde la dependencia del contexto es
altamente teórica y, en momentos de cambio conceptual en los que se contraponen
diferentes contextos de fondo, deviene crucial. Cuando Tycho y Kepler ven el So al
amanecer, dice Hanson, en parte ven lo mismo y en parte no: Tycho ve un astro móvil,
Kepler uno estático, "y es el sentido en que no ven la misma cosa el que debe tomarse
en cuenta para entender los desacuerdos que existen dentro de la física".
Toulmin afirma que los fenómenos no sólo son seleccionados por la actividad teórica
sino que incluso están definidos por la misma: hay una
continua interacción entre teoría y hecho [...], las teorías se construyen sobre la base
de los hechos, a la vez que les dan significación y aun determinan lo que son "hechos"
para nosotros (Toulmin, S., An Inquiry into the Aims of Science, Indiana U.P.,
Bloomington, 1961, p. 95)
Feyerabend sostiene que la descripción de los hechos depende siempre de una teoría
(aunque en general no de la que se contrasta) y que hay hechos que sólo pueden salir
a la luz con ayuda de teorías alternativas incompatibles. Rechaza, por tanto, la tesis de
que "los hechos existen y están disponibles independientemente de la consideración de
alternativas a la teoría que se contrasta". La consecuencia de ello es lo que él
caracteriza como la inversión de la relación tradicional entre teoría y observación. El
significado de las oraciones de observación está determinado por las teorías con las
que están relacionadas, no son significativas a menos que se hayan relacionado con
las teorías:
La interpretación de un lenguaje de observación está determinada por las teorías que
usamos para explicar lo que observamos, y cambia tan pronto como estas teorías
cambian (Feyerabend, P.K., "An Attempt at a Realistic Interpretation of Experience", en
Feyerabend, Realism, Rationalism and Scientific Method, Cambridge U.P., Nueva York,
1981, 17-36, § 6)
Kuhn sostuvo por su parte que las teorías contienen elementos que determinan el
contenido de la experiencia y que defensores de teorías diferentes viven en mundos
experienciales diferentes. También Lakatos apuntaba en la misma dirección cuando
afirmaba que en la contrastación no comparamos la teoría con hechos neutros, sino
con otras teorías más básicas presupuestas por los hechos.
3.1.3.2 Observación y base empírica
Las teorías empíricas se generan a partir de una serie de fenómenos de los que, tras la
elaboración teórica, se pretende dar cuenta; esos mismos fenómenos, u otros nuevos
del mismo tipo, constituyen el ámbito de experiencia sobre el que la teoría hace
predicciones y se somete a contrastación. Llamemos a estos datos, fenómenos o
hechos que constituyen el ámbito de experiencia y contrastación de una teoría, la base
empírica o base de contrastación de la teoría en cuestión.
Por otro lado, aceptemos, como demuestran múltiples estudios tanto empíricos como
teóricos, que la observación "directa" incluye conceptualización. A pesar de ello, cabe
suponer que algunos aspectos de esta conceptualización, los cognitivamente más
básicos, serán generales, comunes a todo sistema cognitivo (o al menos, en su
dimensión biológica-evolutiva, comunes a todos los seres humanos). Si eso es así, del
hecho de que la observación presuponga cierta conceptualización no se sigue que
dicha conceptualización dependa siempre esencialmente de las teorías científicas. Por
tanto, si la base de contrastación fuese observacional, ello no implicaría que lo que
cuenta como base empírica depende esencialmente de las teorías científicas. En
realidad, pues, lo que hay implícitamente detrás de las consideraciones críticas sobre la
carga teórica (científicamente teórica) de todo dato de contrastación es una puesta en
cuestión del supuesto de la Concepción Heredada de que la base de contrastación es
en general de naturaleza observacional. Tras muchas de las críticas a la supuesta
neutralidad de las observaciones, lo que hay en realidad es un rechazo a la
identificación entre base empírica de contrastación y experiencia directamente
observable. El principal motivo para identificar la base empírica con la experiencia
observable directa es el viejo anhelo empirista de fundamentar y justificar todo nuestro
conocimiento en la experiencia sensorial. Todo conocimiento (empírico) empieza con
las afecciones de nuestro entorno sobre nuestro aparato sensorial y toda justificación
del mismo debe apelar en última instancia a esa "observación directa" del entorno.
Pero, de este supuesto razonable no se sigue que la justificación de cada pieza de
nuestro conocimiento deba proceder del mismo modo, que esta tesis global sea
también válida localmente. Puede ocurrir que, como organismos vivos, la interacción
más básica con nuestro entorno la realicemos en términos globales perceptualmente
mediante observación directa, pero que en algunas partes de nuestro sistema
cognitivo, especialmente en las muy complejas que dan lugar a las teorías científicas,
la base de experiencia no se dé a través de observación directa inmediata. Puede que
todo empiece por la observación pero, si el sistema cognitivo es modular y jerárquico,
no en todas partes. Si eso es así. La base de contrastación de muchas, o (casi) todas,
las teorías científicas puede estar constituida por datos o fenómenos que no sean de
observación directa; y, por tanto, alternativamente, lo distintivo de los términos teóricos
no será que denotan entidades inobservables.
Putnam se opuso a identificar la distinción "inobservable/observable" con "teórico/no
teórico". Afirmaba, por un lado, que hay teorías cuyo aparato teórico se refiere a
entidades observables, y, por otro, que casi nunca los fenómenos a explicar son
accesibles mediante observación directa. Se trata de dos dicotomías diferentes. Un
término teórico es un término que proviene de una teoría científica y "el problema
apenas tocado en treinta años que se lleva escribiendo acerca de 'términos teóricos' es
qué es lo realmente distintivo de dichos términos". Poco antes, Ryle había distinguido
entre expresiones de una teoría que están cargadas con el peso de esa teoría
particular y expresiones que no lo están. Estas consideraciones apuntan a la idea de
que un término es teórico o no en relación con una teoría en función de si depende o
no de la teoría en cuestión.
El primero en dar una caracterización mínimamente articulada y elaborada de la nueva
distinción que se está gestando fue Hempel, el cual divide el vocabulario básico de
cada teoría en dos clases que se pretenden nítidamente separadas y relativizadas a
una teoría específica. Una clase está formada por los términos con los que se
describen los fenómenos a explicar, la base empírica. Estos términos constituyen el
vocabulario preteórico. Estos términos preteóricos no corresponden en general a
situaciones observables en sentido estricto, sino que a menudo se introducen en la
ciencia en el contexto de una teoría anterior. Los otros términos descriptivos usados en
la teoría son los que ella introduce para llevara cabo la elaboración teórica que da
cuenta de los fenómenos preteóricamente descritos; ellos constituyen el vocabulario
teórico de dicha teoría. Dos puntos importantes hay en esta nueva distinción: a) es una
distinción relativizada a las teorías, un término no es teórico o preteórico sin más, sino
respecto de una teoría específica, y, por tanto, un término puede ser preteórico en una
teoría y teórico en otra; aunque no lo afirma explícitamente, de su caracterización
informal parece seguirse que un término puede ser preteórico en varias teorías, aunque
normalmente será teórico sólo en una; b) el criterio para la distinción es el uso o no del
término en la descripción de los fenómenos empíricos a explicar; por tanto, la distinción
será precisa en la medida en que se dé un criterio preciso para determinar qué
enunciados son los que describen los fenómenos a explicar.
Junto con esta nueva caracterización del vocabulario básico de una teoría, Hempel
introduce otra para los enunciados. Además de enunciados puramente empíricos, la
teoría contiene: (i) principios internos, que son los que especifican "el escenario
teórico", los que sistematizan el nuevo aparato conceptual introducido por la teoría; (ii)
principios puente, que indican la forma en que "se relaciona lo que ocurre a nivel del
escenario teórico con los fenómenos que la teoría debe explicar".
En cuanto a la presunta función de los enunciados en la fijación del significado de los
términos, Hempel sostiene ahora que el significado de los términos teóricos no está
totalmente determinado por los principios internos más los principios-puente. Ambos
tipos de enunciados ofrecen al aprendiz de la teoría el acceso principal a la
comprensión de las expresiones, pero no determinan completamente su significado. La
idea clásica de que el significado de los términos se fija completamente mediante
enunciados que los conectan con otros términos es errónea; y, el problema del
significado de los términos teóricos planteado en ese esquema no existe, es un
pseudo-problema. El motivo es que los términos científicos adquieren su significado por
vías diversas, quizá en algunos casos (parcialmente) mediante enunciados, pero
usualmente de otros modos.
Hempel considera ahora que la pretensión de la Concepción Heredada de caracterizar
una teoría empírica a través de su reconstrucción axiomática es inadecuada, pues
siempre hay varias axiomatizaciones posibles, ninguna de las cuales expresa mejor
que las otras la naturaleza de la teoría; una teoría no se puede identificar pues con un
sistema específico de enunciados dotados de cierta estructura o sistematización.
3.2 La concepción historicista de las teorías
3.2.1 Los paradigmas-matrices disciplinares de Kuhn
3.2.1.1 Ciencia normal y ciencia revolucionaria
En las ciencias maduras, Kuhn distingue dos modos de "hacer ciencia" que, además,
se suceden históricamente. Al primero lo llama normal pues es el modo usual en que
opera la ciencia, la manera en que ésta se desarrolla la mayor parte del tiempo. Al
segundo lo denomina no-normal o extraordinario y, a veces, revolucionario.
Los períodos de ciencia normal se caracterizan por el hecho de que la comunidad de
científicos que trabaja en un determinado ámbito comparten ciertos presupuestos de
muy diverso tipo (teóricos, experimentales, metodológicos y otros) que son los que les
permiten ir haciendo ciencia. Estos elementos compartidos se encuentran,
implícitamente unos, explícitamente otros, en los canales usuales de enseñanza y
transmisión de una disciplina (principalmente los libros de texto) y el futuro científico los
adquiere por regla general en su período de aprendizaje. En ciencia normal la tarea
casi exclusiva consiste en lo que Kuhn llama trabajo de resolución de enigmas o
rompecabezas. Esta tarea consiste, grosso modo, en ir ampliando y perfeccionando la
aplicación del aparato teórico-conceptual a la experiencia, y a la vez y como
consecuencia de ello, en ir ajustando y puliendo la base teórico-conceptual. Algunas de
las tareas típicas de la investigación normal son la precisión de constantes ya
conocidas, la determinación de otras nuevas, encontrar formas específicas de leyes
generales y aplicar las ya disponibles a nuevos fenómenos. Para llevar a cabo este
trabajo es esencial que el científico no cuestiones los supuestos compartidos, pues son
precisamente ellos los que guían su investigación y les permiten abrigar esperanzas de
éxito. La ciencia normal no discute sobre fundamentos ni "tiende hacia novedades
fácticas o teóricas y, cuando tiene éxito, no descubre ninguna".
Ahora bien, la ciencia normal es sólo un modo en que se desarrolla la empresa
científica. La ciencia (madura) no discurre siempre de este modo. Un tipo importante de
enigmas tiene que ver con la presencia de anomalías, experiencias que "no encajan"
en el aparato teórico. Aunque a menudo se resuelven con éxito, a veces algunas
anomalías (o, más raramente, algún otro tipo de enigma) se muestran recalcitrantes. Si
ello ocurre con varias, o con alguna considerada especialmente importante, puede
ocurrir que, tras cierto tiempo, algunos miembros de la comunidad desesperen de
encontrar una solución, o que, aunque la encuentren, consideren excesivas las
modificaciones normales a que obliga. Cuando este sentimiento se generaliza en la
comunidad científica sobreviene una crisis: se comienzan a cuestionar los supuestos
que guiaban la investigación, se pierde la confianza en ellos y se empieza a revisar y a
discutir los fundamentos. En estos períodos de crisis se suceden propuestas
alternativas hasta que en torno a alguna de ellas se comienza a organizar un nuevo
cuerpo de supuestos desde los que mirar las viejas cosas de un modo nuevo y más
prometedor. Con el tiempo, y si el trabajo basado en los nuevos supuestos permite
abrigar esperanzas de éxito, reciben la confianza de los especialistas de la comunidad
y acaban suplantando a los antiguos como guía para la investigación. Los viejos
supuestos son desplazados por los nuevos consumándose lo que Kuhn llama una
revolución científica, tras la cual se inicia un nuevo período de ciencia normal.
El paso de un período normal a otro no viene obligado por necesidad lógica. Se trata de
un desplazamiento de confianza y, en ausencia de un nuevo programa, el antiguo
puede mantenerse largo tiempo aunque haya entrado en crisis.
3.2.1.2 Paradigmas qua matrices disciplinares
Para Kuhn un paradigma es el conjunto de supuestos compartidos por una comunidad
que guían su investigación normal. La ciencia normal es ciencia-basada-en-(un)paradigma y la ciencia extraordinaria o revolucionaria es el paso de un paradigma a
otro. En esta última, al igual que en la fase inmadura o preparadigmática de una
disciplina, se trabaja (sin el dominio de un) paradigma, hay una proliferación de
hipótesis diferentes. Las disciplinas maduras, aquellas en que ha surgido ya un primer
paradigma, se desarrollan de paradigma en paradigma a través de revoluciones. Sin
embargo, el término paradigma es enormemente ambiguo; por ello, en trabajos
posteriores a La estructura de las revoluciones científicas, Kuhn intenta distinguir y
precisar los diferentes sentidos con que introdujo el término paradigma en esta obra.
Los diversos usos que de él hacía en su primera obra los reagrupa ahora en dos
sentidos principales. El primero es global y comprende todos los compromisos
compartidos por un grupo científico, la completa constelación de creencias, valores,
técnicas y demás elementos compartidos por los miembros de una comunidad
científica dada. El segundo denota un componente específico de lo anterior, un tipo
especialmente importante de tales compromisos. Kuhn denomina en estos trabajos
"matriz disciplinar" a lo primero y "ejemplar" a lo segundo.
Un paradigma qua matriz disciplinar es lo compartido por una comunidad científica, lo
que guía en un momento dado su investigación normal.
3.2.2 Los programas de investigación de Lakatos
Lakatos parte de las observaciones de Popper sobre el conocimiento de fondo y la
contrastación y las lleva a sus últimas consecuencias. Lo que se evalúa en la
contrastación, dice, no es una teoría comparada con los hechos sino un conjunto de
(mini)teorías, de diferente estatus metodológico, comparadas entre sí:
El conflicto no sucede "entre teorías y hechos", sino entre dos teorías de nivel elevado;
entre una teoría interpretativa que suministra los hechos, y una teoría explicativa que
los explica [...], no es de que nosotros propongamos una teoría y la Naturaleza pueda
gritar NO; se trata, más bien, de que proponemos un conjunto de teorías y la
Naturaleza puede gritar INCONSISTENTES" (Lakatos, I., "La falsación y la metodología
de los programas de investigación científica", en Lakatos, I., La metodología de los
programas de investgigación científica, Madrid, Alianza, 1982, p. 62)
Este conflicto se intenta resolver modificando algunos elementos de la red y se genera
así una sucesión de teorías-redes ligadas por "una notable continuidad". Esta serie o
sucesión de teoría es lo que Lakatos llama un "programa de investigación".
Todos los programas tienen un núcleo que los vertebra y les confiere unidad. Este
núcleo lleva asociada una heurística que determina dos tipos de reglas metodológicas:
unas nos dicen qué senderos de investigación hemos de evitar, heurística negativa, y
otras qué senderos hemos de seguir, heurística positiva. La heurística negativa
prohibe, por decisión, aplicar la refutación al núcleo, para lo cual se debe articular un
cinturón protector de hipótesis auxiliares o complementarias que sí se consideran
modificables. La heurística positiva sugiere cómo modificar y desarrollar esta parte
"refutable" del programa.
Todos los programas de investigación científica pueden ser caracterizados por su
"núcleo firme". La heurística negativa del programa impide que apliquemos el modus
tollens a este "núcleo firme". Por el contrario, debemos utilizar nuestra inteligencia para
incorporar e incluso inventar hipótesis auxiliares que formen un cinturón protector en
torno a ese centro, y contra ellas debemos dirigir el modus tollens. El cinturón de
hipótesis auxiliares debe recibir los impactos de las contrastaciones y para defender al
núcleo firme, será ajustado y reajustado e incluso completamente sustituido [...] Este
"núcleo" es "irrefutable" por decisión metodológica de sus defensores [...] La heurística
negativa especifica el núcleo firme del programa que es "irrefutable" por decisión
metodológica de sus defensores; la heurística positiva consta de un conjunto,
parcialmente estructurado, de sugerencias o pistas sobre cómo cambiar y desarrollar
las "versiones refutables" del programa de investigación, sobre cómo modificar y
complicar el cinturón protector "refutable" (ibid., pp. 66, 67 y 68-69)
El resultado de aplicar esta metodología constituye la evolución de una teoría científica;
en términos de Lakatos, se trata de una sucesión de diferentes versiones del mismo
programa, esto es, en torno a un mismo núcleo. Un programa es progresivo si predice
hechos que se constatan después, y es, o está, estancado si sólo "postdice", esto es, si
sólo ofrece explicaciones ad hoc de hechos (para él) inesperados. Esto exige dos
cualificaciones. En primer lugar, el juicio requiere cierta perspectiva histórica, esto es, a
los programas incipientes es racional "concederles cierto tiempo". Por otro lado, e
incluso garantizada la perspectiva histórica, las cosas no siempre están tan claras, los
casos mencionados son más bien idealizaciones y hay numerosos casos intermedios.
Esta tipología idealizada de programas no debe tomarse como un criterio cuasiformal
de sustitución: nada obliga, y por supuesto la lógica más "los hechos" tampoco, a
abandonar un programa estancado, aunque sólo sea porque siempre es posible su
"resurrección", esto es, de todo programa estancado siempre es en principio posible
que se convierta de nuevo en uno progresivo.
3.2.3 Las tradiciones de investigación de Laudan
Laudan comienza distinguiendo dos sentidos del término "teoría científica", dos tipos de
"redes proposicionales". En primer lugar, el término puede denotar un conjunto
relativamente específico de doctrinas, leyes, hipótesis o principios relacionados, que se
usan para hacer predicciones experimentales y ofrecer explicaciones de fenómenos
naturales. Ejemplos de ello son la teoría newtoniana de la luz, el electromagnetismo de
Maxwell, la teoría atómica de Bohr. Además, el término se usa también para referirse a
conjuntos de doctrinas o supuestos "mucho más generales y muchos menos fácilmente
corroborables empíricamente". Ejemplos de ello son la teoría de la evolución, la teoría
atómica o la teoría cinética de los gases. Las teorías en este segundo sentido
consisten, al menos, en familias enteras de teorías en el primer sentido vinculadas por
principios metodológicos u ontológicos muy generales. De estas teorías generales, en
el segundo sentido del término, es de lo que pretende dar cuenta su noción de tradición
de investigación. Los principales elementos que caracterizan a estas tradiciones de
investigación son:
Supuestos compartidos. Las tradiciones constan de dos tipos de supuestos
generales, que individualizan una tradición dada y la distingue de otras:</
i.
ii.
Compromisos metafísicos. Conjunto de creencias acerca de qué tipo de
entidades y procesos constituyen el dominio de investigación
Normas epistémicas y metodológicas. Normas acerca de cómo tiene que
investigarse el dominio, cuál es el conocimiento de fondo intocable, cómo
han de someterse a prueba las hipótesis, cómo han de recogerse los
datos, cómo han de evaluarse la solución a los problemas, etc.
Conjuntamente, los compromisos metafísicos y las normas epistémicas y
metodológicas proporcionan a la tradición una heurística, orientaciones
para la investigación, y una axiología, normas de evaluación.
Articulación teórica. Las tradiciones poseen un cierto número de teorías
específicas asociadas que las ejemplifican y las constituyen parcialmente. Son
los elementos empíricamente contrastables de la tradición, el "lugar" donde se
contrasta la tradición con la experiencia.
Resolución de problemas. La finalidad de las tradiciones, con relación a la cual
se evalúan globalmente, es la resolución de problemas. Los problemas son de
dos tipos:
i.
ii.
Problemas empíricos. Derivados de la aplicación de las teorías
específicas al dominio empírico de investigación. Estos problemas
pueden ser (estar): resueltos, los casos de aplicación al dominio empírico
exitosos según los estándares de la tradición; potenciales, los casos de
aplicación que la tradición considera que deben resolverse, pero todavía
no resueltos por la tradición en cuestión ni por ninguna otra; anómalos,
los casos de aplicación que la tradición considera que deben resolverse,
que ella todavía no ha resuelto y que han sido resueltos en otra tradición
alternativa.
Problemas conceptuales. Relativos a la estructuración conceptual de
alguna teoría específica. Se dan en los siguientes casos: cuando la teoría
es inconsistente; cuando contiene supuestos inaceptablemente ambiguos;
cuando algunas de sus hipótesis contravienen otras teorías específicas, o
los supuestos metafísicos predominantes; cuando sus afirmaciones no
proceden según las doctrinas metodológicas y epistemológicas; cuando
no acierta a integrar conceptos y principios de teorías más generales a las
que está subordinada.
Desarrollo histórico. Las tradiciones discurren en el tiempo a través de un cierto
número de formulaciones. Estas formulaciones son la respuesta en un momento
específico a la evaluación negativa sobre la solución dada a alguno o varios de
los problemas. El modo más usual en que cambia una tradición es modificando
sus teorías específicas, pero ocasionalmente puede cambiar alguno de sus
elementos nucleares más básicos.
Coexistencia. Las tradiciones no son "dominantes", no se imponen por períodos.
En cierto momento dado, en contra de lo que sugiere Kuhn, la coexistencia de
tradiciones de investigación rivales es la regla, y no la excepción.
3.3 La concepción estructuralista de las teorías
Una teoría tiene, una parte formal y otra aplicativa. Pero ambas partes se articulan a su
vez, en diversos niveles de especificidad. Esta idea de los diversos niveles de
especificidad se expresa mediante la noción de red teórica, que describe en toda su
riqueza la estructura sincrónica de las teorías, su imagen "congelada" en un momento
dado de su evolución. Las redes están formadas por diversos elementos estratificados
según su especificidad. Cada uno de estos elementos tiene una parte formal y otra
aplicativa. La parte formal global de la teoría-red queda expresada por el conjunto de
las partes formales de los elementos constituyentes; su parte aplicativa global por el
conjunto de las partes aplicativas de sus constituyentes. A estos elementos
constituyentes se les denomina elementos teóricos. La parte formal de los elementos
teóricos se denomina núcleo y su parte aplicativa, dominio de aplicaciones pretendidas
(o intencionales).
3.3.1 El núcleo K
El núcleo expresa la parte formal de la teoría, las tradicionales leyes. Las leyes no se
expresan en términos lingüísticos sino modelísticos, entendiendo los modelos como
estructuras conjuntistas definidas mediante la introducción de cierto predicado. El
núcleo K contiene entonces una serie de modelos, las estructuras que satisfacen los
axiomas del predicado. Sin embargo, para el estructuralismo no es adecuado identificar
el núcleo con un único conjunto de modelos. Es conveniente que la expresión
modelística de la parte formal de la teoría recoja y haga explícitos los diversos
elementos distintivos.
3.3.1.1 Modelos potenciales y modelos actuales
Se denominan modelos potenciales (de la teoría en cuestión), Mp, a las estructuras que
satisfacen los axiomas impropios o tipificaciones, y modelos actuales (de la teoría en
cuestión), M, a las estructuras que satisfacen, además, los axiomas propios que
expresan constricciones no meramente lógicas. Los modelos potenciales son
potenciales porque pueden ser modelos efectivos de la teoría, porque son las
entidades de las que tiene sentido preguntarse si satisfacen o no las leyes propiamente
dichas. Aquellos modelos potenciales que, además de las tipificaciones, satisfacen las
leyes propiamente dichas son los modelos actuales o efectivos. Es inmediato, por
tanto, que M Í Mp.
3.3.1.2 Condiciones de ligadura
Las leyes usuales no son las únicas que imponen condiciones adicionales efectivas a
los modelos potenciales. Por ejemplo, según la mecánica clásica no puede ser que una
partícula p tenga una masa en un modelo x y otra masa diferente en otro modelo y. La
teoría tampoco permite que si un modelo x contiene una partícula p 1, que es la
combinación de dos partículas p2 y p3, haya modelos que asignen a p2 y p3 masas cuya
suma no coincida con a asignada a p 1 en x. La primera condición expresa simplemente
que la masa de una partícula es constante, y la segunda que la masa es aditiva, esto
es, la masa de un compuesto es la suma de las masas de sus componentes. Este tipo
de condiciones intermodélicas son las que permiten "transportar la información" de
unos modelos a otros.
No hay manera de expresar este tipo de constricciones mediante los axiomas usuales,
pues éstos se aplican a modelos sueltos. La condición que define la ligadura de
identidad para la masa es la siguiente: "para toda partícula p, y modelos potenciales x,
y (que tengan a p en su dominio): mx(p) = my(p)". Esta condición no es satisfecha o
insatisfecha por modelos potenciales sueltos sino por grupos de ellos: si un conjunto
tiene dos modelos con una partícula común a ambos dominios y en cada uno la función
m asigna a esa partícula valores diferentes, no satisface la condición; si todos los
modelos del conjunto asignan a las partículas comunes de sus dominios la misma
masa, sí las satisface. El efecto que tiene esta condición, por tanto, no es determinar
un conjunto de modelos, sino un conjunto de conjunto de modelos; esto es, agrupa los
modelos en grupos, grupos tales que, en cada uno, sus modelos asignan a una misma
partícula una misma masa; cada grupo se caracteriza porque en él los modelos
asignan a cada partícula determinada masa. Una condición que es satisfecha o no por
modelos sueltos define un conjunto de modelos, el conjunto de los modelos que la
satisfacen. Una condición que es satisfecha o no por un conjunto de modelos, define un
conjunto de conjuntos de modelos, el conjunto de los conjuntos de modelos que la
satisface.
Puede haber varias ligaduras en una misma teoría, y lo que interesa es tener
identificado el efecto combinado de todas ellas. A este efecto combinado o suma de las
ligaduras se la denomina ligadura global y se denota mediante "GC". Puesto que cada
ligadura es determinado subconjunto {{x1, y1, z1, ...}, {x2, y2, ...}, ...} de Pot(Mp), la
ligadura global se identifica con su interpretación conjuntista, pues los elementos de
dicha intersección satisfarán a la vez todas las condiciones de la ligadura.
3.3.1.3 T-teoricidad y modelos parciales
El estructuralismo rechaza la distinción "teórico/observacional" por ambigua. Esta
distinción esconde en realidad dos: "observable/inobservable" de un lado, y "no
teórico/teórico" de otro. Ambas distinciones no coinciden intensionalmente ni
extensionalmente. La primera distinción no tiene relevancia alguna para el análisis local
de la estructura de las teorías. Para el análisis local de la estructura de las teorías la
distinción relevante es la segunda, pero en este caso no se trata ya de una distinción
absoluta, sino que está relativizada a las teorías. Un término, o un concepto, o una
entidad, no es teórico o no teórico sin más, sino relativamente a una teoría dada. Por
eso no se debe hablar de teoricidad cuanto de T-teoricidad, teoricidad relativamente a
una teoría T. La idea es que un concepto es T-teórico si es un concepto propio de la
teoría T, "introducido" por ella, y es T-no teórico si es un concepto disponible
previamente a T. La cuestión es precisar esta intuición.
La formulación precisa del criterio de T-teoricidad usa de la noción técnica de
procedimiento de determinación. Determinar un concepto es determinar si se aplica o
no a un objeto particular dado, o si es cuantitativo, determinar el valor de la magnitud
para el objeto. Los modos para proceder a ello son los procedimientos de
determinación de los conceptos. Puedo determinar la distancia entre la Tierra y la Luna
haciendo ciertos cálculos a partir del período de rotación y las masas correspondientes.
Puedo determinarlo también mediante ciertos procedimientos óptico-geométricos. Pues
bien, si un concepto es T-no teórico, si es "anterior" a T, entonces tendrá al menos
algunos procedimientos de determinación independientes de T; en cambio, si es Tteórico, si es propio de T, su determinación depende siempre de T. Un procedimiento
de determinación se considera dependiente de la teoría T si presupone la aplicabilidad
de T, la validez de sus leyes, esto es, si usa o presupone modelos actuales de T. La
idea es que un concepto es T-teórico si no se puede determinar sin presuponer la
aplicabilidad de T, si todo procedimiento para su determinación la presupone; y es T-no
teórico si tiene algún procedimiento de determinación T-independiente, si es posible
determinarlo sin suponer la aplicación de la teoría, por más que también tenga otros Tdependientes.
La noción de T-teoricidad permite precisar el último componente del núcleo. Hemos
visto que los modelos potenciales expresan el aparato conceptual de la teoría. Es
conveniente ahora distinguir en el núcleo entre el aparato conceptual global de la teoría
y el aparato conceptual específico de ella. Esto es, distinguir los modelos que usan
todo el aparato conceptual de la teoría de aquellos que usan sólo conceptos
previamente disponibles, en esa diferencia radica la contribución conceptual específica
de la teoría. La determinación de esos modelos que no contienen el aparato específico
de la teoría es sencilla una vez se dispone de la noción de T-teoricidad, pues tales
modelos
contienen
como
constituyentes
exclusivamente
las
entidades
correspondientes a los conceptos T-no teóricos; esto es, estos modelos se obtienen a
partir de los modelos potenciales "recortando" de ellos las entidades T-teóricas. A estos
modelos se les denomina modelos (potenciales) parciales, y se denota su conjunto
mediante "Mpp". Así, en general, se puede definir una función recorte r que genera los
modelos parciales a partir de los potenciales. Si los modelos potenciales de T son
estructuras del tipo x = <D1, ..., Dk, ..., R1, ..., Rn, ..., Rm> y Rn+1, ..., Rm son T-teóricos,
entonces r(x) = <D1, ..., Dk, ..., R1, ..., Rn>. El conjunto Mpp de los modelos parciales es
entonces simplemente el conjunto de los modelos potenciales una vez que hemos
recortado de ellos las funciones T-teóricas: Mpp =def{y / $ x Î Mp : y = r(x)} o,
abreviadamente, Mpp =def r[Mp], donde "r[...]" denota la función recorte aplicada a
conjuntos de modelos.
3.3.2 Aplicaciones intencionales
El núcleo K es el componente formal de la teoría, pero no el único. En las concepciones
semánticas, las teorías empíricas pretenden que las constricciones de K lo son de
ciertas partes de la realidad física, los sistemas empíricos a los que se pretende aplicar
el núcleo. Estos sistemas empíricos se denominan en el estructuralismo aplicaciones
pretendidas o intencionales, y se denota su conjunto mediante "I".
La caracterización estructuralista de los dominios de aplicaciones contiene los
siguientes elementos. En primer lugar, las aplicaciones pretendidas de una teoría t se
individualizan y describen mediante el vocabulario previo a T, esto es, mediante el
aparato conceptual T-no teórico. Por tanto, las aplicaciones pretendidas que conforman
la base empírica de la teoría, los "datos" de la teoría, ciertamente están cargados de
teoría, pero no de la teoría para la que son datos sino de otra previa o antecedente.
Formalmente, ello se traduce en que cada aplicación pretendida es un determinado
sistema que contiene exclusivamente entidades T-no teóricas. Cada aplicación
pretendida es entonces un determinado modelo parcial y el conjunto I de todas ellas es,
por tanto, cierto subconjunto de Mpp: I Í Mpp.
El segundo hecho a destacar es que la selección de las aplicaciones, la determinación
de I, contiene elementos pragmáticos ineliminables, pues tal determinación es
esencialmente intencional y paradigmática. La determinación es intencional porque lo
que hace de un sistema específico que sea una aplicación pretendida es que sea un
objeto intencional de los usuarios de la teoría, que la comunidad científica pretenda que
las constricciones-leyes se aplican a tal sistema. Y es paradigmática porque el conjunto
I no se presenta "listando" todos y cada uno de los sistemas físicos que son
aplicaciones pretendidas, sino "paradigmáticamente".
3.3.3 Las teorías como elementos teóricos. Contenido y aserción empírica
3.3.3.1 Elementos teóricos
Un elemento teórico, una teoría en sentido mínimo, está constituido por (1) una parte
formal que expresa los recursos conceptuales a diferentes niveles y las constriccionesleyes que según la teoría rigen su ámbito de estudio, y (2) una parte aplicativa que
especifica en términos preteóricos los sistemas físicos a los que la teoría pretende
aplicarse, de los que pretende que son regidos por sus constricciones-leyes. Un
elemento teórico T se identifica entonces con el par formado por el núcleo K, la parte
formal, y el dominio de aplicaciones I, la parte aplicativa: T = <K,I>.
3.3.3.2 Contenido teórico y contenido empírico
El núcleo K expresa la parte matemático-formal de la teoría. Es en ella donde se
presentan las condiciones que, según la teoría, rigen las "partes de la realidad" de que
ella trata. Estas condiciones consisten básicamente en las leyes propiamente dichas de
un lado, y las condiciones de ligadura de otro, que en el núcleo se corresponden,
respectivamente, con los conjuntos M y GC. Sin embargo, la teoría, al aplicarse, no
pretende que estas condiciones rigen aisladamente o separadas, sino que las
aplicaciones satisfacen todas las restricciones a la vez, tanto las leyes como las
ligaduras. Es conveniente entonces "juntar" ambos tipos de restricciones, presentar su
efecto restrictivo conjunto. Esto se expresa mediante la noción de contenido teórico,
"Cont". El contenido teórico, esto es, el efecto combinado de leyes y ligaduras, queda
representado mediante la apropiada intersección conjuntista de los conjuntos M y GC.
Como M es un conjunto {x1, x2, x3, ..., x9, ..., x15, ...}de determinados modelos
potenciales (M Í Mp) y GC es un conjunto {{x1, x2, x5, ...}, {x4, x7, x9, ...}, ..., {..., x15, ...}}
de conjuntos de modelos potenciales (GC Í Pot(Mp)), la intersección apropiada
correspondiente a la combinación de ambos tipos de condiciones no es la de GC con
M, sino la de GC con Pot(M), esto es: Cont =def Pot(M) Ç GC. Es inmediato que Con t Í
Pot(Mp), el contenido teórico de T, es un conjunto de conjuntos de modelos
potenciales, el conjunto cuyos elementos son conjuntos tales que: (1) satisfacen las
ligaduras; y (2) están formados por modelos que satisfacen las leyes de la teoría, los
axiomas propios del predicado conjuntista.
La noción central para expresar la aserción empírica es la de contenido empírico, que
se deriva de la de contenido teórico. El contenido empírico es el "contenido
contrastacional"; en la versión tradicional, las consecuencias empíricas de la teoría. El
contenido empírico recoge los (conjuntos de) modelos parciales que resultan de
recortar los componentes T-teóricos de los modelos potenciales que satisfacen las
restricciones. O de otro modo, los modelos parciales que es posible aumentar con
componentes T-teóricos de forma que se cumplan las restricciones (y si las
restricciones son efectivamente tales, no todo modelo parcial es aumentable de esta
forma). Así, si denotamos mediante "Con" el conjunto que expresa el contenido
empírico, dicho conjunto es el resultado de recortar los componentes T-teóricos en los
modelos que aparecen en Con t, abreviadamente: Con = r[[Cont]] (r(...) se aplica a
modelos sueltos, r[...] se aplica a conjuntos de modelos, r[[...]] es la función recorte
aplicada a conjuntos de conjuntos de modelos, como Con t.
3.3.3.3 Aserción empírica
La teoría pretende que ciertos sistemas físico, T-no teóricamente descritos, satisfacen
las condiciones impuestas por la teoría en el sentido siguiente: ésos son los datos de
experiencia que se deberían obtener si la realidad operase como la teoría dice. Esta
pretensión se expresa en la aserción empírica de la teoría. Por todo lo anterior debe ser
claro que la forma lógica que corresponde a la aserción es "I Î Con", esto es, el dominio
de aplicaciones pretendidas I es uno de los conjuntos de modelos parciales, T-no
teóricos, que las constricciones del núcleo K determinan a nivel empírico.
La aserción afirma que ciertos sistemas empíricos concretos, descritos T-no
teóricamente, tienen el comportamiento que las restricciones legales determinan a nivel
T-no teórico. Tomemos un sistema empírico que se comporta de cierto modo según
ciertos parámetros T-no teóricos. Que la aserción sea cierta significa que ése es
justamente el modo en que le corresponde comportarse si están presentes en él los
parámetros T-teóricos que la teoría postula y éstos se relacionan con los T-no teóricos
de la forma que establecen las leyes. Es decir, los sistemas de I son modelos parciales
que pueden ampliarse con funciones T-teóricas de modo que se obtengan modelos que
satisfacen aisladamente las leyes y conjuntamente las ligaduras. En este sentido, la
aserción afirma que la experiencia es subsumible o encaja en la teoría.
Aunque la experiencia o los datos están "cargados de teoría", eso no tiene
consecuencias autojustificativas para la aserción. Se seleccionan intencionalmente
ciertos sistemas físicos. Primero, se hacen ciertos cálculos suponiendo que en los
sistemas está actuando todo lo que postula la teoría y del modo como ella establece.
Segundo, e independientemente, se determinan en los sistemas los valores de ciertas
magnitudes cuya medición no presupone la aplicación o validez de la teoría. Por último,
se comprueba si esos valores coinciden con los calculados. No hay autojustificación en
absoluto (al menos en sentido local). La aserción puede ser perfectamente falsa, lo es
si los valores simplemente no coinciden.
3.3.4 Vínculos interteóricos y holones
Las teorías no son entidades aisladas, sino que mantienen estrechas relaciones entre
sí. Algunas de esas relaciones se expresan mediante "leyes mixtas" o "leyes puente",
miente postulados que involucran conceptos de diversas teorías. Las teorías mantienen
pues vínculos interteóricos. En principio los vínculos pueden relacionar varias teorías a
la vez, pero lo usual parece ser que relacionen dos teorías.
Los vínculos interteóricos tienen, como las leyes propias de la teoría, efectos
restrictivos sobre los modelos, pero a diferencia de ellas no son satisfechas o
insatisfechas por modelos potenciales de una única teoría sino por pares (en el caso de
los vínculos binarios) de modelos potenciales de teorías diferentes. Las leyes propias
determinan un subconjunto de modelos potenciales, aquellos que las satisfacen (e.e.
los modelos actuales). Los vínculos interteóricos no determinan directamente un
subconjunto de modelos potenciales de una teoría. Si Mp y Mp' son respectivamente
los conjuntos de modelos potenciales de dos teorías T y T', entonces el producto
cartesiano Mp ´ Mp' contiene todos los pares posibles de modelos de ambas. Pues
bien, dado un determinado principio puente entre T y T', sólo algunos de esos pares
satisfarán dicho principio, por lo que se puede considerar que el principio en cuestión
determina o define cierto subconjunto L de Mp ´ Mp', el conjunto de pares de modelos
que lo satisfacen. Por tanto, los principios puente determinan primariamente conjuntos
de pares de modelos.
4. Modelos
Se puede llamar teorías a las leyes de nivel superior, que sólo se pueden someter a
contrastación en forma indirecta, valiéndose de las consecuencias de las leyes de nivel
inferior que se deduzcan de ellas, lo cual indicaría que están menos atadas por un
vínculo directo a la observación y la experimentación.
Leyes y teorías son de igual género y forma, aunque difieren en cuanto a generalidad,
abstracción o grado de confirmación.
Las teorías se ocupan de los modelos, y por ello son distintas de las leyes, ya que cada
teoría afirma explícitamente que existe algo de tal o cual tipo, cuyas operaciones y
relaciones se describen mediante unas leyes. En este sentido, toda teoría explica estas
últimas, al pintarlas como descripciones del comportamiento de ciertas entidades
caracterizadas por ella misma o de las relaciones que existan entre tales entidades.
Un modelo de una teoría puede definirse como una realización posible en la cual se
satisfacen todos los enunciados válidos de la teoría, y una realización posible de una
teoría es una entidad con la estructura conjuntista apropiada. Por ejemplo, podemos
caracterizar una realización posible de la teoría matemática de grupos como una par
ordenado cuyo primer miembro es un conjunto no vacío y cuyo segundo miembro es
una operación binaria sobre ese conjunto. Una realización posible de la teoría de
grupos es un modelo de la teoría si los axiomas de la teoría son satisfechos en la
realización, ya que en este caso los enunciados válidos de la teoría son definidos como
aquellos enunciados que son consecuencias lógicas de los axiomas.
Cabe distinguir hasta cinco sentidos diferentes en el uso del concepto "modelo" en
relación con las teorías:
1. Modelos lógicos. Son las interpretaciones semánticas de un sistema de axiomas
(por ejemplo, del cálculo de una teoría) tales que los axiomas son verdaderos
para dichas interpretaciones. Los modelos no tienen por qué ser entidades
lingüísticas, pero sí han de ser isomorfos en su estructura lógica a la de la teoría.
2. Modelos matemáticos. Son representaciones aritméticas de una teoría empírica;
es decir, un conjunto de proposiciones matemáticas que tienen la misma forma
que las leyes de la teoría. También hay isomorfismo estructural.
3. Modelos analógicos. Son representaciones físicas tridimensionales de un objeto
o de un sistema, como por ejemplo un planetario, o los modelos mecánicos del
éter de Kelvin, o en general los gráficos. También hay isomorfismo.
4. Modelos teóricos. Conjunto de asunciones sobre un objeto que permiten
atribuirle una estructura interna, como por ejemplo el modelo atómico de Bohr, o
el modelo de la mesa de billar para la teoría cinética de los gases. Suelen
identificarse con la teoría, recibiendo una interpretación realista.
5. Modelos imaginarios. Conjunto de asunciones sobre un objeto que muestran lo
que debería ser si satisficiese determinadas condiciones que, de hecho, no
satisface. Ejemplos: el modelo de Poincaré para una geometría de Lobatchevski,
o el modelo de campo magnético propuesto por Maxwell. Estudian los objetos y
los sistemas como si fuesen conforme al modelo y desempeñan una importante
función heurística.</
6.
En el modelo deductivo (lógico) las teorías son leyes de nivel superior, y los términos
que aparecen en ellas son teoréticos, pero estos son reductibles a términos empíricos
cuando se reducen las teorías a sus consecuencias empíricas que son las que
contienen los términos de observación directos o términos básicos merced a los cuales,
por indirectamente que sea, la teoría hace referencia a la experiencia, o a la
experimentación.
Las leyes científicas pueden interpretarse mediante dos modelos distintos posibles
(realista y fenomenista), pero de esto hecho surgen dos conclusiones: 1) que la ley, en
sí misma, no determina un modelo único, sino que la interpretación de los términos y
las relaciones que aparezcan en ella dentro de uno u otro marco conceptual constituye
el modelo del dominio, cuyas propiedades y relaciones se describan por la ley; y 2) que
las leyes, en sí mismas, no son la totalidad de lo que entendemos por explicación, ya
que la función de los modelos es darnos cierta comprensión de aquello de lo que se
ocupan las leyes, y de porqué funciona del modo que lo hace.
Los modelos no son simplemente imágenes literales ni juguetes mecánicos que nos
ayuden a palpar el sentido de las descripciones legaliformes, sino que pueden ser
sumamente abstractos e involucrar relaciones no representables en una imagen: en
este sentido, un modelo puede ser una "imagen" teorética, no simplemente mecánica.
Lo que los distingue netamente de las leyes es que éstas, en sí mismas, sólo sirven
como marco para efectuar interpretaciones, sin conllevar su propia interpretación.
Los modelos poseen la característica de que se gastan y de que podemos adoptarlos
cuando los necesitemos y tirarlos por la borda cuando dejen de explicar.
4.1 Los cuatro modelos de explicación científica según Nagel
4.1.1 El modelo nomológico-deductivo de explicación
Este modelo es un modelo formal que intenta estudiar las relaciones entre enunciados
dentro de la estructura que se considera como característica de las explicaciones
científicas. La teoría formal de tal modelo es un sistema lógico de inferencia deductiva
que consiste en obtener, mediante una regla de inferencia, un enunciado particular a
partir de una premisa mayor y otra menor, de las cuales la primera contiene un
enunciado universal y la segunda uno particular. La regla de inferencia que se emplea
en este modelo es el modus ponendo ponens, que presenta la forma
(1) P ® Q
(2) P
----------------
(3) Q
La interpretación que se da a esta regla es: (1) es un enunciado condicional universal;
(2) es la afirmación de que las condiciones expresadas en el antecedente se dan en la
realidad; (3) es la consecuencia deductiva de que si hay casos particulares del
antecedente que son ciertos, habrá casos particulares del consecuente que también lo
son.
Esta regla ejemplifica el tipo de regla que constituye la norma en las explicaciones
científicas, se considera de hecho que una hipótesis fáctica se confirma en un caso
particular si, al cumplirse las condiciones del antecedente, se observa la consecuencia
prevista.
Según esto, explicar consiste en demostrar que un enunciado acerca de un suceso
singular puede presentarse como consecuencia deductiva de una ley y unas
condiciones universales. Este modelo recibe por ello el nombre de nomológico.
Este modelo exige que se disponga de un enunciado universal como premisa y de unos
enunciados singulares verdaderos o presuntamente verdaderos; en él la predicción y la
explicación son simétricas: cuando se sabe que (3) es cierto, se aducen (1) y (2) para
explicitarlo, y cuando se afirman (1) y (2), (3) puede servir de predicción. La dificultad
aquí estriba en afirmar (1), pues si es un enunciado universal, no podrá saberse si es
cierto, sino sólo que constituye objeto de creencia justificada o racional; al ser (1) una
ley científica, será hipotética, es decir, falible o posiblemente falsa; mas, siendo (1)
falso, puede conducir con todo a una inferencia válida, pues el criterio para determinar
si una inferencia es válida es que las premisas verdaderas no pueden dar una
conclusión falsa, mientras que las falsas pueden conducir a verdades mediante tal
inferencia.
El modelo deductivo sirve para generar predicciones que puedan falsas la hipótesis,
porque si (3), que es una predicción deducida del explicador resultase falsa, el
explicador no podría ser cierto; la regla de inferencia indica que las verdades no
pueden dar falsedades mediante una inferencia válida.
A partir de aquí Popper concluye que las leyes de la ciencia no pueden confirmarse
mediante casos singulares positivos, sino sólo falsarse mediante casos negativos; y la
utilidad de las hipótesis en forma de generalizaciones legaliformes estribaría en que
generan enunciados falsables acerca de casos singulares que serían los únicos que
permitirían contrastar tales generalizaciones mediante el hecho de su falsabilidad.
Popper sostiene que una hipótesis se corrobora en el grado en que tales
contrastaciones sean severas, y en el mejor de los casos podrá decirse que tal
hipótesis corroborada ha soportado hasta ahora las pruebas sin que haya habido que
descartarla, pero las pruebas no confirman su verdad. Popper no indica que un caso de
falsación pueda falsar una hipótesis: lo que se precisa es una hipótesis falsadora que
pueda a su vez comprobarse y sea, por tanto, falsable.
Según Hempel, para que una explicación científica sea adecuada, el explicador ha de
poseer contenido empírico, es decir, no ha de ser considerado como verdadero a priori
o analítico. En el explicador pueden existir elementos a priori, pero tiene que haber
algunos elementos que posean contenido empírico o descriptivo y sean, por tanto,
leyes empíricas, y en el mejor de los casos, una ley de este tipo se encontrará
ampliamente confirmada.
Según el modelo deductivo, una ley quedaría explicada cuando pudiera demostrarse
que es la consecuencia deductiva de otros enunciados universales, enunciados que
constituirían el explicador de la ley, que, a su vez, sería lo explicado. De acuerdo con
esta interpretación, el poder explicativo del sistema científico reside en las relaciones
deductivas o formales que puedan establecerse entre las diversas leyes, y lo que
entonces tenemos es una red de leyes, de mayor a menor generalidad, todas ellas
ligadas entre sí mediante pautas de inferencia deductiva. De este modo, a partir de
leyes de gran generalidad podría llegarse, como consecuencia suya, a leyes de menor
generalidad, que a su vez podrían relacionarse en último extremo con leyes de las que
fuera posible deducir enunciados singulares referentes a sucesos particulares.
4.1.1.1 Forma general de la explicación mediante cobertura legal inferencial
Una explicación constituye una respuesta o solución a cierta situación de perplejidad.
Lo que reclama explicación son hechos que en algún sentido nos causan perplejidad o
sorpresa, por ello preguntamos el porqué de los mismos; nos preguntamos por la
explicación de cosas en cierto sentido inesperadas. Por supuesto que podemos buscar
explicación de hechos perfectamente cotidianos que en ese sentido no son
inesperados sino todo lo contrario. Por ejemplo, queremos explicar por qué el Sol
aparece todos los días en el horizonte. En un sentido, este hecho no es inesperado, no
nos causa sorpresa; más bien lo sorprendente sería que el Sol no apareciera una
mañana en el horizonte. Pero hay otro sentido en el que sí es "sorprendente" o
"inesperado", a saber, mientras no tenemos explicación del mismo, sabemos que pasa
y creemos que seguirá pasando, pero no tenemos motivo para justificar nuestra
creencia.
Esta es la idea que inspira el análisis de Hempel. Si una explicación es una respuesta a
una situación de este tipo, entonces la explicación de cierto hecho, "inesperado",
consiste en mostrar que se dan otros hechos que hacen esperable la ocurrencia del
primero. La intuición que quiere recoger Hempel es que en una explicación el
explanans hace esperable el explanandum. Para hacer precisa esta intuición se debe
especificar el sentido exacto en que el explanans hace esperable el explanandum y el
candidato más inmediato para la relación de "esperabilidad" es la relación de inferencia
lógica: ciertos estados de cosas hacen esperable otro si el segundo "está contenido" en
los primeros considerados conjuntamente. Explicar el segundo consiste en mostrar que
efectivamente está contenido en los primeros. Así, el explanans hace esperable el
explanandum en el sentido preciso de que del explanans se infiere el explanandum.
Las explicaciones son argumentos en los que se infiere el hecho a explicar de los otros
hechos que lo explican.
Hempel añade una condición general para poder considerar un argumento como
explicación. No toda inferencia constituye una explicación. La condición adicional es
que en el explanans intervenga al menos un hecho general de cierto tipo. La
esperabilidad del explanandum dado el explanans no es por tanto mera inferencia, sino
inferencia de cierto tipo: el explanans debe incluir al menos un hecho general. Pero,
además, tampoco vale cualquier hecho general, los hechos generales relevantes para
las explicaciones han de ser de cierto tipo. Los hechos generales que incluye el
explanans no pueden ser cualquier regularidad, han de ser regularidades nómicas,
leyes naturales.
La condición adicional que exige Hempel para que una inferencia constituya una
explicación es que el explanans contenga al menos un enunciado general que sea una
ley. La exigencia es que el explanans contenga esencialmente al menos una ley, esto
es, la ley ha de ser necesaria para la inferencia, el explanandum no se puede seguir del
resto de las premisas solas. La idea central es que la esperabilidad siempre ha de ser
nómica. Las regularidades meramente accidentales no hacen esperable nada pues son
justamente eso, accidentales. Por esto toda regularidad que intervenga esencialmente
en el explanans ha de ser nómica; si en la inferencia interviene esencialmente una
regularidad accidental, eso "contamina" de accidentalidad toda la inferencia y la
deslegitima como explicación. Explicatividad y accidentalidad son conceptos
excluyentes. Estamos dispuestos a considerar una inferencia como explicativa, esto es,
como "haciendo al explanandum esperable", en la medida en que consideremos que
las generalidades que intervienen son nómicas. El patrón general del análisis de
Hempel es el siguiente:
1. El explanans contiene esencialmente al menos una ley, y todos los hechos
generales que contenga esencialmente deben ser leyes.
2. Si el explanandum es un hecho particular, el explanans contiene también
esencialmente al menos un hecho particular. Los hechos particulares que
contiene el explanans son las condiciones antecedentes.
3. La relación de explicación es una relación de inferencia lógica, el explanandum
se infiere del explanans.
Las condiciones (1) - (3) caracterizan sólo lo que es una explicación potencial o posible.
En las explicaciones correctas ha de ocurrir, además, que el explanandum sea
verdadero, que lo que explicamos sea algo que efectivamente ocurre. Eso hace a la
explicación real, esto es, que no sea un mero ejercicio conceptual. Pero para que,
además de ser real, sea fácticamente correcta es preciso algo más, a saber, que el
explanans sea también verdadero. Para tener una explicación correcta, el hecho que
ocurre y que queremos explicar debe explicarse mediante hechos que también ocurren.
Las diversas combinaciones posibles dan lugar a cuatro tipos de explicación: el
nomológico deductivo particular, el nomológico deductivo general, el deductivo
estadístico y el inductivo estadístico.
4.1.1.2 Explicación nomológica deductiva particular (NDP)
Se caracteriza por satisfacer, además de (1)-(3), estas tres condiciones adicionales:
4. El explanandum es un hecho particular
5. Las leyes del explanans son estrictamente generales, e.e. no son estadísticoprobabilistas. Por (2) y (4), el explanans incluye también como condiciones
antecedentes determinados hechos particulares, las condiciones antecedentes.
6. La relación de explicación es la de inferencia lógica deductiva
Se puede esquematizar este tipo de explicación del siguiente modo:
NDP
L1,
c1,
-------------e
...,
...,
Ln
cm
Las leyes no probabilistas Li y las condiciones antecedentes cj constituyen
conjuntamente el explanans; el explanandum e se deduce lógicamente de estas leyes y
de esas condiciones antecedentes.
El esquema NDP es, según Hempel, aquel al que se ajustan todas las explicaciones de
hechos particulares mediante teorías no estadístico-probabilistas.
En este esquema se da una simetría entre explicación y predicción. Según Hempel, la
explicación de hechos particulares y la predicción tienen la misma estructura lógica, la
única diferencia entre ambas es pragmática y tiene que ver con la relación temporal
entre la ocurrencia del hecho particular y la construcción del argumento:
En un caso, se sabe que ya se ha producido el suceso descrito en la conclusión, y se
buscan enunciados adecuados que expresen leyes generales y hechos particulares
para explicarlo; en el otro, se dispone ya de estos enunciados y de ellos se deduce el
correspondiente al suceso en cuestión antes del momento de su presunta aparición. [...
Ésta es] la tesis de la identidad estructural (o simetría) de la explicación y de la
predicción (Hempel, Aspects of Scientific Explanation and Other Essays in the
Philosophy of Science, Free Press, Nueva York, 1965, § 2.4)
Este esquema se encuentra con seis grandes tipos de objeciones:
1. Generalizaciones "esenciales" inesenciales. Tal como se ha expresado, NDP
tiene una consecuencia claramente indeseable: se puede explicar cualquier
hecho particular mediante una ley completamente independiente del hecho, esto
es, una ley sin relación alguna con las entidades involucradas en el hecho. Por
ejemplo, sea el explanandum Pa y una ley cualquiera "x(Ax ® Bx) en la que no
intervienen ni el individuo a ni la propiedad P. El siguiente argumento satisface
NDP:
"x(Ax
(Ac
-----------------------Pa
®
®
Bc)
®
Bx)
Pa
Es deductivamente válido, la ley ocurre esencialmente, etc. No sólo eso, sino
que también es materialmente adecuado, pues si el explanandum es verdadero
también lo es la segunda premisa. Pero es obvio que no se puede considerar
una explicación de que a es P, pues la ley no tiene nada que ver con esas
entidades.
2. Precedencia temporal de las condiciones antecedentes. Explicamos la no
ocurrencia de un eclipse de Luna deduciéndolo de leyes mecánicas celestes y
de determinadas posiciones del Sol, la Luna y la Tierra antes del eclipse. Pero el
eclipse se deduce igualmente de las mismas leyes y de posiciones de esos
cuerpos después del eclipse, y no consideraríamos que eso constituiría una
buena explicación. Para que la inferencia sea explicativa parece que las
condiciones antecedentes han de ser anteriores en el tiempo al hecho a explicar.
3. Simetría. Hay pares simétricos de argumentos en los que lo que en uno hace de
conclusión en otro hace de premisa, y viceversa, y ambos satisfacen NDP, pero
sólo uno, y no el otro, se puede considerar explicativo. Así, explicamos la
longitud de la sombra de un mástil en un momento dado deduciéndola de la
óptica física y de la posición del Sol y la altura del mástil. Pero también podemos
proceder a la inversa en la deducción, inferir la altura del mástil de esas leyes, la
posición del Sol y la longitud de la sombra, y no parece que en ese caso
estemos dando una explicación de la altura del mástil.
4. Efectos de causa común. Es una regularidad no accidental, nómica, que poco
tiempo después de que un barómetro registre una caída extremadamente
brusca, se sucede una tormenta en las proximidades. Podemos entonces inferir
la tormenta de la brusca caída del barómetro, junto con esa regularidad, pero
ello no se puede considerar una explicación de la ocurrencia de la tormenta.
Esta regularidad correlaciona dos efectos diferentes de una causa común, a
saber, el brusco descenso de la presión atmosférica. Lo que proporciona la
explicación de cierta tormenta particular es cierto descenso particular de la
presión, no la bajada del barómetro. Este tipo de casos se suelen presentar
además como contraejemplos a la tesis de Hempel sobre la simetría entre
explicación y predicción; podemos predecir la tormenta mediante el barómetro,
pero se trata de predicción sin explicación.
5. Irrelevancia. Supongamos que embrujamos terrones de azúcar profiriendo
ciertas palabras mágicas en su presencia. Es un hecho general que los terrones
embrujados se disuelven cuando se sumergen en agua, por tanto podemos
inferir la disolución de cierto terrón embrujado particular a partir de su inmersión
en agua y de ese hecho general. Pero esta inferencia no explica la disolución del
terrón. En estos casos la inferencia no es explicativa pues parte de las
condiciones antecedentes, y con ello "parte" del hecho general, son
intuitivamente irrelevantes para la ocurrencia del explanandum. Sin embargo,
satisfacen plenamente NDP. Estos hechos son regularidades nómicas, no es en
absoluto accidental que los terrones embrujados se disuelvan. Lo que de raro
tienen estas "leyes" es que son en cierto sentido simplificables, alguna
propiedad contenida en el antecedente es innecesaria, irrelevante a efectos
explicativos, pues el resultado de "suprimirla" es un hecho general que también
es una ley. También estos casos son un contraejemplo a la identidad entre
explicación y predicción, tenemos predicción pero no explicación.
6. Explicaciones teleológicas y funcionales. Las explicaciones teleológicas y
funcionales parece que son explicaciones genuinas y que (en la medida en que
explican hechos particulares) no satisfacen NDP. No lo satisfacen pues,
aparentemente al menos, no se infiere el explanandum del explanans, sino que
(parte de) el explanans se infiere del explanandum (y del resto del explanans).
Explicamos el latido del corazón por su función en la circulación de la sangre. En
esto casos parece que, si es que se pueden considerar inferencias, no sucede
que el hecho explicado se infiere de las condiciones antecedentes, sino más
bien lo contrario. Explicamos un hecho mediante otro que es su función o
finalidad, pero parece que es éste el que se sigue de aquél y no al revés.
4.1.1.3 Explicación nomológica deductiva general (NDG)
A veces aquello de lo que se da explicación no es un hecho particular sino uno general.
Explicamos determinadas leyes derivándolas de otras más generales. Cuando la ley
explicada es una generalización estricta, no estadístico-probabilista, Hempel denomina
también estas explicaciones nomológico-deductivas. Aunque Hempel utiliza la misma
denominación para ambas, hay que diferenciar estas explicaciones de las anteriores;
las diferencias entre ellas se derivan del hecho de que en aquéllas el explanandum es
particular y en éstas general (no probabilista). Es inmediato constatar entonces que las
explicaciones nomológico-deductivas generales se caracterizan, además de por (1)-(3),
por las siguientes condiciones adicionales:
7. El explanandum es un echo general nómico, una ley, no estadístico-probabilista
8. El explanans contiene esencialmente sólo leyes no estadístico-probabilistas.
Ninguna de las leyes del explanans es el explanandum mismo
9. La relación de explicación es la de inferencia lógica deductiva.
Este tipo de explicación se puede esquematizar del siguiente modo:
NDG
L1,
--------------E
...,
Lm
E es la ley (no probabilista) que se deriva de las leyes explicativas. (7) excluye la
posibilidad de explicar hechos generales que no sean leyes. ¿No pueden explicarse
regularidades accidentales? No, pues por ser accidentales no son "esperables", esto
es, explicables. Si se aceptaran como explanandum regularidades accidentales
entonces podrían aceptarse también en el explanans; por tanto, en la medida en que
haya buenas razones para exigir que todos los hechos generales que intervienen
esencialmente en el explanans de una explicación sean regularidades nómicas, en esa
misma medida se excluyen como explanandum hechos generales accidentales.
El principal problema para un análisis satisfactorio de las explicaciones NDG es el de
ofrecer una noción precisa y adecuada de inclusividad que excluya los casos de
autoexplicación. En efecto, en (8) se exige, además del carácter nómico del explanans,
que el explanandum mismo no sea una de las leyes del explanans. De otro modo
contarían como explicaciones inferencias de una ley a partir de sí misma, lo que
evidentemente es inaceptable; por supuesto que es una inferencia válida deducir cierta
ley L de ella misma, pero eso no es una explicación de la ley. En efecto, si el explanans
contiene una ley que es la conjunción del explanandum con cualquier otra, se da
también el tipo de autoderivación que no se puede considerar inferencia explicativa; por
ejemplo, de la ley K Ù B que es la conjunción de las leyes de Kepler, K, con la de
Boyle, B, se infiere deductivamente K, pero ello no explica las leyes de Kepler.
4.1.1.4 Explicación deductivo estadística (DE)
En la explicación NDG el explanandum es una ley que es una regularidad estrictamente
general, en el sentido de no ser una ley estadístico-probabilista. Cuando el
explanandum es una regularidad nómica, pero no estrictamente general sino una ley
estadística, tenemos una explicación que Hempel denomina explicación deductivo
estadística. Estas explicaciones se caracterizan porque en ellas se deduce una ley
estadística a partir de une explanans que contiene indispensablemente al menos una
ley también estadística, realizándose la deducción mediante la teoría de la
probabilidad. Ello hay que entenderlo en el sentido de que en la deducción, y por tanto
en la explicación, se usan como premisas ocultas adicionales determinados principios
del cálculo de probabilidades. Hay que considerarlos incluidos en el explanans, pues
(salvo que se considere, implausiblemente, que son parte del cálculo deductivo) de lo
contrario no se puede completar la deducción y la inferencia sería deductivamente
inválida.
Esto muestra que a veces el explanans puede incluir (quizá elípticamente) leyes
matemáticas. Pero algunas de esas leyes no pueden ser calificadas de regularidades
nómicas, pues se estaría incumpliendo la condición de que todos los hechos generales
que intervienen esencialmente en el explanans sean regularidades nómicas. Hay que
matizar pues esa exigencia y limitarla a los hechos empíricos. La condición es pues
que todo hecho general empírico que intervenga esencialmente en el explanans debe
ser nómico. La idea es que el explanans no puede contener esencialmente ninguna
regularidad empírica accidental, pues ella contaminaría de accidentalidad el resto y
arruinaría su pretendido carácter explicativo.
De lo dicho se desprende que las explicaciones deductivo-estadísticas se caracterizan
por satisfacer, además de (1)-(3), las siguientes condiciones adicionales:
10. El explanandum es una ley estadística.
11. El explanans contiene esencialmente sólo hechos generales. Estas
regularidades (cuando no sean puramente matemáticas) son todas nómicas, y al
menos una de ellas es una ley estadística (diferente del explanandum mismo).
12. La relación de explicación es la de inferencia lógica deductiva.
Podemos esquematizar este tipo de explicación del siguiente modo:
DE
L1,
P1,
--------------E
...,
...,
Ln
Pk
4.1.1.5 Explicación inductivo estadística (IE)
En la explicación NDP explicamos un hecho particular subsumiéndolo bajo ciertas
leyes, donde por subsunción se entiende la derivación deductiva del hecho a partir de
las leyes y de determinadas condiciones antecedentes. En ese sentido la ocurrencia
del hecho particular se muestra (nómicamente), o se hubiera podido predecir (si ya se
ha producido), a partir del explanans. Ésta es la razón de la identificación entre
explicación y predicción. En las explicaciones NDP la esperabilidad es total, pero el
núcleo de esta idea, la explicación de hechos particulares como esperabilidad nómica,
se puede aplicar también según Hempel a casos en los que la esperabilidad no es total.
Hempel denomina inductivo-estadística este tipo de explicación. Las explicaciones de
hechos particulares IE son, como las NDP, argumentos o inferencias mediante
cobertura legal, sólo que ahora la inferencia es inductiva, y entre las leyes del
explanans hay al menos una probabilista. Las condiciones adicionales a (1)-(3) que las
caracterizan son las siguientes:
13. El explanandum es un hecho particular
14. El explanans contiene esencialmente al menos una ley estadística, y todas las
regularidades (empíricas) que contiene esencialmente son leyes. Por (2) y (13),
el explanans incluye también como condiciones antecedentes determinados
hechos particulares, las condiciones antecedentes
15. La relación de explicación es la de inferencia lógica inductiva
El explanandum es un hecho particular sin más, no es un hecho particular probabilista.
Como siempre, todas las generalizaciones que contiene el explanans han de ser
nómicas, pero ahora al menos una debe ser probabilista, de otro modo no se podría
inferir deductivamente el explanandum (por supuesto el explanans puede incluir
además otras leyes no estadísticas).
Este tipo de explicaciones se pueden esquematizar del siguiente modo:
L1,
P1,
c1,
-------------e
...,
...,
...,
Ln
Pk
cm
[r]
Aquí "[r]" denota el grado de soporte inductivo que el explanans confiere al
explanandum. En estos casos n puede ser 0, esto es, el explanans puede contener
quizá sólo leyes estadístico-probabilistas.
4.1.2 El modelo probabilístico
Es la explicación propia de aquellas ciencias que recurren a hipótesis probabilísticas o
estadísticas. Las explicaciones probabilísticas suelen presentarse cuando las premisas
explicativas contienen una suposición estadística sobre alguna clase de elementos,
mientras que el explicandum es un enunciado singular sobre un determinado individuo
de esta clase. En aquellos casos en que la premisa que tiene forma de ley es de
carácter estadístico, la conclusión, el explicandum, no se deduce necesariamente y
tiene sólo un valor de probabilidad (estadística); o lo que es lo mismo, el explanans
implica al explanandum sólo con un cierto grado de probabilidad. Se trata, por
consiguiente, de un razonamiento inductivo y la clase de explicaciones que siguen este
modelo se denominan explicaciones probabilísticas o inductivo-estadísticas, que gozan
de probabilidad inductiva, por lo que sólo confieren verosimilitud. Hempel precisó que
una explicación de este tipo es buena sólo si muestra que su explanandum tiene una
alta probabilidad de ocurrir.
4.1.3 El modelo funcional o teleológico
Explica su objeto propio (explanandum propio de la biología, psicología, antropología y
ciencias sociales humanas) en términos de acción, función o fin (telos). Es distintivo de
los sistemas a los que, de algún modo, se atribuye "finalidad" o "intencionalidad". Se
caracteriza por utilizar expresiones como: "con la finalidad de...", "para que...", etc. Lo
que debe explicarse (explanandum), en una explicación de tipo funcional es una
acción, según aquella expresión: "la función de x es hacer y". Se suele distinguir entre
la explicación funcional y la explicación teleológica.
La explicación funcional considera hechos generales del mundo animal que se refieren
a la acción de una parte con miras al funcionamiento del todo, mientras que la
explicación teleológica trata de hechos particulares de individuos dotados de la
conciencia de fin (finalidad propia) o de conductas "activiformes" (que parecen tender a
un fin). Una y otra suelen oponerse a las explicaciones causales.
4.1.4 El modelo genético
Propio de las ciencias humanas de ámbito histórico, describe la manera como ha
evolucionado o variado a lo largo de la historia el explanandum, u objeto que debe
explicarse, a partir de otro anterior. En las premisas deberá incluirse un gran número de
sucesos o hechos particulares, que resulten pertinentes con el explanandum y que
mantengan con él una supuesta relación de causa y efecto. Como toda explicación,
hecha según el modelo deductivo, las premisas han de incluir también alguna ley
general (fertes tendencias). Estas leyes generales serán normalmente suposiciones
generales sobre relaciones causales entre sucesos.
5. El contexto de la justificación y el contexto del descubrimiento
En Experience and Prediction, Hans Reichenbach propone distinguir entre la tarea de
la epistemología y la de la psicología. La última se ocupa de cómo tienen lugar los
procesos del pensar; la primera, "trata de construir los procesos del pensar del modo
como deberían ocurrir si hubieran de ser dispuestos en un sistema consistente. Por
tanto, "la epistemología considera un sustituto lógico más bien que los procesos
reales". Se trata de una reconstrucción racional, pero, agrega Reichenbach, no
arbitraria, ya que "se halla ligada al pensamiento efectivo mediante el postulado de
correspondencia"; sin embargo, "en cierto sentido es un modo de pensar mejor que el
que tiene efectivamente lugar".
Para distinguir entre la tarea de la psicología y la de la epistemología, Reichenbach
propone dos expresiones que han hecho fortuna: "el contexto de descubrimiento" y el
"contexto de justificación". Sólo el contexto de justificación - que a veces se llama
asimismo de "validación" - es de incumbencia del epistemólogo.
Reichenbach reconoce que hay una "correspondencia" entre el pensar construido (o
reconstruido) lógicamente y el pensar efectivo, y admite, además, que las teorías
científicas son sólo aproximaciones a lo que entiende por "contexto de justificación".
Los que han admitido la distinción propuesta por Reichenbach, o distinciones similares
han alegado a menudo, contra quienes han atacado la distinción, que ésta no se
propone describir los modos como se desarrolla la ciencia, y específicamente las
teorías científicas. El análisis de la ciencia - que en tal caso es a menudo el análisis
lógico de lenguajes científicos suficientemente maduros y desarrollados como para
poder axiomatizarse - es una reconstrucción lógica de teorías científicas, o "una
reconstrucción racional del pensamiento". En esta reconstrucción no desempeñan,
según Reichenbach, ningún papel las consideraciones psicológicas, las cuales se
hallan dentro del contexto del descubrimiento, pero no de la justificación o validación.
La idea central de Reichenbach consistía en prescindir de los procesos científicos
reales, tomando como objeto de la filosofía de la ciencia una reconstrucción lógica de
las teorías: "la epistemología considera un sustituto lógico, más bien que los procesos
reales". Reichenbach aceptó la propuesta de Carnap y utilizó la denominación de
reconstrucción lógica para nombrar la tarea que habían de lleva a cabo previamente los
epistemólogos:
Podríamos decir que una reconstrucción lógica se corresponde con la forma en que los
procesos de pensamiento son comunicados a otras personas, en lugar de la forma en
que son subjetivamente conformados … Introduciré los términos contexto de
descubrimiento y contexto de justificación para hacer esta distinción. Por tanto,
tenemos que decir que la epistemología sólo se ocupa de construir el contexto de
justificación.
Los filósofos no tienen por qué ocuparse de cómo se llega a producir un
descubrimiento científico. Un científico puede estar guiado en sus investigaciones por
hipótesis metafísicas, creencias religiosas, convicciones personales o intereses
políticos y económicos. Para los defensores del empirismo lógico, todos estos aspectos
de la actividad científica no debían ser estudiados por los epistemólogos. Lo esencial
eran los resultados finales de la investigación científica: los hechos descubiertos, las
teorías elaboradas, los métodos lógicos utilizados y la justificación empírica de las
consecuencias y predicciones que se derivan de las teorías. De ahí que el contexto de
descubrimiento no fuera objeto de la epistemología ni de la filosofía de la ciencia, sino
de la psicología, de la historia y de la sociología. La génesis de las teorías no tenía
interés alguno para los defensores de la epistemología científica en los años 30.
No sólo había que partir de las teorías tal y como habían quedado finalmente
articuladas por sus descubridores o divulgadores, tomando como referencia principal
los libros de texto o las grandes obras de los científicos, sino que incluso había que dar
un paso más, analizándolas, reconstruyéndolas y reduciéndolas a sistemas formales.
La idea fundamental, aceptada tanto por el positivismo lógico como por el racionalismo
crítico de Popper, es que es necesario conseguir un criterio que nos permita distinguir
la ciencia de la no ciencia. Se trata de buscar un algoritmo que permita decidir cuándo
una decisión "adoptada" por los científicos sigue los "cánones de la racionalidad" y
cuando no los sigue. Si este algoritmo es encontrado, habremos encontrado un método
para distinguir la buena ciencia de la mala ciencia, lo que es ciencia de lo que no lo es
y, además, sin recurrir para nada a lo que hacen los científicos. Lo que un científico
hace en el laboratorio o en su estudio no es importante, lo importante es que sus
decisiones puedan ser justificadas racionalmente, de acuerdo a ciertos criterios lógicos.
Lo que los positivistas lógicos y Popper comparten es la idea de que las reglas
metodológicas -aquellas que garantizan la correcta práctica científica y el auténtico
conocimiento- conduce a los cánones universales de la racionalidad. Esto es, se parte
de la idea de que en la situación de evaluación, todos los sujetos que poseen la misma
evidencia (información) deben llegar a la misma decisión, cuando proceden
racionalmente. La racionalidad se concibe, entonces, como enclavada en reglas de
carácter universal que determinan las decisiones científicas; el énfasis se pone en las
relaciones lógicas que conectan una creencia con la evidencia, y se minimiza el papel
de los sujetos.
Sin embargo, no todo son semejanzas; también hay diferencias entre ellos. Así, para
los positivistas -representados principalmente por Carnap- el algoritmo buscado sería
una especie de inducción; mientras que para Popper el algoritmo es el modus tollens.
Veámoslo más detenidamente.
5.1 Carnap y la justificación de la inducción
Según los empiristas lógicos, en el estudio de la ciencia es preciso distinguir dos tipos
de cuestiones: las que se refieren al origen de las hipótesis y las teorías, al modo y
circunstancias en que se formularon, etc.; y las relativas al análisis de tales productos
una vez formulados y expuestos. Las primeras serían cuestiones pertenecientes a la
historia o la psicología, mientras que las segundas configuran el ámbito propio de la
filosofía de la ciencia. Reichenbach expresó de forma definitiva esta idea distinguiendo
entre el "contexto de descubrimiento" y el "contexto de justificación" de las teorías y
afirmando que el objetivo de la filosofía de la ciencia consiste en la justificación lógica y
empírica de éstas. Por otra parte, uno de los proyectos fundamentales del empirismo
lógico consistía en establecer una clara diferencia entre la ciencia y otras disciplinas.
En la búsqueda de un criterio sintético, contingente, con un "significado empírico"; de
modo que el problema se centraba en encontrar un criterio preciso y eficaz de
significado empírico. El primer criterio de este tipo que se adoptó fue el principio de
verificabilidad completa en principio, según el cual un enunciado sintético S tiene
significado empírico sólo si es posible especificar un conjunto finito y consistente de
enunciados observacionales del que S es deducible. Lo cual implica que comprender el
significado de un enunciado sintético equivale a conocer los hechos que determinarían
su verdad o su falsedad, pero no ser requiere que tales hechos se hayan observado
efectivamente sino que basta con que sean lógicamente posibles.
Entre los inconvenientes de este criterio se encontraba el que no tendrían significado
empírico ni, por tanto, cabida en la ciencia las hipótesis universales, como es el caso
de las leyes, ya que, al carecer de restricciones espaciotemporales, no son deducibles
de un conjunto finito de enunciados observacionales. Esta dificultad obligó a revisar el
principio de verificabilidad con el fin de hacerlo más permisivo, postulando que para
que un enunciado sintético tenga significado empírico, es suficiente con que goce de un
cierto apoyo evidencial. Carnap representó el "grado de conformación" de una hipótesis
en relación a un conjunto de datos observables como la probabilidad lógica que los
datos confieren a la hipótesis. La lógica inductiva era para Carnap la "fundamentación
del razonamiento inductivo", pero entendiendo tal razonamiento no en el sentido
clásico, y definitivamente desacreditado por Hume, sino como el que atribuye a la
conclusión un grado de confirmación, una cierta probabilidad, y permite así adoptar
"decisiones racionales". De este modo la inducción volvía a ser el método fundamental
en las ciencias empíricas y la clave de su racionalidad, aunque no como un
procedimiento heurístico sino como método para la aceptación y elección racionales de
hipótesis, leyes y teorías científicas ya propuestas.
Sin embargo, este nuevo criterio de significado empírico, con sus implicaciones
metodológicas, no estaba libre de inconvenientes. Si se considera que una hipótesis
científica debe tener un algo contenido informativo y, por tanto, gran capacidad
predictiva, el grado de probabilidad lógica de una hipótesis no es un síntoma de su
"bondad", sino que puede serlo de todo lo contrario, ya que cualquier enunciado es
tanto más probable cuanto menor es su contenido. De ahí que una hipótesis universal o
una ley sea absolutamente improbable, porque, si se admite la definición clásica de
probabilidad como el número de casos favorables dividido por el de casos posibles, una
hipótesis de este tipo, que se refiere a infinitos casos posibles, tendría una probabilidad
nula por amplia que sea la evidencia disponible a su favor. Un modo de salvar esta
dificultad sería suponer que los casos posibles deben ser similares a los conocidos y
favorables, pero tal extrapolación supone admitir un principio de inducción que carece
de fundamentación lógica y empírica.
Carnap propuso una solución a este problema según la cual, cuando se utiliza una ley
general, no se atiende a todas sus implicaciones sino sólo a un reducido número de
predicciones concretas, cuyo grado de confirmación incrementa el apoyo evidencial,
inductivo, de la ley y justifica la confianza en ella. Por tanto, la fiabilidad de una ley "no
se mide por el grado de confirmación de la ley misma sino por el de una o varias de sus
instancias". Sin embargo, esta solución es marginal respecto a su lógica inductiva y
supone el reconocimiento implícito por parte de Carnap de su fracaso al intentar
mejorar el criterio verificacionista de significado empírico para dar cabida en la ciencia a
los enunciados universales.
5.2 El falsacionismo de Popper
El criterio de cientificidad que propone Popper no pretende ser un criterio de significado
empírico sino únicamente de "demarcación" y afirma que un enunciado o conjunto de
enunciados es científico sólo si es susceptible de contrastaciones experimentales que
determinen su falsedad, es decir, sólo si es falsable en principio. Un enunciado
científico es para Popper un enunciado prohibitivo, un enunciado que, por su precisión
y/o carácter universal, excluye la ocurrencia de determinados hechos y situaciones
observables incompatibles con él y que constituyen el dominio de sus "falsadores
posibles", ya que de ocurrir determinarían su refutación. Y cuanto más prohibitivo es un
enunciado, más nos dice acerca del mundo, esto es, mayor es su contenido empírico y
menor su probabilidad. En suma, según el criterio de cientificidad popperiano, los
enunciados o sistemas de enunciados de una ciencia empírica han de ser
inevitablemente arriesgados e improbables.
Popper defiende que el método científico consiste fundamentalmente en proponer
hipótesis y teorías explicativas audaces y en contrastarlas, a través de sus
consecuencias observacionales, no para verificarlas o confirmarlas, sino para intentar
falsarlas y proponer otras mejores. La opción por esta metodología tiene para él una
justificación lógica en la asimetría entre verificación y falsación, según la cual, si un
enunciado universal no puede ser verificado concluyentemente por numerosos que
sean los casos particulares a su favor, basta un solo caso desfavorable para que
podamos concluir, mediante la aplicación del modus tollens, su falsedad. Al mismo
tiempo, Popper afirma que no hay en la ciencia "procedimiento más racional que el
método del ensayo y del error, de la conjetura y la refutación". No obstante, admite que
es explicable que el científico, ante determinadas refutaciones de su teoría, no la
rechace de forma inmediata sino que introduzca alguna hipótesis auxiliar que restituya
el acuerdo entre la teoría y los hechos. Pero sólo son admisibles en la ciencia hipótesis
auxiliares que puedan ser contrastadas aisladamente, de modo que su inclusión en la
teoría en cuestión aumente el contenido empírico de ésta y, por tanto, su grado de
falsabilidad. Las hipótesis que no cumplen este requisito son meras hipótesis ad hoc,
típicas de las disciplinas pseudocientíficas y a las que no se debe recurrir en la
investigación científica.
Si en un momento determinado una teoría ha resistido las pruebas experimentales a
que ha sido sometida, la teoría ha "demostrado su temple" y se la considerará
"corroborada". Pero el número de contrastaciones superadas por una teoría no basta
para evaluar su grado de corroboración; para esto es preciso atender, además, a la
severidad de dichas pruebas. Y cuanto mayor es el contenido empírico de una teoría y
menor, por tanto, su probabilidad, más rigurosas son las pruebas experimentales a que
debe hacer frente. Para Popper el grado de corroboración de una teoría se encuentra
en relación inversa a su probabilidad lógica. De todos modos, aceptar una teoría o una
hipótesis corroborada no equivale a considerarla verdadera o definitivamente
establecida, sino simplemente merecedora de ser sometida a nuevas contrastaciones.
Los elementos falsadores o corroboradores de una hipótesis o teoría no son hechos
concretos, sino los enunciados singulares que los describen: enunciados a los que
Popper llama "enunciados básicos". Sin embargo, un enunciado de esta clase carece
de una justificación última. Nuestra experiencia sensorial puede motivar nuestra
aceptación de un enunciado básico, pero no puede probarlo lógicamente porque las
relaciones lógicas se dan entre enunciados y no entre enunciados y sensaciones, que
son fenómenos psicológicos. Por otra parte, los enunciados básicos han de ser
científicos, aunque de bajo nivel, y esto significa que han de ser falsables. La
aceptación de un enunciado básico en el curso de una contrastación es el resultado de
una "decisión" de los científicos, que, aunque libre, no es meramente convencional o
dogmática.
Por otra parte, no se trata de una decisión dogmática, porque da por válido un
enunciado básico refutador al contrastar una teoría no implica considerarlo verdadero
sino tan sólo lo suficientemente firme como para falsar dicha teoría; no es, por tanto,
una decisión epistemológica, sino metodológica. Pero dado que los hechos aislados e
irreproducibles carecen de interés en la investigación científica, sería insensato
rechazar una teoría a partir de uno o unos pocos enunciados básicos esporádicos, que
podrían ser casuales. Por tanto, lo que realmente refuta una teoría es una hipótesis de
bajo nivel relativa al carácter no excepcional de los enunciados básicos; una hipótesis
falsable, pero suficientemente corroborada. Esto significa que un experimento falsador
tiene la estructura de un experimento crucial entre la teoría en cuestión y una hipótesis
falsadora, en el que los enunciados básicos aceptados se convierten en corroboradores
de esta hipótesis.
En sus consideraciones sobre la naturaleza de la metodología, Popper se muestra
contrario al enfoque según el cual el estudio del método científico consiste
fundamentalmente en la descripción de los procedimientos que han utilizado y utilizan
los científicos y tiene, por tanto, un carácter meramente empírico. Insiste en que este
enfoque, al que califica de "naturalista", es incapaz de conducir al descubrimiento de un
patrón unificador de la multiforme práctica científica y defiende que la metodología es
una disciplina claramente filosófica, cuyo interés es mucho más normativo que
descriptivo. Por ello dice que no pretende afirmar que los científicos no han utilizado
jamás el método inductivo, sino que este método es inútil e incluso origina
incoherencias y que sólo una actitud falsacionista por parte de los científicos garantiza
el aumento de conocimiento en la ciencia.
5.3 La nueva filosofía de la ciencia
La "nueva filosofía de la ciencia" se caracteriza por un intento por reivindicar la
dimensión histórica, social y pragmática de la compleja empresa científica. Es, en
cualquier caso, una crítica a la concepción de la ciencia de los positivistas lógicos y del
racionalismo crítico popperiano. Del mismo modo que Popper sometió a una crítica
implacable los resultados del positivismo lógico, Lakatos, Kuhn y Feyerabend
someterán a crítica los presupuestos del racionalismo crítico popperiano.
El núcleo fundamental de la crítica de estos filósofos consiste en afirmar que los
científicos no hacen lo que Popper y los positivistas afirman que hacen y que, por tanto,
si queremos dar una descripción real del procedimiento científico debemos buscar por
otro camino. Este camino requiere prestar una atención más detallada a los estudios
históricos sobre la ciencia y a lo que los científicos hacen realmente, lo que quiere
decir, en términos del problema que estamos tratando, prestar mayor atención al
"contexto de descubrimiento" y menor atención al "contexto de justificación". Esta
afirmación está más matizada en Lakatos y es mucho más radical en Kuhn y
Feyerabend.
5.3.1 Lakatos
La ingenuidad del falsacionismo popperiano consiste, según Lakatos, en el supuesto de
que una teoría queda falsada por un enunciado básico que entre en conflicto con ella.
Este supuesto ni siquiera encuentra justificación en la filosofía de Popper, porque éste
admite que un enunciado básico nunca puede considerarse probado por la experiencia
y es posible, en muchas circunstancias, recurrir a hipótesis auxiliares que inmunicen a
la teoría frente a los hechos. Además, la historia de la ciencia nos enseña que ningún
experimento, por crucial que parezca, ningún enunciado básico y ninguna hipótesis
falsadora son suficientes para falsar una teoría importante; para ello es indispensable
que haya surgido otra teoría alternativa que se considere mejor que la anterior. De ahí
que el falsacionismo popperiano sea para Lakatos una metodología apriorística,
elaborada de espaldas a la práctica científica real e inaplicable a ella.
Teniendo en cuenta la función que Popper atribuye a las hipótesis auxiliares y el
incremento de contenido empírico que éstas deben aportar, más que de una teoría
aislada habría que hablar de una sucesión de teorías T 1, T2, T3, ¼, cuyos miembros, a
partir de T1, resultan de la introducción de hipótesis y cláusulas auxiliares. Estas series
dinámicas de teorías, a las que Lakatos llama programas de investigación científicos,
constituyen las unidades básicas de su metodología. En cualquier momento de la
evolución de un programa de investigación es posible distinguir en su estructura un
centro firme y un cinturón protector. El centro firme está formado por un reducido
número de enunciados teóricos de alto nivel (postulados o principios de una teoría). Y
al cinturón protector pertenecen, junto a las hipótesis auxiliares que permiten la
continuidad del programa, teorías de nivel inferior, leyes particulares, estipulaciones
acerca de la aplicación de los principios y las leyes, etc. Sin embargo, los aspectos
estructurales de un programa son insuficientes para caracterizarlo plenamente, dado
que se trata de una entidad dinámica. De ahí que conceda una especial importancia a
su heurística, es decir, a las normas metodológicas, explícitas o implícitas, que los
científicos comparten y que explican la evolución de un programa. Parte de estas
normas tienen por objeto mantener al centro firme lejos del alcance de toda falsación y
dirigir la flecha del modus tollens hacia el cinturón. Existe también en todo programa
una heurística positiva, que orienta al científico respecto a lo que debe hacer. Se trata
de una serie de normas referidas no sólo al modo de introducir o modificar hipótesis
auxiliares sino también a la forma de mejorar el programa, reformulando el centro firme,
desarrollando teorías complementarias, técnicas matemáticas y experimentales, etc. En
este aspecto, la heurística de un programa permite al científico prescindir de ciertas
"anomalías perturbadoras" de éste confiando en su futura solución.
Pero no todas las hipótesis auxiliares son igualmente aceptables y, por tanto, un
programa puede evolucionar de forma incorrecta. Un programa es progresivo, o
experimenta cambios progresivos de problemas, cuando cada nueva teoría en la serie
T1, T2, T3, ¼, incrementa su contenido, es decir, predice hechos nuevos e incluso
sorprendentes, y además tales predicciones se corroboran, al menos parcialmente. Un
programa progresivo es aquel que conduce al descubrimiento de hechos nuevos e
inesperados. Un programa es regresivo cuando no aporta nuevos descubrimientos,
cuando se limita a dar explicaciones post hoc de hechos nuevos, conocidos
casualmente. En este contexto introduce Lakatos su criterio de demarcación, según el
cual una teoría o un cambio de problemas sólo puede ser considerado científico si, al
menos, aventura nuevas predicciones. Es explicable, no obstante, que un programa de
investigación que empieza siendo progresivo deje de serlo más adelante. De hecho
todo programa acaba siendo, tarde o temprano, regresivo. Sin embargo, el carácter
regresivo de un programa no obliga a los científicos a abandonarlo, sino que seguirá
vigente hasta que surja un programa alternativo mejor, es decir, un programa que
explique sus éxitos y muestre además mayor capacidad heurística.
No obstante, es posible que un programa, considerado regresivo durante una etapa,
deje de serlo cuando algunas de sus predicciones obtienen una confirmación de la que
antes carecían. Por ello Lakatos reconoce que no hay nada de irracional en que se siga
defendiendo un programa de investigación incluso después de haber sido sustituido por
otro. Y afirma que este tipo de indeterminación es inevitable en cualquier metodología.
Insiste en que es preciso abandonar la antigua ilusión racionalista de establecer un
método preciso, de aplicación fácil e instantánea que permita al científico tomar
decisiones casi mecánicas. La investigación científica no está regida sólo por criterios
lógicos y empíricos y en las decisiones de los científicos influyen factores difíciles de
analizar.
Pero si no es posible establecer normas precisas que garanticen la racionalidad de las
decisiones de los científicos, sí se pueden evaluar tales decisiones una vez que han
sido tomadas: "sólo ex post podemos ser 'sabios'".
5.3.2 Kuhn
El modelo kuhniano surge básicamente de la investigación histórica, la cual muestra, a
juicio de Kuhn, que gran parte del proceder científico viola las reglas metodológicas
propuestas tanto por los empiristas lógicos como por los racionalistas críticos, y que
ello no ha impedido el éxito de la empresa científica. Esta objeción de falta de
adecuación histórica implica un profundo desacuerdo con el carácter normativo de las
metodologías clásicas; el objetivo, para Kuhn, es dar cuenta del desarrollo efectivo de
las creencias y prácticas científicas, tomando en consideración los estudios sobre su
historia.
Kuhn encuentra que los métodos también evolucionan y cambian con el desarrollo de
las distintas tradiciones de investigación. Pero entonces, si los métodos no son fijos ni
universalizables, una teoría de la ciencia (una metodología) tiene que poder dar cuenta
de su evolución. De aquí que la tarea de las metodologías se conciba ahora como la de
ofrecer modelos del desarrollo y el cambio científicos, que permitan entender la
dinámica de la ciencia no sólo en el nivel de las hipótesis y teorías, sino también en el
nivel de los procedimientos de prueba y los criterios de evaluación.
La vía para abordar el problema de la racionalidad en la ciencia es la investigación
empírica de sus mecanismos y resultados a través del tiempo. Los principios formativos
y evaluativos se deben extraer del registro histórico de la ciencia exitosa, en lugar de
importarlos de algún paradigma epistemológico preferido y tomarlos como la base de
"La reconstrucción racional", a priori, de la ciencia.
Una tesis central del modelo de Kuhn es que la investigación científica que se realiza la
mayor parte del tiempo (ciencia normal) es la investigación organizada bajo un mismo
marco de supuestos básicos (paradigma). La investigación de este tipo se caracteriza
por ser básicamente una actividad de resolución de problemas (enigmas), la cual está
encaminada a lograr el acuerdo entre la teoría vigente y los hechos. El objetivo de esa
actividad es resolver enigmas suponiendo la validez de una teoría (de las leyes
fundamentales que la definen), ya que sin esa suposición ni siquiera se podrían
plantear los enigmas.
Los filósofos clásicos, al no distinguir entre dos tipos básicamente distintos de
investigación científica, la normal y la extraordinaria, fundieron y confundieron los
procesos de evaluación que ocurren en cada una de ellas. Sin embargo, estos
procesos presentan características notablemente diferentes, pues tanto aquello que se
pone a prueba (lo que se contrasta), como la forma de evaluar los resultados, varían
radicalmente en uno y otro caso. Durante los períodos de ciencia normal, se someten a
prueba las hipótesis que permiten aplicar las leyes fundamentales de una teoría a
situaciones específicas, es decir, se contrastan las conjeturas que permiten resolver
problemas concretos, tomando como base la teoría establecida. Si una hipótesis o
conjetura logra pasar suficientes pruebas, o pruebas suficientemente severas, de
acuerdo con los criterios del paradigma vigente, la comunidad considerará que se ha
resuelto el problema.
Tales contrastaciones no tienen por objeto la teoría establecida. Por el contrario,
cuando el científico está ocupado en un problema de ciencia normal, debe contar con
una teoría establecida que tiene como misión sentar las reglas del juego (Kuhn, T.,
"Lógica del descubrimiento o psicología de la investigación" en I. Lakatos y A.
Musgrave (eds.), La crítica y el desarrollo del conocimiento, Barcelona, Grijalbo, 175,
pp. 81-111)
En las teorías maduras o establecidas, en aquellas que han generado tradiciones
fecundas de investigación se distinguen dos tipos de leyes: fundamentales y
especiales. Las primeras son esquemas muy generales con escaso contenido
empírica; más que leyes sean esquemas de leyes que orienta al crítico sobre gustar
cuando quiere resolver un problema.
Las leyes fundamentales no se puede contrastar directamente con la experiencia sólo
dan lugar a leyes especiales, es decir, leyes con un contenido empírico más definido,
una vez que ha sido complementado con supuestos adicionales. Estos supuestos -que
no se deduce de dichas leyes- son justamente los que especifica las distintas
posibilidades de aplicación de una teoría.
El fracaso de una conjetura, al ser contrastada empíricamente, no implica el fracaso de
la teoría (de sus leyes fundamentales), sólo indica que algo anda mal en la forma en
que se intentó aplicar la teoría, o sea, en los supuestos adicionales. Y si bien puede
ocurrir que se abandonen algunas de las leyes especiales y se siga manteniendo con
toda confianza la matriz que la generó -la teoría-, nunca puede darse el caso inverso.
Por tanto, las teorías no se ponen a prueba de la misma manera que sus aplicaciones.
El error de los filósofos clásicos ha sido suponer que "una teoría puede juzgarse
globalmente mediante el mismo tipo de criterios que se emplean al juzgar las
aplicaciones de una investigación particular dentro de una teoría". Sin embargo, una
vez que una teoría ha alcanzado el estatus de paradigmática, deja de tener un papel
hipotético y se convierte en la base de toda una serie de procedimientos explicativos,
predictivos, e incluso instrumentales, que la presuponen.
Esto muestra que no existen las instancias refutadoras en sentido popperiano, es decir,
resultados que por sí mismos impliquen el abandono de la teoría. Para que una
anomalía pueda ser considerada como un auténtico contraejemplo, con la capacidad
de refutar una teoría, se requiere que la existencia de una perspectiva teórica
alternativa desde la cual se pueda emitir ese juicio.
El carácter de contraejemplo es por tanto relativo, pues el cuestionamiento global de
una teoría sólo se da en la competencia con otra teoría rival que parece resolver las
anomalías, y esto sólo ocurre en los poco frecuentes períodos de ciencia
extraordinaria.
Los filósofos de la tradición, al suponer sólo un tipo posible de desarrollo científico ignorando la distinción entre ciencia normal y extraordinaria-, extrapolaron a la totalidad
de la investigación científica lo que sólo sucede en ciertos periodos. Los empiristas
lógicos generalizaron el patrón de investigación normal, interpretándolo como una
búsqueda de confirmación de las teorías. Los racionalistas críticos caracterizaron toda
la actividad científica en términos que sólo se aplican a la investigación extraordinaria.
Del modelo de Kuhn no se desprende un rechazo de los métodos de confirmación y
refutación, sino un esclarecimiento de sus límites y condiciones de aplicación. Sólo son
aplicables al evaluar conjeturas con un contenido empírico definido (que no tienen las
teorías), y en el marco de un conjunto de presupuestos o compromisos establecidos
(paradigma). Esto no sólo significa que las teorías no se abandonan por refutación ni se
aceptan por confirmación, sino también que estos métodos son insuficientes, por sí
solos, para decidir sobre el éxito o el fracaso de las hipótesis más específicas. Sólo en
el contexto de un paradigma está claro qué cuenta como evidencia, qué problemas son
legítimos, qué soluciones son aceptables, etc.
Toda tradición de investigación normal se enfrenta, tarde o temprano, con anomalías
que se muestran lo suficientemente reacias a solución como para minar la confianza de
la comunidad en su enfoque teórico, provocando la búsqueda de posibles sustitutos.
Entonces se inicia un período de ciencia extraordinaria, el cual eventualmente
desemboca en una revolución, es decir, en el desplazamiento de un enfoque teórico
por otro, y por tanto, en un cambio de paradigma.
En este período de investigación extraordinaria, los acuerdos básicos se resquebrajan,
las "reglas del juego" de la ciencia normal pierden fuerza y su aplicación se vuelve cada
vez menos uniforme. Como los científicos en esta situación "tienen la disposición para
ensayarlo todo", proliferan los intentos de articulación de estructuras teóricas
alternativas que permitan resolver las anomalías, hasta que una de ellas logra
perfilarse como el candidato rival del enfoque anterior. Cuando esto ocurre, se inicia la
competencia por lograr la aceptación de la comunidad pertinente.
¿Cómo eligen los científicos entre teorías en competencia?, ¿cómo se comparan
teorías integradas en paradigmas rivales? Éste no es el tipo de competencia que se
puede resolver por medio de pruebas. Esto es, resulta imposible encontrar
procedimientos de decisión que se apliquen de manera uniforme y con total acuerdo a
la manera como en las ciencias formales existen procedimientos que, aplicados paso a
paso, permiten identificar los errores de una demostración o aprobarla como correcta.
No hay ningún algoritmo neutral para la elección de teorías, ningún procedimiento
sistemático de decisión que, aplicado adecuadamente, deba conducir a cada individuo
del grupo a la misma decisión (Kuhn, T.S., "Postscript-1969" a La estructura de las
revoluciones científicas)
La elección entre teorías rivales no se puede resolver apelando a la lógica y la
experiencia neutral -como pretenden los empiristas lógicos-, ni mediante decisiones
claramente gobernadas por reglas metodológicas -como proponen los racionalistas
críticos-, porque las diferencias que separan a las teorías rivales las hacen
inconmensurables.
5.3.2.1 La tesis de inconmensurabilidad
Las revoluciones científicas no sólo muestran el reemplazo de principios teóricos
fundamentales. También muestran el cuestionamiento y eventual modificación de otros
componentes de la empresa científica que hasta ese momento se habían considerado
evidentes o seguros: datos, objetivos, normas, procedimientos, técnicas, etc. Al
examinar las diferencias que pueden surgir entre los defensores de teorías rivales,
Kuhn encuentra el siguiente repertorio:
Cuando cambian los paradigmas, hay normalmente transformaciones importantes en
los criterios que determinan la legitimidad tanto de los problemas como de las
soluciones propuestas (Kuhn, T.S., La estructura de las revoluciones científicas, p. 109)
Por otra parte, "en el nuevo paradigma, los términos, los conceptos y los experimentos
anteriores entran en relaciones diferentes entre sí".
Esta tesos kuhniana de que un cambio de paradigma lleva consigo cambios cruciales
de significado -cambios en la red conceptual a través de la cual los científicos
estructuran su campo de estudio- se refiere no sólo a ciertas variaciones en los
términos teóricos, sino también en los términos de observación. Kuhn emprende una
crítica de fondo a la tesis empirista de la existencia de una base observacional neutral y
de su lenguaje correspondiente. Kuhn afirma que no hay observaciones puras, no
contaminadas por nuestros sistemas de creencias, ni datos absolutamente estables. No
sólo la interpretación de las observaciones depende del marco conceptual en el que se
esté inmerso, sino también las mismas posibilidades perceptuales. "Lo que un hombre
ve depende tanto de lo que mira como de lo que su experiencia visual y conceptual
previa lo ha enseñado a ver". La "carga teórica" de la observación impide, por tanto,
contar con un lenguaje completamente neutral en el cual se puedan expresar todas las
consecuencias contrastables de dos teorías rivales.
Por otra parte,
los paradigmas sucesivos nos dicen cosas diferentes acerca de la población del
universo y acerca del comportamiento de esa población. (ibid., p. 103)
Con esto Kuhn está apuntando a las diferencias en los compromisos ontológicos, en
los supuestos sobre la existencia de entidades y procesos, y sobre su naturaleza. Estos
compromisos inciden en la clasificación de los objetos, y repercuten en el tipo de
experimentos que se diseñan y de observaciones que se realizan.
Kuhn concluye que los paradigmas rivales, junto con sus tradiciones de investigación
normal, son inconmensurables. Por tanto, la inconmensurabilidad es una relación
compleja entre paradigmas sucesivos, que abarca las diferencias en las normas de
procedimiento y evaluación (diferencias metodológicas), en las estructuras
conceptuales (diferencias semánticas), así como en la percepción del mundo y en los
supuestos ontológicos.
Estas diferencias impiden que quienes entran en debate partan de las mismas
premisas -y establezcan una comunicación completa-, por tanto no se puede probar,
con base en una argumentación que todos acepten, que una teoría es mejor que otra.
No se puede apelar a una experiencia (observación) neutral, ni a criterios de evaluación
que sean universalmente aceptables. No existe una instancia de evaluación por encima
de los paradigmas a la cual poder apelar en los períodos revolucionarios. Precisamente
por eso son revolucionarios. La existencia de una instancia semejante significaría que,
a fin de cuentas, no hay más que una única manera correcta de hacer ciencia, como
han supuesto los filósofos que defienden la concepción clásica de la racionalidad
científica.
Si no hubiera más que un conjunto de problemas científicos, un mundo en el que poder
ocuparse de ellos y un conjunto de normas para su solución, la competencia entre
paradigmas podría resolverse por medio de algún proceso más o menos rutinario,
como contar el número de problemas resueltos por cada uno de ellos (ibid., pp. 147148)
En los años setenta Kuhn restringe la inconmensurabilidad a la divergencia semántica
entre teorías: dos teorías son inconmensurables cuando están articuladas en lenguajes
que no son mutuamente traducibles. Esto es, la diferencia semántica entre teorías
rivales es de tal naturaleza que impide que todos sus términos básicos sean
interdefinibles y, en consecuencia, que sus enunciados sean intertraducibles. En el
desarrollo de esta versión semántica se destacan las siguientes tesis: 1) "La
comparación punto por punto de dos teorías sucesivas exige un lenguaje al cual
puedan traducirse, sin pérdidas ni residuos, por lo menos las consecuencias empíricas
de ambas". 2) En el caso de teorías inconmensurables, "no existe un lenguaje común
en el cual se puedan expresar completamente ambas teorías, y al que por tanto se
pudiera recurrir en una comparación punto por punto entre ellas".
De esta manera, la inconmensurabilidad queda ligada al fracaso de traducción
completa entre teorías, fracaso que repercute en el tipo de comparación que se puede
establecer entre ellas. Y queda claro que lo que la inconmensurabilidad impide es un
tipo determinado de comparación, la "comparación punto por punto". También se infiere
que la clave para llegar a esta situación hay que buscarla en un tipo peculiar de cambio
semántico (un vocabulario puede sufrir diversos cambios de significado sin que ello
conduzca a un fracaso de traducción, como sucede en los períodos de investigación
normal).
Las teorías inconmensurables son teorías que entran en una competencia genuina
porque pretenden "hablar de lo mismo", aunque utilizando algunos términos que no son
mutuamente traducibles (fenómeno que había pasado totalmente desapercibido en la
filosofía tradicional de la ciencia). Se trata, por tanto, de teorías que invitan a un juicio
comparativo. La teoría de Ptolomeo y la de Copérnico se refieren a movimientos
planetarios. Y es precisamente el que tengan un ámbito común de referencia lo que
vuelve tan sorprendente el hecho de que sean inconmensurables.
Ahora bien, desde un punto de vista meramente histórico, el que "planeta" en la teoría
de Ptolomeo no signifique lo mismo que "planeta" en la teoría de Copérnico puede ser
considerado como un indicador más de lo que sucede en el avance científico. Sin
embargo, este tipo de cambio semántico se vuelve un serio problema cuando se
reflexiona sobre la comparación de teorías. A pesar de sus notables diferencias, se
puede afirmar que estos modelos -tanto los que surgen del empirismo lógico como del
racionalismo crítico- presentan una estructura básica común: primero se enuncian las
consecuencias contrastables de las teorías en un lenguaje básico común, y después
mediante algún algoritmo que establezca una medida de comparación de su
verdad/falsedad -de sus grados de confirmación o de sus grados de verosimilitud,
según la corriente filosófica-, se elige entre ellas con total acuerdo. Pero éste es
justamente el tipo de comparación punto por punto que la inconmensurabilidad impide,
lo cual revela que en la concepción tradicional se parte del supuesto de que "el
problema de la elección de teorías se puede resolver empleando técnicas que sean
semánticamente neutrales".
5.3.2.2 Taxonomías, traducción y aprendizaje
La clave del tipo de cambio semántico que conduce al fracaso de traducción completa
entre teorías está en las relaciones básicas de semejanza y diferencia -que se
adquieren durante la educación profesional- de acuerdo con las cuales se identifican y
distinguen entre sí, se clasifican, los objetos del dominio de investigación:
Uno de los aspectos de toda revolución es que algunas de las relaciones de semejanza
cambian. Objetos que antes estaban agrupados en el mismo conjunto son agrupados
después en conjuntos diferentes, y viceversa. Piénsese en el Sol, la Luna, Marte y la
Tierra, antes y después de Copérnico; en la caída libre, el movimiento pendular y el
movimiento planetario, antes y después de Galileo; o en las sales, las aleaciones y las
mezclas de azufre y limaduras de hierro, antes y después de Dalton. Como la mayoría
de los objetos, incluso dentro de los conjuntos que se alteran, continúan agrupados
igual, los nombres de los conjuntos generalmente se conservan ("Reflections on my
Critics", en I. Lakatos y a. Musgrave (eds.), o.c., 391-454)
Este cambio en los esquemas clasificatorios supone un cambio en las categorías
taxonómicas básicas. Se trata, por tanto, de un cambio de significado que no se
restringe al modo como las teorías rivales caracterizan su ámbito de referencia, sino
que también implica una modificación en la estructura de dicho ámbito. De esta
manera, no sólo varía el sentido (la intensión) de ciertos términos, sino también su
referencia (su extensión). Esto se puede apreciar fácilmente en el caso de la transición
de la astronomía ptolemaica a la copernicana. Antes de esta transición, la Luna era un
caso paradigmático de planeta, el Sol también era un planeta y la Tierra estaba fuera
de la discusión; después, la Tierra pasó a ser un planeta como Marte y Júpiter, el Sol
pasó a ser una estrella, y la Luna se catalogó como un nuevo tipo de objeto, un satélite.
Es claro que la extensión del término "planeta", su referencia, se alteró de manera
drástica, alteración que no se puede interpretar como una mera corrección puntual en
el sistema ptolemaico. Se trata de un cambio que involucra una modificación de las
supuestas leyes de la naturaleza junto con una manera diferente de asociar los
términos con los objetos del dominio. Y cuando ocurre un cambio de este tipo, tienen
que surgir problemas serios de traducción: "¿Por qué es tan difícil la traducción, ya sea
entre teorías o entre lenguajes? Porque, como se ha señalado con frecuencia, los
lenguajes recortan el mundo de maneras diferentes" (ibid.).
Por contraste, la mayoría de los cambios de significado, aquellos que ocurren en la
ciencia normal, no implican alteraciones de la estructura taxonómica del dominio de
investigación. No todo desarrollo semántico está ligado con cambios en la taxonomía
ni, por tanto, genera inconmensurabilidad.
Un cambio de taxonomía tiene siempre un carácter holista, es decir, nunca se da como
una modificación puntual en categorías aisladas. Por ejemplo, cuando se aprende
mecánica newtoniana, los términos "masa" y "fuerza" deben aprenderse a la vez, y la
segunda ley de Newton debe desempeñar un papel en dicho aprendizaje". También la
manera como se identifican las fuerzas y masas en situaciones concretas pone de
relieve su dependencia mutua, dependencia cuya forma está dada por la segunda ley.
Por esto los términos newtonianos "fuerza" y "masa" no son traducibles al lenguaje de
una teoría física, como la aristotélica o la einsteiniana, donde no se asume la versión
de Newton de la segunda ley.
Ahora bien, el cambio en la estructura taxonómica, si bien tiene un crucial efecto
holista, sólo se refleja en un subconjunto de términos básicos:
La mayoría de los términos comunes a las dos teorías [inconmensurables] funciona de
la misma forma en ambas; sus significados [...] se preservan; su traducción es
simplemente homófona. Surgen problemas de traducción únicamente con un pequeño
subgrupo de términos (que usualmente se interdefinen), y con los enunciados que los
contienen. La afirmación de que dos teorías son inconmensurables es más modesta de
lo que la mayor parte de sus críticos ha supuesto ("Conmensurabilidad, comparabilidad
y comunicabilidad", en T. S. Kuhn, ¿Qué son las revoluciones científicas? y otros
ensayos, Barcelona, Paidós-ICE de la Universidad Autónoma de Barcelona, 1989, 91135)
Es aquí cuando Kuhn pone en claro el carácter local de la inconmensurabilidad,
haciendo explícito el supuesto de una considerable base semántica común entre las
teorías rivales. Esta base común permitiría que al menos una parte de su contenido se
comparara directamente:
Los términos que preservan su significado a través de un cambio de teoría
proporcionan una base suficiente para la discusión de las diferencias, y para las
comparaciones que son relevantes en la elección de teorías. Proporcionan incluso [...]
una base para poder explorar los significados de los términos inconmensurables (ibid.)
Frente a la siguiente pregunta: ¿cómo pueden tener éxito los historiadores al interpretar
teorías del pasado cuanto éstas no son completamente traducibles al lenguaje de las
teorías actuales?, ¿acaso ese éxito no es una prueba de que tales teorías no son
realmente inconmensurables?, la respuesta de Kuhn es que esta línea de crítica parte
de un supuesto equivocado, que es la ecuación entre interpretación y traducción. El
trabajo de un historiador de la ciencia exige básicamente procesos de interpretación, no
de traducción. El historiador se topa con textos aparentemente sin sentido, cuya
comprensión exige la construcción de una forma de lectura alternativa, donde se
detecten los conjuntos de términos que han cambiado de significado, y donde se
descubra, vía la propuesta de hipótesis interpretativas, el uso que tenían dichos
términos en el texto original.
Si tiene éxito, al final habrá logrado aprender una nueva lengua. Pero "aprender" un
nuevo lenguaje no es lo mismo que traducir ese lenguaje al propio. Tener éxito en lo
primero no implica que se vaya a tener éxito en lo segundo. El caso crucial para el
científico que intenta comprender una teoría inconmensurable con la propia, es cuando
se topa con términos en relación con los cuales no hay en su lenguaje (o teoría) un
término o conjunto de términos que tenga la misma referencia. Éste es el caso,
justamente, en que el investigador se encuentra con una estructura taxonómica que no
es homologable a la suya. En estas circunstancias, el aprendizaje del nuevo lenguaje
(teoría) implica aprender a reconocer los referentes de ciertos términos que no son
traducibles al propio lenguaje.
La diferencia entre Kuhn y Quine radica en que, mientras Quine supone la
universalidad del lenguaje, en el sentido de que cualquier cosa que pueda ser
expresada en un lenguaje puede también ser expresada en cualquier otro lenguaje,
Kuhn supone la capacidad, en principio, de aprender cualquier lenguaje:
Cualquier cosa que se puede decir en un lenguaje puede, con suficiente imaginación y
esfuerzo, ser comprendida por un hablante de otro lenguaje. El requisito previo para tal
comprensión, sin embargo, no es la traducción sino el aprendizaje del lenguaje
("Dubbing and Redubbing: the Vulnerability of Rigid Designation", en C.W. Savage
(ed.), Scientific Theories. Minnesota Studies in the Philosophy of Science, vol. XVI, 298318, University of Minnesota Press, Minneapolis)
Este aprendizaje no garantiza la traducción completa porque un léxico limita el rango
de mundos, o formas de ver el mundo, que son accesibles. Y aunque los conjuntos de
mundos que son accesibles desde dos léxicos diferentes se pueden traslapar, quedará
en cada caso un subconjunto que no se puede describir en el otro léxico, el que
corresponde a las diferencias locales en las taxonomías. De aquí que cuando se
aprende un lenguaje, se aprende a categorizar y estructurar el mundo de una
determinada manera, es decir, se adquiere una ontología.
5.3.2.3 Desacuerdos racionales y elección de teorías
Si comparamos los valores a los que Kuhn alude con los que se han propuesto en la
tradición, no encontramos nada novedoso. Sin embargo, la novedad está en afirmar
que los valores epistémicos condicionan pero no determinan las decisiones de los
científicos, lo cual significa que no dan lugar a reglas capaces de generar un algoritmo
de decisión.
Estos valores, que son la fuente de las "buenas razones" en la elección de teorías, no
dan lugar a argumentos concluyentes por dos razones. La primera es que en los
períodos de crisis cada uno de ellos puede ser interpretado de manera diferente por
diferentes miembros de la misma comunidad científica. Por ejemplo, qué significa que
una teoría sea más simple que otra, y a qué aspectos se refiere la simplicidad, es algo
que no queda fijado de manera unívoca por el compromiso de una comunidad con este
valor. La segunda razón es que los valores cognitivos pueden entrar en conflicto en su
aplicación concreta; por ejemplo, una teoría puede dar predicciones más exactas que
otra, pero ser menos fecunda. Esto hace necesaria una jerarquización donde se asigne
un peso relativo a los distintos valores.
Pero si los valores epistémicos o metodológicos no determinan las decisiones
individuales, ¿cómo llega cada científico a tomar una decisión en la situación de tener
que elegir entre teorías rivales? La respuesta es que se requiere que intervengan
factores adicionales, los cuales pueden variar fuertemente de un científico a otro; y es
aquí donde pueden intervenir factores no estrictamente científicos o incluso extracientíficos. Por tanto, el análisis de la elección de teorías, en el nivel de las decisiones
individuales, muestra la confluencia de dos tipos de componentes: los valores
epistémicos compartidos y las valoraciones o motivaciones personales.
Otros de los factores pertinentes en la elección se hallan fuera de las ciencias. La
elección que hizo Kepler del copernicanismo obedeció, en parte, a su inmersión en el
movimiento neoplatónico y el movimiento hermético de su época; el romanticismo
alemán predispuso a quienes afectó hacia el reconocimiento y la aceptación del a
conservación de la energía; el pensamiento social de la Inglaterra del siglo XIX ejerció
una influencia similar en la disposición y aceptación del concepto darwiniano de lucha
por la existencia. Otras diferencias, también importantes, son función de la
personalidad. Algunos científicos valoran más que otros la originalidad y, por tanto,
están más dispuestos a correr riesgos; otros prefieren teorías amplias y unificadoras en
lugar de soluciones precisas y detalladas de los problemas, que tengan menor alcance
("Objetividad, juicios de valor y elección de teorías" en T. S. Kuhn, La tensión esencial,
México, CONACYT-FCE, 1982, 344-364)
Este tipo de factores, que Kuhn llama ideológicos, conforma la manera particular en
que cada científico aplica los valores epistémicos compartidos, la manera en que los
interpreta y los jerarquiza en las situaciones donde deja de haber lineamientos claros.
El desacuerdo permitido por el carácter no determinante de la base epistémica
compartida cumple una función vital para el desarrollo científico: la distribución de
riesgos en los períodos críticos de una disciplina. La existencia de un algoritmo que
prescribiera decisiones uniformes podría resultar contraproducente. La situación de
elección de teorías es casi siempre una situación de riesgo, pues los científicos tienen
que optar entre teorías que no están totalmente desarrolladas, por una parte, y teorías
que no es evidente que estén agotadas, por otra. Por tanto, resulta más que
conveniente que haya quienes emprendan el desarrollo de las nuevas teorías, y
quienes continúen trabajando en las teorías en crisis con la mira de lograr una
estimación más o menos confiable de su potencial. Sin el desacuerdo, la investigación
correría el peligro de atrofiarse dentro de un enfoque teórico, o de cambiar de enfoque
antes de haberlo explotado lo suficiente.
Si hubiera un algoritmo de decisión, los desacuerdos se deberían a que la menos una
de las partes en conflicto está procediendo de manera irracional; pero en ese caso las
reglas del método permitirían una solución, pues indicarían qué pruebas habría que
realizar para obtener la evidencia decisiva. Por lo tanto, todo desacuerdo sería
decidible en principio. Sin embargo, los juicios que en un momento dado expresan
opiniones encontradas pueden tener ambos razones de peso a su favor, sin que
ninguno viole los estándares aceptados o vaya en contra de la evidencia disponible.
Pero, sobre todo, en ciertos cortes sincrónicos se puede observar que los científicos no
tienen claro cómo se podría decidir su desacuerdo.
Para entender la noción de racionalidad que emerge del modelo de Kuhn, debemos
comenzar con el fenómeno de la variabilidad individual. La afirmación de que dos
sujetos, en la misma situación de elección de teorías, pueden divergir en su decisión
sin que ninguno esté procediendo de manera irracional, va en contra de un principio de
racionalidad muy arraigado, que está en la base del modelo clásico: si es racional para
un sujeto elegir A en cierta situación, no puede ser racional para otro sujeto elegir B en
esa misma situación. Sin embargo, lo que la afirmación de Kuhn revela es que la
racionalidad tiene que ver, sobre todo, con aquello que está permitido, más que con lo
que es obligatorio.
Para Kuhn: 1) el principal agente de la ciencia, su sujeto, no es el individuo, sino la
comunidad; y 2) la elección de teorías no es un suceso que ocurre en un momento
determinado, sino un proceso que comienza con un desacuerdo y termina con un
nuevo acuerdo.
El considerar a la comunidad como el sujeto que tiene le papel decisivo en el desarrollo
científico introduce una dimensión social, imprescindible, en la racionalidad científica.
Esto marca otro fuerte contraste con la concepción tradicional donde la ciencia es
esencialmente una empresa desarrollada por individuos, que incluso podría trabajar
aislados, dado que las supuestas reglas que gobiernan su actividad constituyen un
control suficiente para garantizar el acuerdo intersubjetivo sobre sus creencias y
decisiones individuales. En la concepción de Kuhn, por el contrario, la ciencia no se
puede entender como un juego de una sola persona. Como en los juicios y propuestas
de los científicos individuales intervienen preferencias subjetivas, que generan los
desacuerdos, y como no hay cánones de evaluación fijos y universales, toda la
responsabilidad de resolver los desacuerdos recae en la comunidad de expertos.
Una vez que están planteadas las alternativas rivales, éstas se vuelven objeto de un
debate abierto entre los miembros de la comunidad profesional, y sólo las decisiones
que resultan del proceso de evaluación y crítica comunitaria pueden calificarse como
científicamente racionales. La comunidad es la instancia que controla las propuestas y
juicios individuales; al filtrar a través del debate las valoraciones meramente subjetivas
-aquellas que no logran reunir el acuerdo de otros especialistas-, la comunidad limita la
dependencia de la empresa científica respecto de los sujetos individuales. De esta
manera, la comunidad es el tribunal que tiene la última palabra en las situaciones de
conflicto.
5.3.3 Feyerabend
Existen teorías científicas sobre un mismo dominio de fenómenos que son
inconmensurables. Una teoría científica general incorpora una determinada concepción
del mundo y un marco conceptual y un lenguaje propios, de ahí que no se limite a
representar o describir objetivamente fenómenos naturales sino que configure objetos,
conforme los hechos y, en definitiva, constituya un determinado modo de percepción
del mundo. No existen observaciones ni experimentos neutros, sino que éstos sólo son
posibles en un determinado marco teórico. Por tanto, dos teorías generales cuyas leyes
fundamentales sean incompatibles son, en algunas de sus interpretaciones, tan
inconmensurables como pueden serlo dos ideologías diferentes y no pueden existir
entre ellas relaciones de inclusión, exclusión o solapamiento.
Según Feyerabend, no existe un conjunto de reglas o criterios metodológicos fijos e
invariables que puedan servir de guía al científico en la formulación de nuevas hipótesis
y teorías, en la aceptación de teorías ya formuladas o en la elección entre dos teorías
alternativas. Y, en este sentido, carece de relevancia metodológica la distinción entre
contexto de descubrimiento y contexto de justificación que se había defendido en el
empirismo lógico. La historia de la ciencia nos muestra que no hay regla, por
incontestable que parezca, que no haya sido, afortunadamente, desobedecida en algún
momento, de ahí que reconstruir la historia de la ciencia pretendiendo haber
descubierto en ella una racionalidad invariable equivale a empobrecerla en la mezquina
búsqueda de claridad, precisión y "seguridad intelectual". Una regla metodológica
ampliamente aceptada es aquella que, partiendo de la idea de que los hechos y los
experimentos constituyen la base para la aceptación o el rechazo de teorías científicas,
aconseja desarrollar sólo hipótesis que sean consistentes con teorías ya admitidas y
bien confirmadas y/o con los hechos establecidos; una regla metodológica que, para él,
carece de justificación y cuya desobediencia sistemática es incluso beneficiosa para el
desarrollo de la ciencia. La adopción de tal regla supone dar por válido el "principio de
autonomía de los hechos", esto es, la tesis según la cual "los hechos existen y están
disponibles independientemente de que se consideren o no alternativas a la teoría que
ha de ser contrastada". Sin embargo, frecuentemente, la evidencia que puede provocar
el rechazo de una teoría o, por el contrario, incrementar su corroboración sólo surge
cuando se adopta un punto de vista totalmente distinto, porque hay hechos que sólo
pueden ser formulados por hipótesis y teorías alternativas. El conocimiento no avanza
mediante una sucesión de teorías consistentes entre sí sino a través del contraste entre
perspectivas diferentes e incluso incompatibles, de modo que exigir a una nueva
hipótesis consistencia con las teorías aceptadas equivale a favorecer a éstas por el
simple hecho de ser más antiguas y familiares. Tampoco estaría justificado exigir a las
nuevas hipótesis que concuerden con los hechos establecidos, en primer lugar, porque,
en realidad ninguna teoría científica cumple cabalmente este requisito y, en segundo
lugar, porque, dado que ningún experimento o informe de observación es neutro
teóricamente, tal exigencia supondría aceptar acríticamente una determinada
"ideología observacional". En consecuencia, lo más aconsejable es desobedecer esta
regla metodológica y actuar contrainductivamente, desarrollando hipótesis
incompatibles con las teorías y la base observacional establecidas, sin descartar para
ello teorías científicas ya rechazadas o ideas provenientes de fuera de la ciencia: de la
metafísica, la mitología o la religión. Por tanto, todo vale en la ciencia.
5.3.4 Hanson
Hanson critica la idea de la concepción heredada según la cual lo fundamental en el
estudio de la ciencia es el contexto de la justificación. Hanson se queja de que los
filósofos desfiguren las teorías físicas, aludiendo muy pocas veces a los conceptos que
de verdad utilizan los científicos:
La razón es simple. Ellos han considerado como paradigmas de la investigación física
sistemas completamente desarrollados como la mecánica celeste, la óptica, el
electromagnetismo y la termodinámica clásica y no ciencias no acabadas, dinámicas y
en proceso de búsqueda, como la microfísica (Hanson, N.R., Patrones de
descubrimiento. Observación y explicación, Madrid, Alianza, 1977, p. 73)
Este error básico arrastra consigo otros, en cadena. Las nociones de 'observación',
'hecho', 'hipótesis', 'ley', e incluso 'teoría', están fosilizadas a fortiori por esta falta de
contacto de los filósofos de la ciencia con la investigación real, al centrarse
exclusivamente en las venerables teorías históricas, y entre ellas, sólo en las más
respaldadas y acreditadas.
Las observaciones que se efectúan en los laboratorios nunca son triviales ni
inmediatas: requieren unos conocimientos previos. El neófito es incapaz de percibir lo
que capta un especialista al estudiar los resultados de un análisis o de un experimento.
Hay que conocer la jerga correspondiente, a saber por qué cada instrumento está
dispuesto como está, tener idea de lo que es significativo y lo que no en los resultados
obtenidos, etc.
Si contraponemos a dos científicos que defienden teorías contrapuestas sobre los
mismos fenómenos, ¿perciben ambos lo mismo al observar un experimento?
Pensemos en Johannes Kepler. Imaginémoslo en una colina mirando el amanecer. Con
él está Tycho Brahe. Kepler considera que el Sol está fijo; es la Tierra la que se mueve.
Pero Tycho, siguiendo a Aristóteles, al menos en esto, sostiene que la Tierra está fija y
que los demás cuerpos celestes se mueven alrededor de ella. ¿Ven Kepler y Tycho la
misma cosa en el Este, al amanecer? (ibíd., p. 79)
Para responder a la pregunta no vale investigar sus respectivas imágenes retinianas:
«La visión es una experiencia. Una reacción de la retina es solamente un estado físico,
una excitación fotoquímica» (ibíd., p. 81). Tycho y Kepler están viendo el mismo objeto
físico: un disco luminoso y brillante, de un color blanquecino amarillo, situado en un
espacio azul sobre una zona verde. Pero no observan lo mismo.
La psicología de la Gestalt ha mostrado, con múltiples experimentos, que sobre una
misma imagen se pueden ver objetos diferentes:
Decir que Kepler y Tycho ven la misma cosa al amanecer sólo porque sus ojos son
afectados de un modo similar es un error elemental. Existe una gran diferencia entre un
estado físico y una experiencia visual (op. cit., p. 84)
Es demasiado fácil decir que Tycho y Kepler, Simplicio y Galileo, Hooke y Newton,
Priestley y Lavoisier, Soddy e Einstein, De Broglie y Born, Heisenberg y Bohm hacen
las mismas observaciones pero las utilizan de forma diferente. Esto no explica las
controversias existentes en las ciencias en proceso de búsqueda. Si no hubiera ningún
sentido en el que las observaciones fueran distintas, no podrían ser usadas de forma
diferente (Ibíd., p. 99)
Hanson está atacando uno de los pivotes más firmes de la concepción heredada y del
neopositivismo: la común base sensorial y observacional de las percepciones. Esa tesis
sólo puede ser mantenida cuando el filósofo de la ciencia ha estudiado las teorías ya
constituidas y aceptadas, en el marco de las cuales sus cultivadores efectivamente ven
igual los fenómenos. Pero en las fases de descubrimiento, con las controversias entre
teorías que suelen acompañarlas, la cuestión debe ser planteada en otros términos.
Investigar la lógica del descubrimiento implica elaborar una nueva teoría sobre la
observación científica, para lo cual Hanson aporta la siguiente tesis:
La visión es una acción que lleva una carga teórica. La observación de x está
moldeada por un conocimiento previo de x. El lenguaje o las notaciones usados para
expresar lo que conocemos, y sin los cuales habría muy poco que pudiera reconocerse
como conocimiento, ejercen también influencias sobre las observaciones (Ibíd.)
Si volvemos al ejemplo imaginario de Kepler y Brahe viendo el Sol, Hanson concluyó
que los campos visuales respectivos tienen una organización diferente, desde un punto
de vista conceptual. Por tanto, la observación científica no es inmediata ni ingenua.
Está cargada conceptualmente y determina el contexto en el cual tiene lugar. En la
configuración de dicho contexto influyen las teorías científicas.
Entre las imágenes y el lenguaje hay un abismo, afirma Hanson. El lenguaje
observacional, caso de mantenerse esa noción, no se reduce a imágenes ni a
sensaciones: cada uno de sus términos posee una componente teórica y conceptual.
Explicar un fenómeno x no consiste en buscar su causa antecedente, sino en insertarlo
en un sistema conceptual, en una teoría, en cuyo marco cobra sentido y significado;
mientras que en otra teoría puede resultar irrelevante.
Galileo estudió la Luna frecuentemente. Está surcada de agujeros y discontinuidades;
pero decir de éstos que son cráteres -decir que la superficie lunar está llena de
cráteres- es insertar astronomía teórica en las observaciones personales. ¿Un valle
natural profundo es un cráter? Los mineros excavan abrupta y profundamente, pero su
resultado ¿es más que un agujero? No; no es un cráter. Un pozo abandonado no es un
cráter; tampoco lo es el vórtice de un torbellino. Decir que una concavidad es un cráter
equivale a comprometerse con su origen, decir que su origen fue violento, rápido,
explosivo. Las explosiones de artillería producen cráteres, e igualmente los hacen los
meteoritos y los volcanes. Los dibujos de la superficie de la Luna serían simplemente
dibujos de una esfera marcada con hoyos, pero Galileo vio cráteres (Hanson, Patrones
de descubrimiento. Observación y explicación, Madrid, Alianza, 1975, p. 145)
Hanson llama así la atención sobre un aspecto de la lógica del descubrimiento que no
había sido advertido: no ya sólo la observación o la explicación científica están influidas
por las teorías, es decir, por sistemas conceptuales sin los cuales ni se ve, ni se
entiende, ni se puede llegara explicar ningún fenómeno, sino que la propia elección de
los términos del lenguaje observacional orienta luego la investigación en una dirección
o en otra y, por lo tanto, puede ser heurísticamente más o menos afortunada. La
historia de la ciencia está llena de ejemplos en los que una inadecuada elección de las
denominaciones dio lugar a que los planteamientos teóricos que se desarrollaban por
medio de ese vocabulario fuesen mal recibidos por la comunidad científica, dando lugar
a que dichas teorías no llegaran a ser aceptadas, teniendo que ser redescubiertas
mucho tiempo después.
5.3.5 Otros críticos de la concepción heredada
Muchos de los autores que se han opuesto a la "concepción heredada" niegan que
haya la supuesta dicotomía entre los dos contextos. Esta negación puede asumir varias
formas; la más conocida, representada, entre otros, por Hanson, va acompañada de
esfuerzos para constituir lo que se ha llamado una "lógica del descubrimiento". Los
procesos de descubrimiento no siguen necesariamente vías azarosas ni están
condicionados y, con ello, validados por circunstancias "externas"; hay formas y
modelos o patrones de descubrimiento. La "lógica de la ciencia" es una "lógica del
producto terminado", en tanto que una "lógica del descubrimiento" es una lógica que,
aun si parte del producto terminado, sigue los pasos que llevaron lógicamente a tal
producto. Los modos de desarrollar la "lógica del descubrimiento" varían dependiendo
de lo que se entienda por 'contexto' en la expresión 'contexto de descubrimiento'. Cabe
entender tal contexto de un modo "máximo", en cuyo caso la lógica del descubrimiento
se "disuelve", en efecto, en psicología o en sociología de la ciencia, perdiéndose
entonces toda estructura lógica o fiándose en "estructuras lógicas" del contexto al que
se recurra en cada caso. Puede entenderse de un modo "mínimo" o, cuando menos,
"moderado, como lo hace Hanson al hablar de la lógica del descubrimiento
"filosóficamente respetable", la cual incluye, entre otros elementos, estudios de pasos
inferenciales a partir del reconocimiento de anomalías y determinación de tipos de
hipótesis que puedan servir para "explicar" las anomalías, y la cual constituye, en sus
palabras, "un área de investigación, no un manual de conclusiones" (o de recetas). Aun
en el sentido "mínimo" o "moderado", sin embargo, se postula que una "lógica del
descubrimiento" tiene que distinguirse de una "lógica de los métodos de inducción",
que Reichenbach y otros autores "ortodoxos" estiman ser la metodología apropiada
para el estudio del procedimiento científico.
Para Toulmin, la filosofía de la ciencia debe dejar de interesarse por las teorías
científicas consolidadas, para investigar las teorías en su proceso de construcción y
desarrollo:
Ha llegado la hora de ir más allá de la imagen estática, "instantánea", de las teorías
cientificas a la que los filósofos de la ciencia se han autolimitado durante tanto tiempo y
de desarrollar una "imagen móvil" de los problemas y procedimientos científicos, en
cuyos términos la dinámica intelectual del cambio conceptual en la ciencia llegue a ser
inteligible, y transparente la naturaleza de su racionalidad
A lo largo de los años sesenta, se han hicieron diversas críticas a la distinción entre
contexto de justificación y contexto de descubrimiento, mostrando que está conectada
con distinciones tan relevantes para la filosofía de la ciencia como la que hay entre lo
factual y lo normativo o entre la lógica y lo empírico, o incluso entre la historia de la
ciencia internalista y externalista. Hubo autores que afirmaron la existencia de
componentes lógicas y reglas heurísticas en los procesos de descubrimiento científico.
Por influencia de Kuhn, numerosos autores han optado por añadir un tercer término a la
distinción, e incluso un cuarto. Así, para Goldman, la actividad de resolver problemas
científicos incluye la generación o propuesta de los mismos, su indagación, testar las
soluciones posibles y, finalmente, la toma de una decisión: el descubrimiento y la
justificación no serían, por lo tanto, pasos consecutivos, sino interactivos; asimismo, no
cabe adscribir una fase de la resolución de problemas científicos a la lógica y el resto a
la historia, a la psicología o a la sociología de la ciencia.
Los filósofos de la ciencia de tendencia historicista reivindican la conveniencia de
ocuparse también del contexto de descubrimiento, en colaboración con los
historiadores, psicólogos y sociólogos de la ciencia.
No obstante, a pesar de todas estas críticas, autores tan influyentes actualmente como
Giere o Laudan han seguido manteniendo la idea básica de la distinción de
Reichenbach. Así, Giere afirma explícitamente que:
Para nosotros, el razonamiento científico no es el razonamiento del laboratorio sino el
del informe de investigación, una vez terminada ésta. La mayor parte de lo que sucede
de hecho durante la investigación nunca aparece en el informe final
Para Laudan, la ciencia es, en esencia, "una actividad de resolución de problemas",
pero los filósofos de la ciencia deben ocuparse sobre todo de la racionalidad científica,
y ésta se restringe a
la evaluación cognoscitivamente racional de los problemas científicos. Hay muchos
casos en que, sobre bases no racionales o irracionales, un problema llega a tener gran
importancia para una comunidad de científicos. Así, determinados problemas pueden
adquirir una relativa importancia porque la Agencia Estatal para la investigación
científica paga a los científicos para que trabajen en ellos, o, como en el caso de la
investigación del cáncer, porque hay presiones morales, sociales y financieras que
pueden "elevar" tales problemas a un lugar quizá más alto del que merecen desde un
punto de vista cognoscitivo. No es mi propósito adentrarme en las dimensiones no
racionales de la evaluación de problemas
De acuerdo con estas posturas, la filosofía de la ciencia no tiene como objeto de
estudio la actividad real de los científicos, con sus diversas mediaciones y
complejidades, sino que debe ocuparse de reflexionar exclusivamente sobre las
exposiciones finales de los resultados de la investigación científica. Los sociólogos de
la ciencia sociólogos de la ciencia se han opuesto a este reduccionismo
epistemológico, argumentando que la construcción de los hechos en el laboratorio y los
procesos de consenso entre científicos en la fase de investigación son determinantes
de los resultados finales
6. Bibliografía
Alvarez, S., "Racionalidad y método científico", en Olivé, L. (ed.), Racionalidad
epistémica, Madrid, Trotta/CSIC, 1995, pp. 147-169
Brown, H.I.: La nueva filosofía de la ciencia, Madrid, Tecnos, 1994
Carnap, R., Autobiografía intelectual, Paidós
----, Fundamentación lógica de la física, Orbis
Chalmers, A.F.: ¿Qué es esa cosa llamada ciencia?, Madrid, Siglo XXI, 1989
Diéguez Lucena, A., Realismo científico. Una introducción al debate actual en
filosofía de la ciencia, Málaga, Universidad de Málaga, 1998
Díez, J.A., Fundamentos de filosofía de la ciencia, Barcelona, Ariel, 1997
Echevarría, J.: Filosofía de la ciencia, Madrid, Akal, 1995
----, Introducción a la metodología de la ciencia. La filosofía de la ciencia en el
siglo XX, Madrid, Cátedra, 1999
Elster, J., Tuercas y tornillos. Una introducción a los conceptos básicos de las
ciencias sociales, Barcelona, Gedisa, 1996
Feyerabend, P.K., Tratado contra el método, Madrid, Tecnos, 1981
----, Diálogo sobre el método, Madrid, Cátedra, 1989
----, Límites de la ciencia, Barcelona, Paidós, 1989
Feynman, R.: El carácter de la ley física, Barcelona, Orbis, 1986
Hanson, N.R., Constelaciones y conjeturas, Madrid, Alianza, 1985
----, Patrones de descubrimiento. Observación y explicación, Madrid, Alianza,
1977
Hempel, C.G.: La explicación científica. Estudios sobre filosofía de la ciencia,
Buenos Aires, Paidós, 1979
-- Filosofía de la ciencia natural, Madrid, Alianza, 1995
Kuhn, T.S., La estructura de las revoluciones científicas, México, FCE, 1975
----, ¿Qué son las revoluciones científicas? y otros ensayos, Barcelona, Paidós,
1989
----, La revolución copernicana, Barcelona, Orbis, 1984
Lakatos, I., Pruebas y refutaciones, Madrid, Alianza, 1978
----, La metodología de los programas de investigación científica, Madrid,
Alianza, 1982
----, Matemáticas, ciencia y epistemología, Madrid, Alianza, 1987
Lakatos, I., y Musgrave, A. (eds.), La crítica y el desarrollo del conocimiento,
Barcelona, Grijalbo, 1975
Laudan, L.: El progreso y sus problemas, Madrid, Encuentro, 1986
---- La ciencia y el relativismo, Madrid, Alianza, 1990
Losee, J., Introducción histórica a la filosofía de la ciencia, Madrid, Alianza, 1976
Mosterín, J.: Conceptos y teorías en la ciencia, Madrid, Alianza, 1984
Moulines, C.U. (ed.): La ciencia: estructura y desarrollo, Madrid, Trotta, 1993
Moulines, C. U., y Díez, J. A., Fundamentos de Filosofía de la Ciencia,
Barcelona, Ariel, 1997
Nagel, E., Simbolismo y ciencia, Buenos Aires, Nueva Visión, 1972
Pérez Ransanz, A.R., "Racionalidad y desarrollo científico" en Olivé, L.(ed.),
Racionalidad epistémica, Madrid, Trotta/CSIC, 1995, pp. 171-201
Popper, K.: El desarrollo del conocimiento científico. Conjeturas y refutaciones,
Buenos Aires, Paidós, 1967
----, Los dos problemas fundamentales de la epistemología, Madrid, Tecnos,
1998
Rivadulla, A.: Filosofía actual de la ciencia, Madrid, Tecnos, 1986
Rupert Hall, A., La revolución científica. 1500-1750, Barcelona, Crítica, 1985
Russell, B., La perspectiva científica, Barcelona, Planeta, 1986
Solís, C., Alta tensión: filosofía, sociología e historia de la ciencia, Barcelona,
Paidós, 1998
Stegmüller, W., La concepción estructuralista de las teorías, Madrid, Alianza,
1981
Suppe, F.: La estructura de las teorías científicas, Madrid, UNED, 1991
Suppes, P.: Estudios de filosofía y metodología de la ciencia, Madrid, Alianza,
1988
VV.AA., Perspectivas actuales de lógica y filosofía de la ciencia, Madrid, Siglo
XXI, 1994
Wartofsky, M.W.: Introducción a la filosofía de la ciencia, Madrid, Alianza, 1973
Descargar