METÁFORAS EN LA EVOLUCION DE LA CIENCIA

Anuncio
METÁFORAS EN LA EVOLUCION DE LA
CIENCIA
Héctor A. Palma
REFERENCIA: Palma, H. (2004), Metáforas en le evolución de las ciencias, Buenos Aires, J. Baudino
Ediciones.
AGRADECIMIENTOS
Este trabajo es una versión, con algunas modificaciones, de mi tesis de doctorado
titulada “Estudio sobre la relevancia epistémica de las metáforas en la evolución de la
ciencia”, presentada en la Universidad Nacional de Quilmes, defendida el 18/9/03, y
realizada bajo la dirección del Dr. Pablo Lorenzano. Vaya mi agradecimiento hacia él;
algunos aciertos de este trabajo se deben a sus excelentes sugerencias y acompañamiento,
pero, de hecho, lo desligo definitivamente de toda responsabilidad por eventuales errores.
También quiero agradecer al sistema universitario público argentino porque, aún en
condiciones de adversidad inusitadas, sigue produciendo conocimiento y generando las
condiciones para la formación académica y profesional de sus estudiantes de grado y
posgrado: en particular a la Universidad de Buenos Aires donde realicé mi formación de
grado; a la Universidad Nacional de Quilmes porque me ha permitido cursar estudios de
posgrado en un clima amable y de excelencia académica; y, principalmente, a la
Universidad Nacional de Gral. San Martín porque su apoyo me ha permitido crecer en
investigación y docencia. En momentos muy dificiles para el sistema educativo en su
conjunto renuevo mi compromiso con los valores de la universidad pública.
PRESENTACION
El recopilador de graffitis
“Era una metáfora. La metáfora es siempre
la mejor forma de explicar las cosas”
(J. Saramago, Todos los nombres)
Una afirmación bastante curiosa podía leerse, hace ya muchos años -muchísimos
para mi gusto-, en el portón de la casa en que convivíamos, a veces en equilibrio precario y
según la costumbre de la inmigración italiana, abuelos, padres, nietos, tíos y primos. Escrita
con tiza de cera negra, sostenía que “La muerte tiene complejo de altura”. Podía pensarse
que se trataba de un inquietante solapamiento entre alguna variante psicoanalítica y el
eterno problema de la frágil existencia humana. O de una parte, extrapolada arbitrariamente,
de una ontología capaz de cuantificar en términos de estatura el acto final y solitario de
nuestra vidas.
Como quiera que sea, que alguien se haya tomado el trabajo de escribirla, y
justamente allí, indicaba que ese intento comunicativo no era simplemente una afirmación
absurda. Algún significado bien oculto parecía estar acechando, desafiante, por detrás de
esas pocas palabras. Así pareció entenderlo alguien que recopilaba graffitis por la ciudad de
Buenos Aires y en poco tiempo la frase apareció junto con otras, publicada en una de esas
revistas semanales, olvidable por varios motivos aunque, por lo menos para mí, no por este.
El recopilador, intrigado y sin ninguna pista sobre su sentido misterioso, atribuyó al autor y
con eso supongo que habrá quedado tranquilo, la posesión de cierta racionalidad-oculta eso
sí- que permitiría en caso de conocerla, realizar la traducción de la frase. No cabía sino
tomar aquello como una metáfora, como una gran metáfora. Y consideró que tal calidad
metafórica, en relación directa con su sentido profundamente oscuro, debía hacer referencia
a alguna cuestión de gran trascendencia filosófica o algo parecido.
Pero nosotros sabíamos que ‘la muerte’ era el mote con que algunos niños del barrio
llamaban a una persona que tenía mal carácter, debido, según la particular óptica de ellos, a
algún conflicto psicológico derivado de su baja estatura. La inquietante metáfora no era,
finalmente, más que una vulgar frase perfectamente descriptiva. Y además, de dudosa
validez psicológica y casi seguramente falsa. No había, pues, más que lo que se decía.
Me gustaría poder decir que este episodio, anterior a cualquier interés mío por la
filosofía de la ciencia, fue de tal significación emocional que signó mi vida posterior y mi
investigación sobre las metáforas; que la dualidad de sentidos ante el mismo conjunto de
signos quedó como una suerte de atavismo que resurgió en el momento menos esperado y
con tanta fuerza que marcó mi interés intelectual mucho tiempo después. Pero estaría
faltando a la verdad, aunque no es eso lo que me priva de decirlo. También aquí la verdad
es más simple. El insignificante episodio barrial volvió a mi memoria, aunque en un sentido
diferente al de otras ocasiones, luego de terminar este trabajo en el que propongo analizar
en su sentido literal las metáforas que se utilizan en ciencia. Es decir, una actitud opuesta a
la del recopilador de graffitis.
Habitualmente se sostiene que las metáforas son expresiones en las cuales se dice
algo pero se evoca o sugiere otra cosa, que sus mejores ejemplos pertenecen al lenguaje
literario y que no son relevantes en el discurso científico. Este trabajo se propone discrepar
en distinto grado con estas tres afirmaciones: se sostendrá que la metáfora dice algo por sí,
y no como mera subsidiaria de otra expresión considerada literal; que si bien hay excelentes
ejemplos de ellas en la literatura, también hay metáforas brillantes y fecundas en la ciencia
y, la tesis más fuerte, que las metáforas cumplen en la ciencia un papel constitutivo
fundamental. Qué hacen sino una metáfora, los que sostienen que el universo es una
especie de organismo, o bien que es una máquina, o que es un libro escrito en caracteres
matemáticos; los que sostienen que la humanidad o una civilización se 'desarrolla' o se
'muere', que las leyes de la economía o la sociología son exactamente análogas a las de la
física newtoniana, que entre las empresas comerciales, las innovaciones tecnológicas, o aun
entre los pueblos y culturas hay un mecanismo de selección de tipo darwiniano; que el
mercado se autoregula a través de la ‘mano invisible’, que la evolución de las especies
puede exponerse a través del 'árbol de la vida'; que la mente humana es como una
computadora o bien que una computadora es como una mente, que la ontogenia humana
repite o reproduce la filogenia o al revés que la filogenia repite la ontogenia, y una lista casi
interminable de ejemplos más. Muchas veces, y en defensa del privilegio epistémico de la
ciencia suele presentarse a las expresiones precedentes como meras ‘formas de hablar’,
como un lenguaje figurado o desviado que cumpliría en el mejor de los casos funciones
didácticas o heurísticas, pero que no expresaría la verdadera explicación, que la ciencia
posee pero que es inaccesible para los no especialistas. Es indudable que esta es una
parte, quizá la menos interesante, del problema; pero también resulta claro que en infinidad
de ocasiones las metáforas utilizadas parecen ser genuinos intentos de descripción y/o
explicación acerca del mundo. Sobre esta base puede redoblarse la apuesta: la ciencia no
sólo utiliza metáforas a veces y de manera marginal o accesoria, sino que, por el contrario,
se constituye principalmente a través de procedimientos metafóricos que, en este sentido,
son más la regla que la excepción.
En la relación entre metáforas y conocimiento pueden distinguirse varias líneas que a
su vez pueden ser vistas como etapas. La primera, la más extensa, atada a la concepción
estético-literaria, que niega a la metáfora toda relevancia y valor cognoscitivo; todos los
esfuerzos teóricos por establecer la naturaleza de la metáfora en este sentido coinciden en
expulsarla del campo del conocimiento y del lenguaje referencial, salvo a través de la
intermediación del lenguaje literal. Una segunda etapa que culmina con el desarrollo de las
versiones de la epistemología estándar en el siglo XX basadas en el esfuerzo por depurar y
formalizar el lenguaje científico pero cuyas derivaciones a despecho de las formulaciones
iniciales, contemplan el valor heurístico de las metáforas y modelos científicos; en el mejor
de los casos, se reconoce a las metáforas un papel psicológico irremplazable en el contexto
de descubrimiento. Una tercera etapa que se ha ido consolidando en las últimas décadas
rescata el valor de las metáforas a costa de considerar el lenguaje científico en los mismos
términos que el lenguaje literario o bien como una práctica que no difiere, en lo sustancial de
otras prácticas humanas con resultados discursivos. Este trabajo pretende, algo
presuntuosamente quizás, inaugurar una cuarta etapa, que sin caer en posiciones
retoricistas o hermenéuticas, rescate el valor cognoscitivo y epistémico de las metáforas
considerando que las que circulan y circularon a través de la historia de la ciencia poseen
dos cualidades: por un lado un valor referencial propio y no secundario o subsidiario de un
lenguaje literal, es decir un status cognoscitivo genuino y, por otro lado relevancia
epistémica, es decir funciones de legitimación del conocimiento circulante, en el contexto de
las circunstancias históricas y sociales.
En términos conceptuales, la relación entre ciencia y metáforas seha plantedao en
general a través del siguiente dilema: o (primer cuerno) las ciencias solamente emplean
recursos cognoscitivos representacionales y transmisores de información y por ello
desechan todo uso de metáforas y analogías o (segundo cuerno) las ciencias se
literaturalizan, se consideran como usos lingüísticos con referencialidad difusa y por ende se
admite con toda libertad el empleo de recursos retóricos y estilísticos que apunten a
convencer y lograr consenso. Pero se trata de un falso dilema, porque ambos cuernos
(perspectivas) se basan en el mismo supuesto: la negación del valor cognoscitivo/epistémico
de las metáforas. En efecto, la perspectiva deudora de la tradición epistemológica estándar,
pretende defender la especificidad de la ciencia sobre la base de un lenguaje formalizado y
depurado en el cual algunos de sus enunciados tienen una referencia empírica directa sin
mediación alguna. Pero pretender que las prácticas científicas y el lenguaje resultante no
difieren en lo sustancial, más allá de ciertos rituales y particularidades instrumentales, de
otras actividades y lenguajes no referenciales también implica no reconocer un valor
cognoscitivo para las metáforas; se trata más bien de establecer aquello en lo que la ciencia
coincide con otras prácticas y aquí las metáforas- y otros recursos retóricos- apoyarían la
disolución de la diferencia. Este trabajo cobra sentido apartándose de este falso dilema y
encuentra su ubicación a partir del convencimiento de que son tan indefendibles tanto las
tesis fuertes de la CH y sus derivaciones como así también las impugnaciones extremas de
la misma. Evidentemente un planteo semejante implica una ampliación de la base de
análisis de la racionalidad científica que va más allá de pautas meramente metodológicas o
logicistas; pero no hay que temer que una ampliación semejante pueda caer en la negación
o disolución de esa misma racionalidad porque la revalorización de las metáforas puede
hacerse sobre bases diferentes.
El objetivo de este trabajo es, en apretada síntesis, proponer un programa de
investigación en estudios sobre la ciencia que considere a un tipo especial de metáforas -las
metáforas epistémicas- como unidad de selección de una epistemología evolucionista y,
además exponer -en la segunda parte- una serie de episodios tomados de la historia de la
ciencia en los cuales puede reconocerse el uso de metáforas. Tales propósitos implican, en
primera instancia una elucidación y posterior reevaluación del concepto de 'metáfora' y la
propuesta de una epistemología evolucionista.
Con respecto a la metáfora se argumentará (Capítulo 1) en favor de una concepción
que combine criterios semánticos y pragmáticos y que pueda eliminar diacrónicamente la
distinción literal/ metafórico para considerar a los enunciados en un pie de igualdad con su
referencia. También se argumentará en favor del 'parecido de familia' que hay entre
metáforas y buena parte de los modelos científicos. Asimismo se expondrá el estado actual
de la cuestión en los estudios sobre la ciencia (Capítulo 2) en general y en particular en el
tratamiento que se hace de la metáfora en las distintas líneas para mostrar la existencia de
un clima favorable a la revalorización del uso de metáforas en ciencia.
Pero no se trata tan sólo de sostener la relevancia de las metáforas, sino además
mostrar que el desarrollo de la ciencia puede ser explicado desde un punto de vista
evolucionista, es decir tomando como modelo para su comprensión y descripción los
conceptos básicos que surgen de la biología evolucionista. Se propondrá una epistemología
evolucionista (Capítulo 3) que pueda superar algunas deficiencias ya detectadas en algunas
versiones conocidas. Básicamente, se pretende generar un modelo que pueda ser aplicado
tanto a un análisis diacrónico como sincrónico de la práctica científica, y que suponga que
sobre el conjunto de estructuras conceptuales disponibles en cantidad limitada pero amplia
surgida de ciertos mecanismos de producción de variedad, operan instancias diversas de
selección entre esa variedad disponible. Finalmente, deben operar ciertos mecanismos de
transmisión-conservación de alguna/s variedad/es a través del tiempo. Estas estructuras
conceptuales pueden ser de la más variada índole, complejidad, origen y alcance, tales
como taxonomías, conceptos, teorías, valores culturales, valores epistémicos, prejuicios,
etc., y los diversos mecanismos de selección (en lo que aquí importa los referidos
exclusivamente al quehacer de los científicos) se ponen en funcionamiento en la medida en
que tales estructuras conceptuales van extrapolándose, deslizándose o filtrándose de un
ámbito de conocimiento a otros, a través de un juego de tipo metafórico. Las estructuras y
modelos conceptuales, pueden considerarse entonces como el arsenal de potenciales
metáforas disponibles. A esas metáforas que cumplen un papel destacado e insustituible en
la ciencia se las denominará 'metáforas epistémicas', para diferenciarlas de aquellas otras
que cumplen funciones estéticas u ornamentales, aunque la diferencia entre ambos tipos, en
muchos casos sea sólo de grado, habida cuenta que las metáforas epistémicas suelen ser
bellas.
La Segunda Parte, denominada 'Las metáforas en la historia de la ciencia', estará
dedicada a exponer sumariamente algunos episodios de la historia de la ciencia en distintos
niveles de amplitud y alcance. En primer lugar de un nivel muy general, como por ejemplo
las posiciones derivadas del teleologismo clásico –asociadas al concepto de physis del
mundo griego- y el mecanicismo moderno. Luego se analiza el tráfico de metáforas de una
ciencia consolidada hacia otras áreas o disciplinas. Básicamente se tomarán dos fuentes
proveedoras de metáforas: la física newtoniana y la biología. En tercer lugar, en un nivel de
menor generalidad aun, se abordarán las metáforas de uso interno en las distintas
disciplinas o áreas científicas y también se hace alguna referencia al uso didáctico o
pedagógico de las metáforas.
PRIMERA PARTE
EPISTEMOLOGÍA DE LAS METAFORAS
CAPITULO 1
METÁFORAS Y MODELOS CIENTÍFICOS
Aires de familia
-¡Metáforas!
-¿Qué son esas cosas?
El poeta puso una mano sobre el hombro del muchacho.
-Para aclarártelo más o menos imprecisamente,
son modos de decir una cosa comparándola con otra.
(A. Skarmeta, Ardiente paciencia)
Este Capítulo persigue varios objetivos relacionados con la elucidación del concepto
de ‘metáfora’. En primer lugar explicitar las concepciones semánticas y pragmáticas acerca
de la metáfora para mostrar algunas deficiencias que ambos puntos de vista presentan si se
los toma en forma aislada. Un enfoque combinado parece más adecuado ya que si bien en
la metáfora algo ocurre en el nivel del significado, también es cierto que es indispensable
atender al contexto de su formulación. En segundo lugar proponer una concepción
sincrónica/diacrónica de la metáfora, considerando que el lenguaje metafórico surge por un
proceso que se denominará "bisociación"; pero, una vez producida, ese lenguaje
inicialmente metafórico, dice algo por sí y no subsidiariamente. Por ello la distinción entre
lenguaje literal y lenguaje metafórico adquiere una dimensión diferente: tiene sentido en un
análisis sincrónico pero resulta estéril, cuando menos para las metáforas usadas en ciencia,
cuando se hace un análisis diacrónico. En tercer lugar se analizan algunos aspectos en los
cuales modelos científicos y metáforas guardan profundas similitudes: hay discusiones
acerca del estatus cognoscitivo/epistémico de las metáforas en paralelo con el que se ha
desarrollado acerca de los modelos científicos; si lo que se intenta mostrar en este trabajo
es de qué modo algunos modelos y metáforas particulares de un ámbito de la ciencia, pasan
a otro ámbito nuevo, puede equipararse la distinción lenguaje metafórico/lenguaje
literal/realidad con la distinción modelo científico1-el del ámbito original- /modelo cientifico2el del ámbito receptor-/realidad. No se tratará, pues, de discutir el status ontológico de los
modelos ni su relación con el sector del mundo del cual son modelos, sino de esos procesos
en los cuales un modelo pasa de un ámbito de conocimiento a otro: los modelos científicos
pueden considerarse como originales que se transforman en metáforas cuando son
extrapolados desde un ámbito científico determinado hacia otro en el cual no se habían
usado con anterioridad.
Pretender establecer la vinculación entre metáfora y conocimiento remite
inmediatamente a algunos tópicos. En primer lugar, y surgiendo de las concepciones
tradicionales, el estigma de las metáforas: constituyen una ubicua función del lenguaje, al
tiempo que un obstáculo para cualquier comprensión racional de la realidad. En efecto, entre
las funciones del lenguaje pueden identificarse claramente las de producción y transmisión
de información y conocimiento por un lado, y por otro la de establecer comparaciones,
analogías y ese tipo particular de analogías que son las metáforas. Habitualmente se ha
establecido una clara distinción entre ambos grupos de funciones, considerándolas no sólo
como disociadas sino, en sentido estricto, como incompatibles. El primer grupo permanece
asociado a la descripción y explicación de ‘lo real’, el segundo a la zona nebulosa y
misteriosa de la intuición y la creatividad sin rigor ni límites.
En segundo lugar, hay una amplia zona de intersección entre ciencia y metáforas
que está dado por el uso habitual de éstas en la divulgación científica y en la enseñanza de
las disciplinas curriculares en tanto recursos didáctico-pedagógicos. Suele justificarse este
procedimiento, considerado no legítimo en sentido estricto, por la imposibilidad del público
no iniciado y de los alumnos que comienzan su formación profesional, de comprender la
ciencia tal como la hacen los científicos.
En tercer lugar, y ya con relación directa no tanto con la transmisión sino con la
producción misma de conocimiento científico, surge el problema del estatus de un caso muy
especial de analogías, los ‘modelos científicos’, instrumentos cognitivos con cierto rigor
conceptual y a los que se otorga una isomorfía parcial con un sector de la realidad que se
pretende conocer y/o explicar. Los modelos científicos se parecen mucho a las metáforas.
Hay entre ellos cierto aire de familia: ambos determinan, delimitan y refieren a dos ámbitos y
suponen la posibilidad de establecer alguna semejanza, comparación o relación de
comunidad entre ellos, es decir, en la posibilidad de plantear algún tipo de analogía. Incluso
los significados comunes y técnicos de las nociones de ‘modelos’ y ‘metáforas’ en buena
medida se superponen, de modo tal que las diferencias no siempre se pueden establecer
con claridad y de modo excluyente. Desde la antigüedad no ha habido problemas con las
metáforas y en general con las analogías: se ha constituido en lugar común afirmar que en
la medida en que resultan de un lenguaje figurado o desviado, no poseen en última instancia
valor cognoscitivo alguno. Por otro lado, la filosofía de la ciencia del último siglo ha tratado
de rescatar y precisar la noción de modelo científico, que, no obstante, está sujeta a
disputas de fondo derivadas tanto de su eventual relación con el mundo empírico como
sobre su estatus ontológico: ¿en qué sentido puede decirse que los modelos son copias de
algo?; ¿tienen los modelos un valor meramente instrumental o heurístico o, por el contrario,
constituyen descripciones realistas de algún sector del mundo?. En suma, hay un campo de
problemáticas sumamente extenso y complejo que, por lo menos en algunos aspectos,
merece ser analizado con cierto detenimiento.
1. TEORÍAS SOBRE LA METAFORA
Por lo que sabemos, Aristóteles, fue el primer autor que abordó el estudio de la
metáfora sistemáticamente, a la par que fijaba lo que consideraba su limitación fundamental.
Su ya clásica definición es:
“(...) la transposición de un nombre a cosa distinta de la que tal nombre significa. Esta
transposición puede hacerse del género a la especie, de la especie al género, de la
especie a la especie o por una relación de analogía” (Aristóteles, Poética, 1457b)
Según esta definición, entonces, habría cuatro formas de producir metáforas. La
primera, la que va del género a la especie, Aristóteles la ilustra tomando la frase con que
Méntor informa a Ulises: “allí estuvo parada mi nave”: la metáfora aparece en la expresión
‘estuvo parada’ ya que ‘anclar’ es cierta manera de estar parado; el nombre propio es ‘se
encuentra anclado’ que constituye una especie del género ‘estar parado’. Se dice el género
en lugar de la especie. La segunda, de la especie al género, se ejemplifica en la escena en
que Ulises castiga a Tersites. Alguien comenta que el héroe “ha cumplido un millar de
acciones hermosas”. Allí ‘un millar’ está tomado en sentido metafórico, siendo un caso
específico de la expresión genérica ‘un gran número’. La tercera forma, de especie a
especie se realiza cuando un término es reemplazado por otro del mismo nivel de
generalidad.
“Digo que una especie sustituye a otra por ejemplo en las siguientes: ‘Extrayéndole el
alma con el bronce’ y ‘Degollando con el indomable bronce’. Aquí, en efecto, ‘extrayendo’
quiere decir ‘degollando’, y ‘degollando’, ‘extrayendo’, pues ambas palabras representan
1
modos de ‘sacar violentamente’ (Aristóteles, Poética, 1457b)
La cuarta y última forma de construir una metáfora es por relación de analogía
(Poética, 21, 23-25; Retórica, 1410b y ss.). Una analogía es posible toda vez que existen
cuatro términos relacionados de tal manera que el segundo (B) es al primero (A) como el
1
En la traducción castellana esta metáfora resulta bastante forzada y poco efectiva
cuarto (D) es al tercero (C). La forma típica de la metáfora por analogía se construye,
entonces, intercambiando los términos B y D de la proposición, como en el ejemplo que
sigue tomado del propio Aristóteles: si tomamos dos ámbitos diferentes, como el de la
biología y el de la astronomía, y en su interior distinguimos dos campos, el de la vida
individual (B) y del día solar (D), podemos establecer entre ellos una semejanza: "una vida
es como un día" (o viceversa, pues la semejanza y la analogía, a diferencia de la metáfora,
son reversibles). A partir de esta semejanza puede definirse la siguiente analogía: “vejez /
vida = tarde / día", es decir, "la vejez es a la vida como la tarde es al día". De aquí se siguen
metáforas de los tres tipos mencionados:
• A de D: "la vejez del día" (de donde: "envejecía el día", etc.)
• C de B: "la tarde de la vida" (de donde: "en el ocaso de su vida", “aspecto crepuscular”,
etc.)
• A es D: "la vejez es un atardecer"
El ejemplo precedente está en línea con el sentido clásico de analogía, que significa
‘correspondencia’, ‘proporción’, ‘según proporción’, ‘proporcional’. Básicamente se trata de la
semejanza que se establece entre términos, conceptos o cosas que se comparan. Mediante
la analogía, a veces incluso de modo metafóricamente caprichoso, pueden agruparse
distintos conjuntos de cosas de los que se afirma una característica común por semejanza:
el niño, el río, el vino o el vinagre y hasta la lengua tienen todos “madre”; el aspecto, el clima
o el alimento son “sanos”, pero en un sentido que a la vez coincide y que difiere, aunque en
realidad todo predicado ha de entenderse analógicamente, cuando no se hace abstracción
de la realidad: hablar de la vida vegetal y de la vida animal es un uso analógico del término,
que se aplica en realidad de forma distinta a un vegetal o a un animal.
La proporción a que se refiere la etimología, y que ha fundamentado su uso tanto en
el lenguaje ordinario como en el filosófico, es la proporción matemática2, llamada
propiamente geométrica, que se expresa según la secuencia a:b::b:c, en la que el primer
término se refiere al segundo igual como éste al tercero; cada uno de estos términos se
llama analogado; la relación o proporción, cuantitativa en origen, pasó luego a ser
cualitativa.
Aristóteles también se refiere a un caso especial de metáforas consistente en atribuir
el nombre de una cosa a otra que no tiene nombre, proceso denominado catacresis, para lo
cual aconseja que “no se obtengan metáforas de cosas remotas sino próximas y
2
El término procede de los escritos de los pitagóricos, donde significa proporción matemática,
concepto que aplican tanto a la armonía musical como a las magnitudes del cosmos. Platón utiliza la
noción de analogía como proporción (matemática) para explicar sobre todo la función del Bien en su
teoría fundamental de los dos mundos (“lo que es el sol en el mundo visible es el bien en el mundo
invisible”), así como para señalar el grado de claridad y verdad que poseen los segmentos a que se
refiere la metáfora de la línea. Aristóteles, además de utilizarla como método comparativo en ética y
biología -iniciando así el uso del argumento de analogía- funda la teoría de la analogía del ser, que se
convertirá en punto fundamental de la metafísica de la filosofía escolástica medieval, que establece
una relación metafísica u ontológica, por lo mismo de algún modo real, entre los analogados.
Andando los siglos, I. Kant llama ‘analogía’ a los principios del entendimiento que regulan en general
la experiencia y la naturaleza. No hay naturaleza ni experiencia, según Kant, sin que nuestra mente
se represente a priori que todo fenómeno supone una conexión necesaria de percepciones, de modo
tal que “la experiencia sólo es posible mediante la representación de una necesaria conexión de las
percepciones”. El principio general de las analogías dice: “todos los fenómenos, en cuanto a su
existencia, están sometidos a priori a reglas que determinan sus relaciones reciprocas en un tiempo”.
Todo fenómeno representa una sustancia que permanece en el cambio, una causa o un efecto que
se suceden en el cambio, o una interacción de reciprocidad. A estas tres posibilidades llamó Kant
analogías de la experiencia en general y, en particular: principio de la permanencia de la sustancia
(“en todo cambio de los fenómenos permanece la sustancia y el quantum no aumenta ni disminuye en
la naturaleza”); principio de la sucesión temporal según la causalidad (“todos los cambios tienen lugar
de acuerdo con la ley que enlaza causa y efecto”), y principio de la simultaneidad según la ley de la
acción recíproca o comunidad (“todas las sustancias, en la medida en que podamos percibirlas como
simultáneas en el espacio, se hallan en completa acción recíproca”).
emparentadas, de modo tal que el parentesco se perciba claramente tan pronto se han
dicho las palabras”.
Además del estudio de las formas posibles que adquiere la metáfora, Aristóteles
(Retórica 1404b 32 - 1405b 20), trazó normas para su utilización. Concebía este recurso
como circunscripto al lenguaje poético, constituyendo su adecuado uso una demostración
del genio del escritor. Por otro lado, el conocimiento no podía quedar atado a una instancia
tan impredecible y carente de reglas. Frente a la abundancia del lenguaje figurado y de
imágenes utilizados por su maestro Platón, Aristóteles sostuvo la necesidad de una extrema
sobriedad para evitar la ambigüedad y la equivocidad. Por ello el lenguaje metafórico debía
ser suprimido de la episteme.
La caracterización desarrollada por Aristóteles, adolece a mi juicio de dos
limitaciones básicas: la primera, no demasiado importante por depender sólo del criterio de
evaluación, reside en el hecho de considerar a las metáforas principalmente como un
recurso literario; la segunda, más sustancial y de alguna manera causa de la primera, es
que se basa en un orden metafísico determinado que es inteligible en términos de género y
especie, de modo tal que la distinción entre uso literal y metafórico obedece al orden de lo
real.
Sin embargo, desde los griegos hasta la actualidad y a propósito de metáforas, ha
corrido mucho agua bajo el puente. Si bien la tradición aristotélica, con variantes menores,
ha perdurado durante siglos, la cuestión no parece agotada y en las últimas décadas han
proliferado debates en torno a la distinción entre lenguaje literal y metafórico y las relaciones
que entre ellos se establecen; sobre la naturaleza semántica o pragmática de las metáforas;
y aun sobre la posibilidad de asignarles contenidos cognitivos genuinos. Ya es tiempo,
entonces, de analizar con algo más de detalle estas disputas, que surgen de enfoques que
exceden los marcos tradicionales de la retórica y la lingüística.
Hay varias formas de establecer una sinopsis de las discusiones acerca de la
metáfora, sobre todo si se trata de vislumbrar su papel estético/literario. Pero la intención de
este trabajo no es clasificar las distintas formas que adquiere la metáfora (cf. Vianu, 1967)
sino más bien abordar otras dos cuestiones. Por un lado los análisis acerca de la naturaleza
de las metáforas, expresados en la oposición entre concepciones semánticas y pragmáticas,
con el objetivo de mostrar que ninguna de las dos da debida cuenta de lo que significa ‘usar’
y ‘comprender’ una metáfora, sobre todo el tipo de metáforas cognoscitivas; por lo cual se
hace necesario más que tomar partido por una u otra versión tratar de complementarlas,
reconociendo tanto que hay en ellas una transferencia de significados como sostiene la
concepción semántica como así también que su éxito y vigencia se resuelven en el uso del
discurso, tal como sostienen las concepciones semánticas. Por otro lado, y a propósito de la
distinción entre lenguaje literal y lenguaje metafórico, se reconstruirá parcialmente el debate
entre los que mantienen la dualidad de lenguajes e indagan sobre las relaciones entre
ambos y sobre la naturaleza misma de tal dualidad y, en el otro extremo, los que sostienen
que no existe nada que pueda propiamente llamarse lenguaje metafórico en oposición a un
lenguaje literal. Se sostendrá también aquí una posición que complemente ambos polos de
la oposición: puede hablarse de una dualidad de lenguajes en un análisis sincrónico dado
que una expresión o conjunto de expresiones de uso literalizado en un ámbito de discurso
determinado pasa a otro ámbito nuevo como discurso, inicialmente, metafórico; pero en un
análisis diacrónico debe abandonarse la distinción literal/metafórico y, entonces el lenguaje
inicialmente metafórico enfrenta las mismas cuestiones que cualquier lenguaje considerado
literal y puede ser considerado a la luz de sus posibilidades cognoscitivo-epistémicas.
1.1. concepciones semánticas de la metáfora
Existen históricamente dos grandes líneas que analizan la naturaleza del discurso
metafórico: los llamados enfoques semánticos, ya clásicos como Aristóteles, ya
contemporáneos como I. A. Richards (1936), P. Ricoeur (1975), M. Black (1962), o N.
Goodman (1968), entre otros; y los enfoques pragmáticos como los de D. Davidson (1984,
1991), A. Martinich (1991), o J. Searle (1991), entre otros. Estos enfoques dispares tienen
consecuencias directas sobre uno de los tópicos del análisis: la distinción entre lenguaje
literal y lenguaje metafórico, que implica a su vez establecer la naturaleza de tal distinción o
bien justificar su inexistencia.
El enfoque semántico sostiene que el juego metafórico surge porque algo ocurre con
el significado de los términos o expresiones intervinientes. Entre estas teorías semánticas
pueden distinguirse enfoques que apuntan a solucionar la cuestión apostando a que la
metáfora opera como una sustitución de significado, de otros que sostienen que se da algún
tipo de interacción entre lenguaje literal y metafórico. Un análisis, fundamentalmente
semántico, aunque con un reconocimiento explícito de la importancia de la dimensión
pragmática es el que ha desarrollado, en un texto ya clásico en la materia, Black (1962). Alli,
Black distingue dos enfoques básicos acerca de la relación entre ambos lenguajes: por un
lado, el enfoque sustitutivo (susbtitution view), con su variante el enfoque comparativo
(comparison view) y, por otro lado el que él propone, el enfoque interactivo (interaction
view). Según el enfoque sustitutivo la expresión metafórica funciona como un sustituto de
una expresión literal. El uso metafórico consistiría así en el uso de una expresión en un
sentido distinto del suyo propio o normal, en un contexto que permitiría detectar y
transformar del modo apropiado aquel sentido impropio o anormal. Lo mismo que dice la
metáfora podría expresarse de modo literal. Comprender una metáfora sería como descifrar
un código o hacer una traducción. Es comprensible que, según este enfoque, se adjudique a
las metáforas un papel principalmente estilístico u estético.
Black distingue, dentro del enfoque sustitutivo un caso especial, el enfoque
comparativo, según el cual la expresión metafórica tiene un significado que procede, por
cierta transformación, de su significado literal normal. En este sentido la metáfora sería una
forma de lenguaje figurado (como la ironía o la hipérbole) cuya función es la analogía o
semejanza, y en tal sentido la expresión metafórica ‘M’ tendría un significado semejante o
análogo a su equivalente literal ‘L’. El problema parece estar, y en ese punto centra sus
críticas Black, en suponer que para que ‘M’ pueda sustituir a ‘L’ debería haber una analogía
o semejanza dada de antemano. Si esto fuera así, sostiene Black, las metáforas estarían
regidas por reglas estrictas tanto de producción como de interpretación, siendo que la
potencia de la metáfora parece proceder más bien de su carácter un tanto impreciso. En
todo caso parecería más apropiado y esclarecedor decir que la metáfora crea la semejanza
más que dar cuenta de una semejanza preexistente.
A la hora analizar la metáfora, Black sostiene que se trata de un enunciado –u otra
expresión- en el cual alguna/s palabra/s tiene/n un uso metafórico en medio de otras
palabras que no lo tienen, como por ejemplo en las expresiones:
• ‘el hombre es un lobo’
• ‘atacó todos los puntos débiles de mi argumento’
En los ejemplos precedentes se puede diferenciar entre el foco -la o las palabras
usadas metafóricamente -en este caso 'lobo' y 'atacó'- y el marco, es decir, el resto no
metafórico de la expresión. En cualquier caso el análisis de Black supone la existencia de
dos tipos de lenguaje, el literal por un lado y el metafórico por otro, y, en ese sentido puede
darse que dados dos marcos diferentes, una misma expresión pueda o bien producir
metáforas diferentes o bien producir una metáfora en uno de los marcos y ser incapaz de
hacerlo en el otro. Este señalamiento, y aunque Black es habitualmente ubicado entre los
defensores de una concepción semántica, ubica la atención en una cuestión clave: las
metáforas no representan tan sólo una cuestión semántica, sino también y quizá
principalmente, se desenvuelven en el ámbito de la pragmática del lenguaje. En efecto, si
bien cuando se dice que una expresión es una metáfora se dice algo acerca de su
significado, también es cierto que hablar de metáfora implica atender a las condiciones
mismas de posibilidad de su concreción: las circunstancias en que se emplean, los
pensamientos, actos, sentimientos e intenciones de los hablantes en las ocasiones
correspondientes. Existe una enorme cantidad de contextos en los cuales el significado de la
expresión metafórica depende de las intenciones de los hablantes, de las circunstancias
concretas en que es emitida, ya que no existen reglas precisas en el uso normal del
lenguaje que permitan detectarlas y entenderlas de manera unívoca.
Black propone, como superación de los enfoques sustitutivo y comparativo,
considerar a las metáforas según un enfoque interactivo. Cuando se construye una
metáfora, más que una comparación o sustitución, se ponen en actividad simultánea –en
interacción- dos ámbitos que habitualmente no lo están según las siguientes características:
1. El enunciado metafórico tiene dos asuntos (subjects) distintos: uno principal y otro
subsidiario.
2. El mejor modo de considerar tales asuntos es, con frecuencia, como ‘sistemas de
3
cosas’ y no como ‘cosas’.
3. La metáfora funciona aplicando al asunto principal un sistema de ‘implicaciones
acompañantes’ característico del subsidiario.
4. Estas implicaciones suelen consistir en ‘tópicos’ acerca de este último asunto, pero
en ciertos casos oportunos pueden ser implicaciones divergentes establecidas ad
hoc por el autor.
5. La metáfora selecciona, acentúa, suprime y organiza los rasgos característicos del
asunto principal al implicar enunciados sobre él que normalmente se aplican al
asunto subsidiario.
6. Ello entraña desplazamientos de significado de ciertas palabras pertenecientes a la
misma familia o sistema que la expresión metafórica; y algunos de estos
desplazamientos, aunque no todos, pueden consistir en transferencias metafóricas.
7. No hay ninguna razón sencilla y general que de cuenta de los desplazamientos de
significado necesarios: esto es, ninguna razón comodín de que unas metáforas
4
funcionen y otras fallen” (Black, 1962, [1966, p.224]) .
En la expresión ‘el hombre es un lobo’, según el punto de vista interactivo, hay dos
asuntos, el principal, el hombre (o los hombres) y el subsidiario, el lobo (o los lobos). Para
que la metáfora funcione, el destinatario no debe ser totalmente ignorante acerca de los
lobos, pero tampoco es necesario que conozca el significado normal, de diccionario o
biológico acerca de los lobos, o que sea capaz de usar esta palabra en sus sentidos
literales, sino que tan sólo le resulta indispensable conocer el ‘sistema de tópicos’ que
acompañan a la expresión. Black argumenta:
(…) Imaginemos que se pide a un profano que diga, sin reflexionar
especialmente sobre ello, qué cosas considera verdaderas acerca de los lobos: el
conjunto de afirmaciones resultantes se aproximaría a lo que voy llamar aquí el sistema
de tópicos que acompañan a la palabra ‘lobo’; y estoy asumiendo que en cualquier
cultura dada, las respuestas de distintas personas a este ensayo concordarían bastante
bien, y que incluso un experto ocasional, que podría poseer unos conocimientos
desusados acerca de tal cuestión, sabría, con todo, ‘lo que el hombre de la calle piensa
sobre ella’. Sin duda, desde el punto de vista de la persona enterada, el sistema de
tópicos podría incluir muchas semiverdades o, simple y llanamente, errores (como
cuando se clasifica la ballena entre los peces); pero lo importante para la eficacia de la
metáfora no es que los lugares comunes sean verdaderos, sino que se evoquen presta y
espontáneamente (y por ello una metáfora que funcione en una sociedad puede resultar
disparatada en otra: las personas para las que los lobos sean encarnaciones de difuntos
darán al enunciado ‘El hombre es un lobo’ una interpretación diferente de aquella que
estoy dando por supuesta aquí). (...) Por tanto, el efecto que produce el llamar metafóricamente- ‘lobo’ a una persona es el de evocar el sistema de lugares comunes
relativos al lobo: si esa persona es un lobo, hace presa en los demás animales, es feroz,
pasa hambre, se encuentra en lucha constante, ronda a la rebusca de desperdicios, etc.;
y cada una de las aserciones así implicadas tiene que adaptarse ahora al asunto
3
Luego (1977), Black realiza algunas precisiones tales como llamar ‘primario’ y ‘secundario’ en lugar
de ‘principal’ y ‘subsidiario’ y el asunto secundario (principalmente) como un sistema de cosas antes
que como cosas.
4
En las referncias bibliográficas se indica la fecha de la publicación original. En los casos en los que
se transcribe de la versión en español se señala, además, entre corchetes el año de edición y la
página.
principal (el hombre), ya sea en un sentido normal o en uno anormal; lo cual es posible –
al menos hasta cierto punto- si es que la metáfora es algo apropiada.
El sistema de implicaciones relativo al lobo conducirá a un oyente idóneo a construir otro
sistema referente al asunto principal y correspondiente a aquél; pero estas implicaciones
no serán las comprendidas por los tópicos que el uso literal de ‘hombre’ implique
normalmente: las nuevas implicaciones han de estar determinadas por la configuración
de las que acompañen a los usos literales de la palabra ‘lobo’, de modo que cualesquiera
rasgos humanos de que se pueda hablar sin excesiva violencia en un 'lenguaje lobuno’
quedarán destacados, y los que no sean susceptibles de tal operación serán rechazados
hacia el fondo –la metáfora del lobo suprime ciertos detalles y acentúa otros: dicho
brevemente, organiza nuestra visión del hombre”. (Black, 1962, [1966, p. 49/50])
Para ilustrar su posición interactiva, Black introduce un ingenioso artefacto (hablando
de metáforas): un vidrio ahumado en el que se ha trazado un reticulado de líneas que
permiten el paso de la luz (“let us try to think of the metaphor as a filter”). Si se mira el cielo
estrellado a través este filtro se entiende, según Black, la interacción: puede decirse, sin
exagerar, tanto que se ve el cielo a través del filtro como el filtro a través del cielo. Esta idea
ha sido muy fructífera en la epistemología y tiempo después Th. Kuhn (1979), arriesgará la
conjetura de que el mismo proceso de tipo interactivo es el que se pone en juego en la
producción y uso de conceptos y modelos en ciencia.
Ricoeur es otro de los representantes del punto de vista semántico y pretendiendo
establecer una superación del punto de vista tradicional, saca a la metáfora de los límites
restrictivos de la palabra y la lleva al nivel de la frase para definirla como una innovación
semántica que se produce a partir de un desvío (Ricoeur, 1975) originado por la tensión
entre las dos posibilidades interpretativas que el enunciado admite. La antigua retórica,
según Ricoeur, privilegiaba el tropo porque se limita a indicar el efecto de sentido que recae
sobre una parte de la palabra y no la producción de sentido que opera en el nivel del
enunciado completo. Pero el ’desvío, señalado por Ricoeur aparece en la predicación total y
compete a la capacidad interpretativa, por lo cual se producen dos interpretaciones, una
literal y otra metafórica entre las cuales se establece una tensión que tiende a suprimir la
interpretación literal. Esta interpretación metafórica, según Ricoeur, establece una
contradicción que luego destruye, transformándola en una contradicción significante. La
semejanza, al ser eliminada la relación palabra con palabra se convierte en un parentesco
que aparece allí donde la visión ordinaria no percibe ninguna conveniencia mutua y
compromete así a todo el enunciado. La acepción nueva que ha adquirido la relación de
semejanza elimina la sustitución de una palabra por otra y la reemplaza por una tensión que
otorga sentido en el nivel del enunciado, de modo que la metáfora aparece como un proceso
instantáneo de creación por el cual se ha operado una innovación semántica, innovación
que no permite la traducción y que al mismo tiempo proporciona conocimiento.
De las concepciones semánticas interesa aquí rescatar la idea de que las metáforas
producen nuevos significados, sea cual fuere el mecanismo por el cual lo hacen; la
imposibilidad de dar una parafrasis literal de las mismas, su intraducibilidad en suma, es
argumento en favor de ello (luego se volverá sobre el tema). De este modo queda abierta la
puerta para tratarlas como a cualquier enunciado informativo literal.
1.2 las concepciones pragmáticas
¡Qué con las metáforas, pues, Don Pablo,
tiene a mi hija más caliente que una termita!
(A. Skarmeta, Ardiente paciencia)
El punto de vista semántico tiene serios problemas a la hora de explicar por qué
puede suceder que una expresión lingüística sea interpretada literalmente en un contexto y
metafóricamente en otro o por qué algunas metáforas tienen éxito. Esto ha llevado a pensar
que se trata de una cuestión atendible desde la pragmática. La dimensión pragmática cobra
sentido a partir de separar entre lo que es el significado lingüístico, determinado por el
sistema de la lengua, y el significado comunicativo, determinado por el contexto en que los
hablantes usan la lengua según reglas que les permiten entenderse. El significado
lingüístico está determinado por las reglas de la gramática y la semántica, y constituye un
núcleo relativamente fijo de convenciones lingüísticas. El significado comunicativo por su
parte se rige según ciertos principios no demasiado rigurosos que regulan la interacción
comunicativa racional. Las perspectivas o concepciones pragmáticas comparten
básicamente la idea de que hay elementos ajenos a los propiamente lingüísticos, es decir,
elementos del contexto, que determinan o influyen decisivamente en la producción y/o
comprensión de las acciones lingüísticas. Subyace a esta consideración básica un modelo
de producción y comprensión de significado que se suele calificar como inferencial, en
contraste con el modelo semiótico, basado en la noción de código (de Bustos, 2000). Según
el modelo inferencial, los procesos de codificación y descodificación no desempeñan ningún
papel significativo en la descripción y explicación de la comunicación lingüística. Se trata de
una consideración fundacional: los humanos no se comunican lingüísticamente operando
códigos mentales subyacentes que permiten la expresión y comprensión de lo que las
acciones significan, sino que, por el contrario, lo hacen según un modelo inferencial,
produciendo y captando información a partir de informaciones antecedentes en un proceso
en el cual alguien quiere transmitir información a otro. Para ello utiliza su conocimiento del
conjunto de convenciones compartido por la comunidad comunicativa a la cual ambos
pertenecen. Ese conjunto de convenciones se pone en juego de forma relativa a la
representación de la situación, en que va a realizar la acción. Dicha representación
constituye básicamente lo que se conoce como contexto de la acción verbal. Ambos
hablantes, agente y receptor funcionarían del siguiente modo:
“i) Si quiero decir (significar, transmitir, hacer saber...) x, entonces, dado C, he de hacer
z. Donde x representa al objeto de la intención comunicativa del agente, es decir, lo que
se denomina el significado del hablante, C el contexto pertinente para la expresión de
esa intención y z la acción verbal que constituye el medio apropiado tanto para su
expresión como para su comprensión. Desde el punto de vista de la recepción, el
proceso es básicamente el inverso, esto es, consiste esencialmente en la reconstrucción
de la intención comunicativa del agente:
(ii) Si A ha hecho z, entonces, dado C, ha querido decir x.
Esto es, para la comprensión del significado de la acción verbal, el auditorio ha de partir
igualmente de una representación del contexto, que puede coincidir o no con la del
agente, y de su conocimiento de las convenciones sociales y comunicativas que
restringen el ámbito de las posibles interpretaciones de z. Utilizando ambos tipos de
conocimiento como parte de la información movilizada en sus conjeturas sobre el sentido
de la acción de A, puede llegar a una conclusión sobre el objeto de su intención
comunicativa, esto es, acerca del significado de la acción verbal”. (de Bustos, 2000, p.
269)
Probablemente dos autores fundamentales que analizan el surgimiento del
significado metafórico desde un punto de vista pragmático sean Searle y Davidson. El
primero sostiene que el problema que plantean las metáforas es un caso particular del
problema de explicar de qué modo el significado del hablante y el significado léxico u
oracional se distinguen o separan. Sería un caso especial de decir una cosa y significar algo
más. Sostiene que es erróneo plantear que la oración (o el término) tienen dos
interpretaciones o acepciones diferentes, una literal y otra metafórica, y la semántica tuviera
que dar cuenta de ambas y de sus posibles relaciones. En todo caso las expresiones en
cuestión pueden usarse de dos formas diferentes. Según Searle, el significado metafórico
"es siempre significado proferencial del hablante", esto es, significado que adquieren sus
palabras cuando se utilizan en circunstancias concretas, significado no convencional. Al
distinguir de un modo tan tajante los ámbitos propios del significado literal y el significado
metafórico, se plantea el problema inmediato de su (posible) relación: o bien no existe
relación en absoluto y el auditorio deriva la interpretación metafórica de principios ajenos a
la semántica, o bien existe un procedimiento lingüísticamente especificable mediante el cual
el auditorio deriva esa interpretación, calculándola o computándola. Ahora bien, la
concepción de Searle sobre el comportamiento humano en general, y el lingüístico en
particular, es intencionalista. La interpretación de las proferencias de un hablante por parte
de un auditorio requiere la captación de las intenciones de ese hablante al utilizar las
expresiones. Por tanto, la pragmática debe indicar los principios mediante los cuales se
efectúa esa adquisición. Parte de esa explicación es general y parte particular. El aspecto
general se refiere a los principios que permiten a la audiencia comprender que el hablante
quiere decir, y dice, algo más, o algo diferente, de lo que sus palabras dicen. Esto vale tanto
para las expresiones metafóricas, como para las irónicas, los actos de habla indirectos, etc.
En general, forma parte de la explicación de por qué y cómo el significado de las
proferencias del hablante difiere de su significado convencional o semántico. En cambio, la
parte específica de la explicación ha de referirse a los medios o estrategias particulares que
emplea el hablante/oyente para producir/interpretar las expresiones metafóricas. Searle
(1991) desarrolla ocho de estos principios pragmáticos por los que puede arribarse a
metáforas exitosas:
"Principio 1: Aquellas cosas que son P son por definición R. Usualmente, si la metáfora
funciona R será una de las características salientes de P. Así, por ejemplo: ‘Sam es un
gigante’ será tomado para significar ‘Sam es grande’, porque los gigantes son grandes
por definición. (...)
Principio 2: Aquellas cosas que son P son contingentemente R. Si la metáfora funciona,
la propiedad R debería ser una saliente o bien conocida propiedad de las cosas P. Así,
por ejemplo: ’Sam es un cerdo’ será tomado para significar ‘Sam es sucio, glotón, y
demás’. (...)
Principio 3: Aquellas cosas que son P frecuentemente se dice o se cree que son R, aun
aunque tanto el hablante como el que escucha puedan conocer que R es falso de P. Así,
por ejemplo: ’Richard es un gorila’ puede ser enunciado para significar ’Richard es
indigno, sucio, proclive a la violencia, y así’. Aun cuando tanto el hablante y el que
escucha conozcan de hecho que los gorilas son asustadizos, tímidos, y criaturas
sensibles, generaciones de mitologías sobre los gorilas han instalado asociaciones que
permiten que la metáfora funcione aun cuando hablante y oyente sepan que estas
creencias son falsas. (...)
Principio 4: Las cosas que son P no son R, ni son ellas como las cosas R, ni se cree de
ellas que sean R, ni siquiera es un hecho sobre nuestra sensibilidad, sea cultural o
naturalmente determinada, que percibamos una conexión, de modo tal que la proferencia
de P sea asociada en nuestras mentes con propiedades de R. Así, por ejemplo: ‘Sally es
un bloque de hielo’; ’Estoy con un humor negro’; ’Mary es dulce’, son sentencias que
podrían proferirse para significar metafóricamente que: ’Sally es insensible’; ’Yo estoy
enojado y depresivo’; ’Mary es gentil, afable, divertida y demás’, aun cuando ellas no
sean similitudes literales sobre las cuales esas metáforas están basadas.(...)
Principio 5: Las cosas P no son como las cosas R, y no se cree que sean como las
cosas R, ni siquiera la condición de ser P es como la condición de ser R. Así, se podría
decir de alguien quien ha recibido justo una enorme promoción: ’Te has vuelto un
aristócrata’ no significando que él personalmente se haya vuelto como un aristócrata,
sino que su nuevo estatus o condición es como el que tiene un aristócrata. (...)
Principio 6: Hay casos en los cuales P y R son iguales o similares en significado, pero
donde uno, usualmente P, tiene un uso más restringido y no se aplica literalmente a S.
(...)
Principio 7: No se trata de un principio independiente sino de una forma de aplicar el
principio 1 a través del 6 para casos simples en los cuales no hay una forma ‘S es P’ sino
metáforas relacionales, o metáforas de otras formas sintácticas tales como las que
implican verbos y adjetivos predicativos. Considérese metáforas relacionales como: ’Sam
devora libros’; ‘El barco abre surcos en el mar’; ‘Washington fue el padre de la patria’. La
tarea del que escucha no es ir desde ‘S es P’ a ‘S es R’ sino desde ‘SP- relación S’ a
‘SR-relación S ’(...)
Principio 8: De acuerdo a mi enfoque de la metáfora, ella deviene un asunto
terminológico si queremos construir metonimias y sinécdoques como casos especiales
de la metáfora o como tropos independientes. Cuando uno dice, ‘S es P’ y significa que
‘S es R’, P y R pueden asociarse para tales relaciones como la relación parte-todo, la
relación continente-contenido (...). En cada caso, como en la metáfora propia, el
contenido semántico del término P se transfiere al contenido semántico del término R por
algunos principios de asociación. Dado que los principios de la metáfora tienen varios
modos, prefiero tratar a la metonimia y la sinécdoque como casos especiales de
metáforas y agregar sus principios a mi lista de principios metafóricos. Puedo, por
ejemplo, referirme al monarca británico como ‘la Corona’ y a la rama ejecutiva del
gobierno de los EEUU como ‘la Casa Blanca’ explotando principios sistemáticos de
asociación" (Searle, 1991, p. 533 y ss.)
Las virtudes y debilidades de este tipo de explicaciones resaltan cuando se
consideran los principios de interpretación metafórica que Searle propuso para explicar
cómo un hablante que profiere una expresión con el esquema ‘S es P’ significa, no obstante
‘S es R’, donde P no significa léxicamente R. En primer lugar, la interpretación metafórica se
pone en marcha de acuerdo con la siguiente estrategia: "cuando la proferencia es defectiva
si se toma literalmente, búsquese un significado proferencial que difiera del significado
oracional". Lo que haría la audiencia, entonces, es aplicar a la conducta lingüística del
hablante lo que se ha denominado principio de caridad interpretativa, según el cual se
asigna a la conducta del hablante la característica de ser comunicativamente racional. La
audiencia intenta encontrar un sentido comunicativo a las palabras del hablante, aunque
éstas incurran en falsedades manifiestas, absurdos, violaciones categoriales de las
condiciones de los actos de habla, etc.
Para ello, y en el caso de la expresión ‘S es P’, trata de hallar los valores posibles de
R “buscando formas en que S puede ser como P y, para hallar los aspectos en que S podría
ser como P, considérense rasgos distintivos, conocidos y perspicuos de las cosas P”. Como
las cosas pueden parecerse, o considerarse parecidas entre sí de múltiples formas, el
conjunto de valores de R puede ser demasiado grande para determinar una interpretación
viable. Por ello, la audiencia ha de “volver al término S y considerar cuál de los múltiples
candidatos de los valores de R son probables o siquiera posibles propiedades de S”. Dicho
de otro modo, ha de considerar la naturaleza del contexto comunicativo para asignar
diversos valores de probabilidad a las diferentes interpretaciones de la metáfora, eligiendo la
que tenga el valor más alto entre ellas.
La concepción de Searle supone, más allá de romper con las consideraciones
semánticas, una tesis tradicional: cualquier expresión puede tener, además, del significado
literal de una expresión, un significado metafórico. Puede sostenerse, con Lakoff y Johnson
(1998), que dicho punto de vista concluye favoreciendo, de otro modo, la antigua primacía
del lenguaje literal por sobre lo figurativo, ya que los procedimientos postulados por Searle,
basados ambos en la formulación "busca primero lo literal, y -sólo como última instancia, en
caso de haber fallado- busca lo metafórico", reforzarían el supuesto de que el lenguaje
metafórico es desviado y secundario con respecto al lenguaje literal.
Esta tesis de la dualidad significativa de las expresiones metafóricas es la que
Davidson (1984) puso en cuestión, criticando cualquier enfoque de interacción e insistiendo
en que la metáfora significa tan sólo lo que las palabras usadas para expresarlas significan
literalmente y nada más. Rechaza así todo punto de vista que sostenga que se debe
establecer una distinción entre un lenguaje literal y otro metafórico. De este modo, Davidson,
sitúa la metáfora fuera del alcance de la semántica, al insistir en que carece de otro
significado que no sea el literal. Anula la distinción entre lenguaje literal y metafórico porque
considera que las nociones semánticas tales como ‘significado’, sólo tienen un papel dentro
de los límites bastante estrechos (aunque cambiantes) de la conducta lingüística regular y
predictible, los límites que delimitan (temporalmente) el uso literal del lenguaje. Para
Davidson, en todo caso, lo que se necesita es una explicación de cómo es comprendida la
metáfora pero considerando que tal proceso de comprensión es el mismo tipo de actividad
que se pone en juego para cualquier otra expresión lingüística, que requiere un acto de
construcción creativa de lo que el significado literal de la expresión metafórica es y lo que el
hablante cree sobre el mundo. Hacer una metáfora, como hablar en general, es una
empresa creativa.
Davidson interviene de un modo peculiar en el debate sobre la paráfrasis de las
expresiones metafóricas. Black encontraba en la imposibilidad de establecer una paráfrasis
literal, una objeción al enfoque sustitutivo. Incluso los que sostienen que una paráfrasis
literal siempre es posible, aceptan que una gran cantidad de metáforas es intraducible como
resultado de su capacidad de portar información extra con respecto a la expresión en algún
contexto considerada literal. Esta condición parece conducir de un modo natural a la
posición de Davidson, pero la crítica de éste se dirige más que nada a la idea, defendida
tanto por los que aceptan como por los que no aceptan la posibilidad de la paráfrasis, según
la cual la metáfora puede cumplir una función significativa y comunicativa de modo peculiar
y secreto, como por ejemplo la idea de Ricoeur, quien desde una concepción semántica
parece defender la existencia de cierta capacidad o cualidad misteriosa de la metáfora,
capaz de suministrar “un conocimiento profundo verdadero de la realidad”. El punto de vista
de Davidson viene a ubicarse en la crítica de esta supuesta cualidad misteriosa, bajo la
sospecha que no haya, en verdad, ningún significado metafórico por oposición a otro literal.
“El error fundamental que me propongo atacar es la idea de que una metáfora posee,
además de su sentido o significado literal, otro sentido o significado. Esta idea es común
a muchos de quienes han escrito acerca de la metáfora: se la encuentra en las obras de
críticos literarios como Richards, Empson y Winters; filósofos desde Aristóteles a Max
Black; de psicólogos desde Freud a Skinner; lingüistas desde Platón a Uriel Weinreich y
George Lakoff. La idea toma muchas formas, desde la relativamente simple en
Aristóteles hasta la relativamente compleja en Black. Aparece en escritos que sostienen
que puede obtenerse una paráfrasis literal de una metáfora, pero es también la
comparten quienes sostienen que típicamente no puede hallarse dicha paráfrasis literal
Muchos ponen el acento en la percepción especial que puede inspirar la metáfora e
insisten que el lenguaje ordinario, en su funcionamiento usual, no produce tal
percepción. Pero también este punto de vista ve a la metáfora como una forma de
comunicación paralela a la comunicación ordinaria; la metáfora conduce a verdades o
falsedades acerca del mundo de manera muy parecida a como lo hace el lenguaje
común, aunque el mensaje puede ser considerado más exótico, profundo o
artificiosamente ataviado" (Davidson, 1984 [1995, p. 245])
Todo parece poder reducirse al problema irresuelto del significado. O bien un juicio
metafórico posee otro significado además del literal que le provee la capacidad de
suministrar ese impulso de captación que se obtiene de algunas buenas metáforas, o bien el
fenómeno de la metáfora no es sólo una cuestión de significado de las palabras o
expresiones sino un rasgo del contexto de su empleo, es decir de su pragmática. La primera
opción lleva a la enorme dificultad de cualquier teoría del significado de dar cuenta del
proceso metafórico, y la segunda, al negar la distinción de lenguajes, le ahorra a la teoría del
significado un problema extra: dar cuenta del significado oblicuo o sesgado.
Ahora bien, puede pensarse que una disputa en estos términos podría superarse
considerando una teoría amplia del significado que pudiera incluir las metáforas. Sin
embargo,digámoslo una vez más, no está allí la clave del problema: Davidson se opone no
tanto a una teoría puramente semántica que pudiera dar cuenta de los procedimientos
metafóricos, sino a una suerte de teoría subyacente según la cual la metáfora contendría un
elemento cognoscitivo que sólo ella podría transmitir y que tal elemento es lo que se debería
captar para entenderla. El problema, en todo caso, no es que la metáfora sugiera o
provoque de un modo indirecto cierta captación de su objeto. Lo que Davidson niega es que
la metáfora resulte un instrumento de conocimiento insustituible. No se trata de que haya un
significado en la metáfora con relación al objeto, sino que este significado sea verdadero, y
verdadero de un modo que sólo la metáfora puede aportar. Davidson no se opone a
considerar el poder psicológicamente potente de las metáforas, pero sí que esto se
produzca a través de un significado especial o un contenido cognoscitivo específico. No cree
que haya interacción entre ideas ni que una metáfora diga una cosa pero signifique otra. En
todo caso la metáfora, sostiene, funciona a través de otros intermediarios y suponer que:
"(...) sólo puede ser efectiva transmitiendo un mensaje cifrado es como pensar que una
broma o un sueño enuncian alguna proposición que un intérprete agudo puede traducir
en prosa Ilana. La broma, el sueño o la metáfora pueden, como un cuadro o un puñetazo
en la cabeza, hacernos apreciar cierto hecho, pero no significando el hecho o
expresándolo" (Davidson, 1984 [1995, p. 255])
Lo que horroriza a Davidson es que se pretenda que hay formas o facultades de
conocimiento ocultas bajo velos que no se pueden traspasar y por fuera de los límites
tradicionales del conocimiento: la percepción y el juicio. Eliminada la dualidad
literal/metafórico, de lo que se trata es de la presencia o ausencia de contenido cognoscitivo
en las metáforas. Según el modo de ver de Davidson los enunciados metafóricos deben
arreglárselas solos en su relación con su objeto de referencia.
“(...) lo que intentamos al ‘parafrasear’ una metáfora no puede ser suministrar su
significado, porque éste se encuentra en la superficie; más bien, intentamos evocar lo
que la metáfora trae a nuestra atención. Puedo imaginar a alguien que concede esto,
obviándolo como no más que una insistencia en limitar el empleo de la palabra
‘significado’. Esto sería una equivocación. El error central sobre la metáfora es más
fácilmente atacado cuando toma la forma de una teoría del significado metafórico, pero
detrás de esa teoría, y formulable de modo independiente, se encuentra la tesis de que,
asociado a la metáfora, va un contenido cognoscitivo que su autor desea comunicar y
que el intérprete debe aprehender para captar el mensaje. Esta teoría es falsa, llamemos
o no a este pretendido contenido cognoscitivo un significado” (Davidson, 1984 [1995, p.
250])
Para resumir la posición de Davidson:
1. las expresiones lingüísticas sólo tienen un significado: el literal. Por ello las expresiones
metafóricas no tienen un significado que venga a agregarse al literal
2. dado que no tienen una referencia especial las metáforas no tendrían contenido
cognitivo alguno. No se corresponden con ningún hecho. No tiene sentido por tanto
pensar que pueda haber equivalencias con algún otro enunciado considerado literal
3. las metáforas son usos peculiares de expresiones más que usos no literales
4. tiene una función comunicativa que no es la de expresar o transmitir ideas, sino la de
hacer notar, indicar, invitar a un auditorio a ver una realidad en términos de otra
Tanto la versión de Searle como la de Davidson comparten, aunque difieran en otros
aspectos, el supuesto de que existe un significado literal en el que las palabras refieren
directa o rectamente. Luego volveremos sobre el punto, por ahora cabe advertir que la
explicación de la sustancia de la interpretación metafórica va poco más allá de lo avanzado
por las teorías tradicionales, pero tiene el mérito de situar ese núcleo teórico en un contexto
dinámico, el de la comunicación lingüística. De hecho, las explicaciones pragmáticas
proporcionan una explicación más adecuada de cuándo o por qué se interpreta
metafóricamente una expresión, pero no respecto al problema de en qué consiste tal
interpretación. Es necesario entonces, reconocer que si bien la metáfora implica algo acerca
de los significados involucrados, también es indispensable un contexto y condiciones
adecuadas, por lo cual una complementación o síntesis entre los puntos de vista semánticos
y pragmáticos resultará menos interesante, pero más adecuada, sobre todo cuando de lo
que se tratará es de mostrar de qué modo algunas metáforas resultan recurrentes y
dominantes en determinadas épocas.
Para clarificar este giro que pretendo darle a la noción de metáfora resultará útil
echar mano del concepto de ‘bisociación’, introducido por A. Koestler en un contexto algo
más amplio y diferente, y que permite, con algunos retoques, combinar las condiciones
semánticas con las pragmáticas o contextuales sobre todo con relación al problema de la
distinción entre lenguaje literal y lenguaje metafórico.
1.3 una propuesta superadora: el concepto de ‘bisociación’ de Koestler
La concepción que Koestler desarrolla en The act of creation (1964) respeta la
distinción básica entre dos ámbitos que se relacionan, pero introduce el concepto de
‘bisociación’5 (bisociation) para nombrar la intersección de dos planos asociativos o
universos de discurso que ordinariamente se consideran como separados y, a veces, hasta
incompatibles. Hasta el momento en que alguien hace converger ambos universos o planos
produciendo un resultado novedoso e inesperado, que supone cambiar la perspectiva
(Burke, 1945) o recurrir a un filtro (Black, 1962) no empleado hasta ese momento, ambos
planos asociativos constituían mundos separados y no asociables, funcionando según una
lógica propia y constituidos por elementos que sólo se producen en ese plano. Cuando
alguien ofrece otro plano asociativo establece una convergencia inédita que produce un
cambio igualmente inédito en la percepción de los hechos y la lógica habitual de acuerdo a
la cual se consideraban los hechos dentro de una esfera resulta invadida por la lógica de la
otra esfera. Procesos de este tipo son moneda corriente en la ciencia, en la cual, en un
momento determinado, los hechos salen del marco en que ordinariamente se percibían y
comienzan a organizarse y pensarse según una nueva lógica produciendo resultados
nuevos y sorprendentes. Pero este tipo de procedimientos no se refiere tan solo a un cambio
de perspectiva sobre el mismo hecho o grupo de hechos al modo en que las distintas
disciplinas abordan objetos complejos. La nueva mirada producto de la transferencia
metafórica – bisociación- puede también producir una reorganización de lo conocido, e,
incluso puede, literalmente, inaugurar o introducir nuevos hechos pertinentes y relevantes.
Según una terminología epistemológica puede decirse que modifica en un sentido, a veces
fundacional y no necesariamente acumulativo, la base empírica.
La noción de ‘bisociación’ supera a otras concepciones acerca del proceso
metafórico: en principio da cuenta de la reconocida capacidad de la metáfora de decir algo
que ninguna paráfrasis literal podría traducir; al mismo tiempo da inteligibilidad a la idea de
innovacion semántica; también da una versión, fenomenológica cuando menos, del
"puñetazo en la cabeza" de Davidson, es decir el momento del eureka!, el asombro, la
perplejidad, la exaltación, la carcajada, etc. Kostler asocia los conceptos de bisociación,
metáfora y analogía sosteniendo que hay una " estrecha relación entre el hombre de ciencia
que ve una analogía donde nadie la vio antes y el descubrimiento del poeta de una metáfora
o un símil originales”. El concepto de bisociación permite además el análisis de dos
lenguajes sin otorgar privilegios a alguno de ellos, a no ser por una cuestión meramente
analitica. Permite pensar que la creatividad (o por lo menos una forma de ella) y la
generación de novedades surge de este tipo de procesos. De hecho no resuelve el
problema psicológico de la creatividad ni de esta suerte de propensión a poner en
bisociación planos usualmente desconectados entre sí
Esta súbita iluminación, este acto por el que el hombre de ciencia ve una analogía
allí donde nadie la vio antes muestra un costado sincrónico y, si se quiere fenomenológico
del proceso de bisociación que, sin embargo, requiere una evaluación más profunda que
surja de un análisis diacrónico para dar cuenta del proceso por el cual las metáforas tienen
éxito y mueren rápidamente como tales literalizándose. Lo que se inicia como una
bisociación entre ámbitos ajenos, a partir del éxito, rápidamente acaba siendo una
explicación literal del ámbito adoptivo al cual fue extrapolada en un principio. Esta ubicación
de la metáfora en el transcurrir temporal obliga a tomar en cuenta su inestabilidad y al
mismo tiempo su potencia; en este sentido puede decirse junto con A. Turbayne:
“Hay tres etapas principales en la vida de la metáfora. Al principio el empleo de una
palabra es simplemente inadecuado. Ello sucede porque le asigna a una cosa un
nombre que pertenece a otra (...) A este respecto, las grandes metáforas no son mejores
ni peores que los comunes errores de nominación (...) Pero puesto que semejante
afirmación y negación producen la requerida dualidad de sentido, la metáfora eficaz
rápidamente entra en la segunda etapa de su vida; el que una vez fuera nombre
inapropiado se convierte en metáfora. Alcanza su momento de triunfo (...) El momento en
5
Aquí utilizaré el concepto de ‘bisociación’ para las metáforas de la ciencia, pero para Koestler el uso
es más amplio y se extiende, además, a los contextos de lo cómico y lo artístico.
que la metáfora es inapropiada y el momento de su triunfo son breves comparados con
el periodo infinitamente largo, en que la metáfora es aceptada como lugar común. Las
dos últimas etapas a veces son consideradas como transición de una metáfora ‘viva’ a
una ‘moribunda’ o ‘muerta’”. (Turbayne, 1962 [1974, p. 38])
Está claro que la producción y supervivencia de las metáforas en general es un
asunto diacrónico y justamente atender al proceso temporal permite concebir la trayectoria
de las metáfora como un proceso de bisociación sincrónica seguido de una literalización
diacrónica. Esta doble condición del proceso por el cual se construye e instala una metáfora
obliga a reconsiderar, como ya se adelantara, la distinción entre lenguajes: puede hablarse
de dos lenguajes, uno literal y otro metafórico, en el momento de la bisociación –momento
del análisis sincrónico-, pero luego, en el análisis diacrónico ninguno de los dos lenguajes es
subsidiario del otro, sino que, en todo caso, sólo puede hablarse de dos lenguajes pero en el
sentido en que ellos son independientes, porque ambos son literales, por así decir. En
suma, si bien puede defenderse una dualidad de lenguajes en el momento en que opera la
transferencia metafórica, tal dualidad resulta irrelevante cuando esta operación culmina. En
todo caso, una vez operada la transferencia de un ámbito a otro, la eliminación de la
distinción lenguaje literal/ metafórico hace que se disuelva el problema de la metáfora en el
del lenguaje en general. Si seha de considerar la relevancia cognoscitiva de las metáforas,
el lenguaje que aparecía como subsidiario tiene que arreglárselas en soledad con su
referencia, y resulta para este caso irrelevante el origen –desviado, figurado, sesgado- de tal
lenguaje. En esta nueva consideración, las metáforas han de enfrentar el problema de la
verdad, la referencia y el significado, la relación términos teóricos/términos empíricos, etc.,
del mismo modo que un supuesto, y ahora ya no privilegiado, lenguaje literal. Esto supone
parámetros de análisis distintos que los que empleará el crítico literario, que analiza las
metáforas como novedosas, triviales, reiterativas o exóticas, pero no como verdaderas o
falsas en un sentido relevante.
Precisando algo más la cuestión, puede decirse que existen dos lenguajes -literal y
metafórico- pero bajo una triple caracterización, semántica, pragmática y diacrónica, esto es:
el uso de un lenguaje en un ámbito determinado del conocimiento resulta un original que
puede ser extrapolado a otros ámbitos en los cuales resultan novedosos en principio pero
luego se literalizan, según el concepto de metáfora epistémica (en adelante ME). Una ME
puede caracterizarse como sigue: en el uso epistémico de las metáforas una expresión
(término, grupo de términos o sistemas de enunciados) y las prácticas con ellos asociadas
habituales y corrientes en un ámbito de discurso determinado socio-históricamente,
sustituye o viene a agregarse (modificándolo) con aspiraciones cognoscitivo-epistémicas, a
otra expresión (término, grupo de términos o sistemas de enunciados) y las prácticas con
ellos asociadas en otro ámbito de discurso determinado socio-históricamente; este proceso
se desarrolla en dos etapas, a saber: bisociación sincrónica/literalización diacrónica.
1.4 la distinción literal – metafórico y la indeterminación de la traducción
Uno de los tópicos acerca de las metáforas, que va en detrimento de las posiciones
comparativas y en apoyo de los que sostienen que hay algo nuevo en las metáforas,
consiste en señalar la imposibilidad de establecer una paráfrasis literal de las mismas. La
discusión atraviesa las concepciones semánticas y pragmáticas: la innovación semántica de
Ricoeur y el enfoque interactivo de Black presuponen la defensa de una dualidad de
lenguajes pero también otros autores que provienen del lado de los análisis pragmáticos
como Searle defienden, aunque desde otro punto de partida, cierta dualidad. Pero resta aún
exponer un argumento a favor de la necesidad de considerar al lenguaje metafórico como
irreductible al lenguaje literal que no provenga de la apelación a cualidades o condiciones
misteriosas o incognoscibles. La tesis de W. V. O. Quine sobre la indeterminación de la
traducción puede servir aquí.
Si bien se puede pensar que esta tesis va directamente en apoyo de la posición de
Davidson, quien sostiene que no hay dos lenguajes en la relación literal/metafórico sino, en
todo caso dos lenguajes en el mismo nivel, también es posible desde la tesis de la
intraducibilidad defender la dualidad en un sentido diacrónico. En efecto, esto es así en la
medida en que si bien la plena comprensión del nuevo lenguaje (metafórico) resulta
imposible si se pretende hacerlo desde la traducción de la expresión literal, puede no
obstante conducir a un ajuste y comprensión paulatinas. La argumentación de Quine está
referida a la relación entre dos lenguas, pero puede utilizarse igualmente para tratar sobre
esas dos lenguas que son el lenguaje (considerado) literal y el lenguaje metafórico.
Quine (1960) desarrolla una de sus tesis más discutidas y originales: la de la
‘indeterminación de la traducción’, según la cual, siempre sería posible redactar una serie de
‘manuales de traducción’ diversos e incompatibles entre sí. Aun permaneciendo fiel a las
disposiciones expresivas individuales de los interlocutores, cada manual recortaría un
universo de comunicación finito, sin suministrar los instrumentos para una traducción
universal. Esta tesis que resuena incluso en la noción de inconmensurabilidad de
Feyerabend y Kuhn, aún produce ricas consecuencias. Quine, partidario del holismo
semántico especialmente en epistemología, distingue, para iniciar su argumentación entre
los tipos de frases posibles, aquellas que denomina frases ocasionales: expresiones como
"Esto es un conejo”, no exigen más que el consentimiento o la aprobación de un hablante y,
en suma tienen sentido aún tomadas aisladamente. En estas condiciones, una teoría
empirista de significación-estímulo podría definir la sinonimia entre expresiones de lenguas
diferentes sobre una base totalmente realista y conductual, pero contra esta posición dirige
Quine su argumentación. Parte de una situación de traducción radical, en la cual un lingüista
se encuentra ante una lengua desconocida que debe aprender mediante un método directo,
observando lo que dicen los indígenas, sin poseer un diccionario previo y ninguna otra
evidencia de su conducta habitual. Suponiendo que el lingüista en cuestión observara cierta
concomitancia entre el paso de conejos y la emisión por parte de los indígenas de la
expresión gavagai; el lingüista puede fabricar la hipótesis de que gavagai significa "conejo".
Para verificar su hipótesis, presenta a un informador la expresión gavagai como pregunta,
cuando ambos están en presencia de conejo, y señalándole el animal con el dedo. Si el
indígena consiente ¿puede concluir que ha hallado la traducción correcta?. Quine sostiene
que no, porque el indígena daría exactamente la misma respuesta si gavagai significase
"parte no separable del conejo" o "segmento temporal de conejo", de modo tal que la
traducción está indeterminada porque muchas hipótesis son compatibles con los datos
conductuales. No hay un verdadero criterio de sinonimia para igualar gavagai y "conejo", así
como tampoco hay medios experimentales para distinguir, en el aprendizaje de los
indígenas de la forma de aplicar una expresión, lo que surgiría exclusivamente del
aprendizaje lingüístico y lo que tendría su fuente en los elementos. Pero no hay que pensar
que la indeterminación de la traducción es sólo una variación sobre algunos conceptos, sino
que para Quine ‘conejo’, ‘parte no separable de un conejo’ o ‘segmento temporal de conejo’
no son tan sólo expresiones lingüísticas que poseen significaciones diferentes, sino que son
cosas diferentes. Huelga señalar las consecuencias epistemológicas que esta
argumentación posee en la medida que lo que se trata es de la inescrutabilidad de la
referencia. La simple observación no sirve para distinguir entre dos o más interpretaciones
posibles.
Desde luego, un lingüista no se quedará en la indeterminación y puede ir más
adelante en lo que Quine denomina hipótesis de análisis, construyendo paso a paso un
manual de traducción. El lingüista precede identificando poco a poco los elementos de la
lengua indígena con nuestros procedimientos de individuación (el plural, artículo, por
ejemplo). Ciertamente tiene razón y no existe otra forma preceder; a la larga, los lingüistas
terminan siempre construyendo buenos manuales de traducción, es decir, buenas
herramientas lingüísticas. Se podría entonces pensar que las hipótesis de análisis terminan
por eliminar la indeterminación de la traducción. Ciertamente, ocurre así en la práctica, pero
Quine niega que esto modifique en absoluto el principio de fondo, en la medida en que la
interpretación de la lengua indígena se hace tomando decisiones desde la propia lengua, de
modo tal que no se hace más que proyectar una cultura sobre otra. Se pueden tener
proyecciones mejores o peores pero, según este punto de vista no puede haber criterios no
lingüísticos para dilucidar la cuestión. Si los hubiera, ello significaría que se podrían decidir
en forma empírica y absoluta entre muchas hipótesis de análisis incompatibles. Pero no se
dispone de un principio de demarcación que permita distinguir lo que surge del lenguaje
propio o de las propias hipótesis analíticas y lo que surge de la propia realidad. Siempre se
puede hacer que dos hipótesis lógicamente incompatibles entre sí, sean las dos
perfectamente compatibles con el comportamiento observable.
Los dos pasos de la argumentación de Quine – la indeterminación de la traducción y
la posibilidad de establecer hipótesis de análisis que aporten una comprensión progresiva de
la nueva expresión- pueden ser aplicados a la comprensión de las metáforas, dado que las
expresiones literal y metafórica pueden ser consideradas como dos lenguajes entre los
cuales es posible establecer una comprensión progresiva que va desde un ámbito original y
habitual de una expresión hacia otro en el cual aparece como una novedad radical pero en
el cual puede llegar a literalizarse.
1.5 verdad y metáforas
Si se trata de relacionar metáforas y ciencia, resulta insoslayable discurrir sobre el
problema de la verdad, sea para dar una versión de la cuestión, sea para negar que la
verdad en su acepción correspondentista estándar (o alguna de sus herejías) constituya el
fundamento de los enunciados científicos. Sin embargo, las tesis expuestas en este libro son
impotentes para resolver el problema de la verdad pero pueden ser defendidas aceptando
que la cuestión de la verdad metafórica es igual de problemática que la de la verdad literal.
En verdad se elude el problema de la verdad disolviéndolo en el problema de la verdad del
lenguaje general. No habría, en suma, un problema de la verdad metafórica sino, en todo
caso un problema de la verdad referido a todos los enunciados en general.
Ya he adelantado que los enunciados producto de un proceso metafórico deben
arreglárselas en soledad con su referencia. En este sentido mi posición no difiere de la de
Davidson: las oraciones en las que aparecen las metáforas son verdaderas o falsas en la
forma literal, independientemente del sinnúmero de situaciones y derivaciones que una
metáfora pueda generar. Pero vale la pena analizar con algo de detalle cuando menos el o
los planteos posibles del problema de la verdad que surge apenas se esboza una versión no
sustitutiva o reductiva de la metáfora.
Se trata principalmente de establecer a qué refiere la metáfora, es decir qué tipo de
relación se establece entre ese tipo especial de lenguaje que parece enturbiar (y quizá
embellecer) la relación con el mundo extralinguístico. Para las tesis reduccionistas o, como
llamaba Black sustitutivas de la metáfora, hemos visto que no hay problema alguno a
resolver: sólo hay que establecer el original que la metáfora está sustituyendo y ese
enunciado será el que tiene referencia. Pero aquí defiendo una tesis que podríamos llamar
no reduccionista, en la cual el enunciado metafórico es intraducible, tiene una aspiración
propia a su referencia y, por lo tanto, recomienza nuevamente el problema de la verdad y la
referencia pero no subsidiariamente sino del mismo modo que con cualquier otro
enunciado6.
Por otro lado, la relación entre las metáforas y el mundo es un problema relevante
para la filosofía de la ciencia, a condición de que pueda decirse algo en el orden de la
verdad. A lo largo de las reflexiones sobre el punto se han dado dos líneas o tendencias
definidas (cf. De Bustos, 2000). Las que consideran incuestionada o incuestionable la noción
6
De Bustos (2000) establece otra distinción entre las concepciones realistas y no realistas de la
metáfora con relación a su referencia. Considera que son realistas aquellas teorías que, reconociendo
la aplicabilidad de la referencia a las metáforas, entienden esta referencia como derivada de la
relación que une el lenguaje con una realidad independiente de cualquier marco conceptual. Por otro
lado serian no realistas aquellas teorías que consideran la referencia (metafórica o no) sin el importe
ontológico que tiene en el realismo filosófico. La metáfora en este sentido contribuye a inaugurar
nuevas perspectivas habida cuenta de que no habría un fundamento extralingüístico último ni la
búsqueda de una descripción final y definitiva del mundo.
de verdad y el problema está circunscripto a determinar la relación que la metáfora tiene con
ese punto literal fijo, de modo que “cualquier duda filosófica que pueda surgir en el análisis
de la relación entre verdad y metáfora arrojará sospechas sobre la metáfora y no sobre la
verdad” (De Bustos, 2000, p. 116). Por otro lado, las que extendiendo la noción de metáfora
o detectando que surgen problemas si se le quiere aplicar la noción de verdad, cuestionan a
ésta y no a la metáfora. Esta última vía que es la que adoptan los estudios sobre la ciencia
más relativistas, porque discuten o creen discutir contra posiciones epistemológicas que en
realidad están prácticamente en desuso y no optan por una vía más prometedora: reevaluar
el rol epistémico de las metáforas.
A modo de resumen puede decirse que una taxonomía de las teorías sobre la verdad
metafórica, debería incluir:
1. en primer lugar las teorías que otorgan independencia o niegan la subordinación de la
verdad metafórica. Aunque puede haber varias versiones en esta línea, quizá la más
importante sea la que sostiene M. Hesse (1966). Para ella el lenguaje es esencialmente
metafórico, por lo cual el único privilegio del llamado lenguaje literal es que se trata de un
caso límite de la convencionalización del lenguaje metafórico, lenguaje que tendría una
relación con el mundo similar a la de las teorías o modelos. Obviamente la verdad a la
que se refiere nunca se ubica como única, absoluta o definitiva.
2. En segundo lugar las teorías que sostienen la subordinación de la verdad metafórica.
Las expresiones metafóricas son verdaderas de manera indirecta, es decir a través de
otras expresiones, literalmente verdaderas, de las cuales derivan.
3. Por último las teorías que niegan valor de verdad a las expresiones metafóricas, ya sea
porque se les asigna únicamente otros valores –como la belleza, por ejemplo-, ya sea
porque se considera que carecen de un significado propio.
2. MODELOS CIENTIFICOS
“(...) el mapa de una sola provincia ocupaba toda una ciudad,
y el mapa del imperio, toda una provincia. Con el tiempo,
esos mapas desmesurados no satisficieron, y los Colegios
de Cartógrafos levantaron un mapa del imperio que tenía el
tamaño del imperio y coincidía puntualmente con el.
Menos adictas al estudio de la cartografía,
las generaciones siguientes entendieron
que ese dilatado mapa era inútil y no sin impiedad
lo entregaron a las inclemencias del sol y de los inviernos.
En los desiertos del oeste perduran despedazadas
ruinas del mapa, habitadas por animales y por mendigos (...)"
J. L. Borges "Del rigor de la ciencia"
La palabra ‘modelo’ se utiliza en varios sentidos en el lenguaje natural, e incluso hay
varios usos diferentes en la ciencia. En general hacen referencia a sistemas usados para
investigar y comprender los sistemas reales de los que ellos son modelos. Así, en biología,
ciertos organismos son seleccionados como modelos, sobre la base de la comodidad para la
investigación y manipulación y son investigados intensivamente, con la esperanza de
generalizar los resultados para otros organismos. En la investigación biomédica, se usan
frecuentemente ratones, perros y monos como modelos para estudiar los efectos de drogas
en los seres humanos. Buena parte de la investigación genética se hace utilizando moscas y
algunos tipos de bacterias. También hay un uso especial de ‘modelo’ en ciencia relacionado
con la teoría lógica de los modelos.
En física, se usan modelos mecánicos de los procesos naturales, como por ejemplo
un sistema de bolas de billar en movimiento aleatorio se puede tomar como modelo para el
estudio de los gases. Esta relación modelística no implica que las bolas de billar sean como
partículas de gas en todos los respectos, simplemente que las moléculas de gas son
análogas a las bolas de billar. Bajo el modelo, algunas propiedades de las bolas de billar se
deben adscribir a las moléculas de gas, esto es, el movimiento e impacto (lo que Hesse
llama analogía positiva), mientras que otras propiedades de las bolas de billar tales como el
color o la dureza (la analogía negativa) no tienen su análogo en las moléculas. Según Hesse
(1966), también hay ‘analogías neutrales’, usadas cuando no se sabe si las propiedades son
compartidas y que permiten hacer nuevas predicciones. Black sostuvo que “el uso de un
modelo particular puede ayudarnos a notar lo que de otra manera podríamos pasar por alto,
cambiar el énfasis en algunos detalles, en suma, ver nuevas conexiones” (Black, 1962,
[1966, p. 237]).
N. R. Campbell (1920) en el contexto de una polémica acerca de la naturaleza y el
papel de las analogías aseguraba que, por ejemplo, durante el desarrollo de la teoría
cinética de los gases, el modelo mecánico de las bolas de billar de la teoría jugó un papel
esencial en su extensión, de modo tal que la disponibilidad de un modelo de trabajo, a
veces, es muy importante para el éxito de la teorización en ciencias. La analogía no cumple
para él una función de asistencia provisional en la formulación de las hipótesis, sino que
constituye el resorte mismo del poder explicativo de un sistema de proposiciones que
funciona como una teoría. P. Duhem (1954), por el contrario, argumentó que tal uso de
modelos en ciencia era preliminar, opcional y potencialmente engañoso, y que las teorías
propiamente científicas estaban expresadas abstracta y sistemáticamente; si bien el uso de
modelos es obvio en la construcción del sistema de axiomas de una teoría ellos no son un
componente esencial de una teoría científica. Cuando Duhem critica los modelos mecánicos
utilizados por los físicos ingleses de la escuela de Lord Kelvin, y que reproducen los efectos
de un determinado número de leyes gracias a mecanismos que ponen en juego una lógica
de funcionamiento completamente distinta, distingue cuidadosamente entre este recurso
imaginativo, basado en semejanzas superficiales, y el procedimiento analógico propiamente
dicho que, al pasar de relaciones abstractas a otras relaciones abstractas, constituye el
resorte heurístico de las generalizaciones y de las transposiciones fundadas en una teoría.
De manera independiente a esta polémica podemos considerar que hay dos modos
principales para la relación modelo-realidad: la noción de modelo como ‘lo representado’ por
un lado y como la ‘representación’, por otro.
2.1 lo ‘representado’ como modelo
J. Mosterín (1984), señala la equivocidad de la noción de modelo en los lenguajes
naturales: algunas veces se aplica a lo pintado, dado, representado, de modo tal que se
entiende como modelo de un pintor, de un fotógrafo, de ropa, etc. Por lo tanto, la afirmación
“X es modelo de Y” significa que:
‘X’ es lo representado
Fotografiado
Pintado
Imitado
‘Y’ es la representación
Fotografía
Pintura
Imitación
Uno de los sentidos de modelo en ciencia está en paralelo con esta acepción del
lenguaje corriente. Se trata del significado que tiene en la teoría de los modelos de la lógica
y que suele denominarse modelo matemático. Mosterín prefiere mantener ese uso porque
permite trasladar al análisis epistemológico de las ciencias fácticas, los resultados técnicos
de la teoría de modelos:
“Una teoría cualquiera determina la clase de sus modelos. Y un sistema cualquiera
determina unívocamente la clase de todas las teorías de las que él es un modelo. Así,
podemos partir de una teoría y buscarle modelos, o partir de un modelo (de un sistema)
y buscarle teorías. Y podemos obtener información sobre las teorías estudiando sus
modelos, y sobre los sistemas estudiando sus teorías. Respecto a todos estos y otros
muchos aspectos de las relaciones entre teorías y modelo, la teoría de modelos ofrece
métodos precisos y resultados abundantes a los que evidentemente no quisiéramos
renunciar” (Mosterín, 1984, p. 153)
De modo tal que un modelo es una interpretación que hace verdaderos todos los
axiomas de un sistema axiomático. Esta noción de modelo como ‘lo representado’ ha sido
defendida por buena parte de la literatura epistemológica:
“(...) los modelos de una teoría son los correlatos formales de los trozos de realidad que
la teoría explica” (Moulines, 1982, p. 78);
“(...) un modelo de una teoría puede ser definido como una realización posible en la cual
todas las sentencias válidas de una teoría son satisfechas y una realización posible de
una teoría es una entidad de la correspondiente estructura de la teoría de conjuntos”
(Suppes, 1969a, p. 252)
“(...) una proyección de una teoría de tal forma que una teoría puede tener distintas
proyecciones posibles todas ellas isomorfas entre sí' (Wartofsky, 1968, p. 25)"
Vale la pena detenerse un momento en una utilización algo diferente de esta noción
de modelo, también denominado modelo matemático, muy común en las ciencias sociales.
Se trata, más bien de una suerte de simplificación cuantitativa que, según Black opera
siguiendo la siguiente secuencia:
“1. En un campo determinado se identifica cierto número de variables pertinentes, ya sea
basándose en el sentido común, ya en virtud de consideraciones teoréticas más
alambicadas. (...)
2. Se forman hipótesis empíricas concernientes a las relaciones imputadas entre las
variables elegidas. (...)
3. Se introducen simplificaciones a menudo drásticas, con objeto de facilitar la
formulación y la manipulación matemáticas de las variables. (...)
4. Se hace un esfuerzo por resolver las ecuaciones matemáticas resultantes, o, en caso
de que ello fracase, por estudiar los rasgos globales de los sistemas matemáticos así
construidos. (cuando menos conclusiones cualitativas acerca de las distribuciones de los
máximos, mínimos, etc.)
5. Se intenta extrapolar las consecuencias susceptibles de contrastación al campo
original (...)
6. La eliminación de algunas restricciones impuestas en beneficio de la sencillez sobre
las funciones componentes (por ejemplo su linealidad) puede conducir a cierto aumento
de la generalidad de la teoría”. (Black, 1962, [1966,p. 221])
No se trata, en suma, de modelos matemáticos, sino de expresiones cuantitativas o
cuantificables que forman parte de teorías. Las drásticas simplificaciones que se requieren
para que pueda llevarse a cabo con éxito el análisis matemático involucran un grave riesgo
de confundir la exactitud de la matemática con la fuerza de la verificación empírica en el
campo original. Es muy común el uso de este tipo de modelos en economía con el
consiguiente giro ideológico consistente en creer (y sobre todo hacer creer) que el
tratamiento matemático proporciona explicaciones, como si fuera una descripción de un
mecanismo invisible que explica realmente lo social.
En este sentido de modelo matemático en el cual modelo es lo representado, el
camino recorrido por la modelización es inverso al que se analizará en este trabajo como
proceso de asignación metafórica de significados nuevos o extensión de significados, por lo
cual será preferible dejarlos de lado.
2.2 el ‘representante’7 como modelo
El otro sentido de ‘modelo’ utilizado en ciencia es aquel en el cual ‘modelo’ es la
representación, de modo tal que la relación entre representante /representado es inversa a
la que se establece en los modelos matemáticos. Probablemente se trate del tipo de
modelos más fácilmente asimilable a la noción de metáfora. En ellos la expresión ‘X es
modelo de Y’ significa:
X es la representación
Esquema
Imitación
Pintura
Modelo
Y es lo representado
Esquematizado
Imitado
Pintado
Modelado
Obviamente, existen muy diversos modos de representar, de relacionarse
representación y representado en suma, que se expresan en los distintos tipos de tipos de
modelos. Pero, además, y esto vale también para las metáforas, en la producción o
adopción de un modelo debe señalarse la existencia de un tercer elemento que produzca el
enlace entre representación y representado. El tratamiento literario de las metáforas
soluciona la cuestión apelando a una instancia más o menos inasible como es la creatividad
y, de hecho, en algún sentido puede suponerse lo mismo para el caso de los modelos
científicos. Sin embargo, el enlace para el caso de los modelos requiere dereglas mucho
más precisas y eventualmente puede suponerse que un modelo es un sistema mediante el
que se postula una representación conceptual de un asunto determinado –real o imaginadoconforme a determinada finalidad, constituyendo tal representación conceptual un sistema
abstracto.
2.2.1. Modelos a escala (MAE)
Los MAE son simulacros de objetos materiales, ya reales como imaginarios, que
conservan las proporciones relativas del original: maquetas de edificios o puentes, aviones
para pruebas en túneles de viento, etc. Su uso tiene ciertos límites que deben ser tenidos en
cuenta. Una maqueta puede ser una reducción e escala de las dimensiones y
configuraciones del objeto maquetado, pero esta no es una condición necesaria, pues
muchas maquetas no guardan las proporciones en forma precisa. Tampoco una maqueta
tiene que tener todas las propiedades del objeto maquetado: una maqueta de un puente
puede ser hecha de cartón y madera balsa, y no tener la misma resistencia a la presión
lateral que tenga el puente maquetado, incluso en escala; o viceversa, una maqueta puede
enfatizar la escala de resistencia y no guardar las proporciones precisas que tiene el
original. En general una maqueta enfatizará uno u otro de los rasgos según el empleo que
se quiera hacer de ella: por ejemplo si se quiere hacer un estudio de resistencia
aerodinámica la maqueta tendrá la misma configuración externa, pero la escala de masa
gravitatoria no será relevante, si por otra parte se quiere estudiar la resistencia a la
deformación térmica, la maqueta deberá ser del mismo material que el objeto original para
estudiar en esa el comportamiento a altas temperaturas. Si por otro lado se quiere estudiar
la resistencia a la deformación la maqueta tendrá que tener la misma estructura interna y
esto vale para cualquier maqueta. Si sólo se quiere mostrar cómo quedará el proyecto
terminado bastará con que tenga un aspecto exterior similar.
7
La cuestión de la representación científica se encuentra lejos de estar resuelta. De hecho se trata de
un caso especial del problema del conocimiento acerca del mundo en general. La cuestión central
sería: ¿cómo se conectan las representaciones a los objetos representados?. Para el caso de la
representación científica las distintas versiones difieren no sólo en cuanto a la naturaleza de la
representacion o contenido de la ciencia (sistemas de enunciados, modelos, etc) sino también en
cuanto al estatus ontológico de los objetos estudiados (cf. Ibarra y Mormann, 1997)
Entre un MAE y su modelado siempre hay una relación asimétrica: A es un MAE de
B, pero no a la inversa. El MAE no es un fin en sí mismo sino un medio, un sustituto
meramente instrumental y, dado que ilustra sólo ciertos aspectos del original no existe un
MAE perfectamente fiel ya que su objetivo es la representación de la cosa que sustituye
para poder ‘leer’ propiedades del original a partir de las propiedades del modelo
directamente observables. Asimismo debe haber ciertas convenciones subyacentes de
interpretación, maneras de ‘leer’ el MAE, que descansan en esa identidad parcial que hace
que un modelo se parezca al original, al reproducir algunas de sus características, y al
conservar las proporciones relativas entre las magnitudes relevantes y pertinentes.
2.2.2. Modelos analógicos8 (MA)
En la historia de la ciencia abundan los ejemplos de modelos analógicos. E.
Rutherford y N. Bohr tomaron el sistema solar como modelo para representar el átomo,
considerando que la estructura de éste es análoga a la de aquél. C. Maxwell desarrolló la
representación del campo eléctrico sobre la base de las propiedades de un fluido
incompresible imaginario (éter), C. Huygens elaboró su teoría ondulatoria de la luz con
ayuda de sugerencias derivadas de la concepción del sonido como fenómeno ondulatorio;
sistemas mecánicos que dan cuenta de fenómenos eléctricos, magnéticos u ópticos, o bien,
en el caso del átomo, extrapolan lo que ocurre en algunos sistemas macroscópicos a los
sistemas microscópicos, o bien se basan en campos de disciplinas más desarrollados, etc.
Dado que se trata del tipo de modelo científico que con mayor facilidad puede
incluirse dentro de la categoría de ‘metáfora epistémica’ es necesario detenerse en algunas
de las disputas alrededor de los mismos.
En la literatura epistemológica hay cierta unanimidad en reconocer que los modelos
son valiosos psicológicamente, en la medida en que sirven a las funciones heurísticas de
ayuda para sistemas muy complejos, y contribuyen a simplificar inferencias sobre aquellos
sistemas, aunque hay fuertes disputas sobre el carácter y el estatus ontológico de los
mismos. Aun los modelos conocidos por ser representaciones erróneas del mundo real
pueden algunas veces ser eficaces (Wimsatt, 1974). En este sentido Th. Kuhn, refiere un
caso típico:
“El universo de las dos esferas aún es utilizado ampliamente en nuestros días dada su
capacidad de proporcionar un compacto resumen sintético de una vasta cantidad de
importantes hechos de observación (...) La mayor parte de los manuales de navegación
o de topografía vienen encabezados por una frase similar a esta: ‘Para nuestros
objetivos presentes, supondremos que la Tierra es una pequeña esfera inmóvil cuyo
centro coincide con el de una esfera estelar, mucho más grande, y animada de
movimiento de rotación’. Así pues, evaluado en términos de economía, el universo de las
dos esferas continúa siendo lo que siempre ha sido, una teoría en extremo afortunada”
(Kuhn, 1957 [1993, p. 68])
Como quiera que sea, la epistemología estándar reconoce a los modelos ciertas
funciones como por ejemplo las de comprender un dominio de fenómenos a partir de otro
“más accesible y conocido que el primero”; pueden tener también una función didáctica y
además “una función heurística, ya que a través de ellas se llega a la formulación de
hipótesis sugeridas por las analogías”; pero queda absolutamente claro que no se les
reconoce poder explicativo ni probatorio. Se les reconoce sólo utilidad en el 'contexto de
descubrimiento' para la búsqueda de nuevos principios explicativos (Hempel, 1966, p. 44)
Hay también acuerdo en que debe haber alguna analogía posible entre un modelo
usado en ciencias y el fenómeno para el que se usa como explicación aunque tal acuerdo
8
Black (1962), denomina ‘modelo analógico’ a cualquier objeto material, sistema o proceso, destinado
a reproducir de la manera más fiel posible, en otro medio, la estructura o trama de relaciones del
original. Presupone un cambio de medio. El concepto de 'modelo analógico' que se utiliza aquí es
diferente y se encuentra más cercano al uso que hace Estany (1993) de esta denominación.
acaba cuando se trata de establecer si ese modelo es una representación realista del
fenómeno que se pretende explicar o es meramente un instrumento de predicción o
didáctico. El modo (grado) en el cual los modelos son tomados como exacta y
adecuadamente representantes de la realidad -desde el puramente instrumental hasta el
fuertemente realista- es una de las vías más significativas en que los compromisos con los
modelos pueden diferir. Lo que frecuentemente se llama uso ‘instrumental’ considera al uso
de modelos como un recurso para calcular. A mitad de camino se encuentran los modelos
idealizados, los cuales pueden ser vistos o bien como falsas pero manuables
simplificaciones de los procesos del sistema natural en cuestión, y en el otro extremo la
consideración de los modelos como verdaderas representaciones de algunas de las fuerzas
operantes en el sistema natural.
Achinstein (1968), por ejemplo, sugiere una jerarquía de modelos basada en el grado
de compromiso ontológico, esto es, desde considerarlos como simples suposiciones que
proveen posibles mecanismos sobre cómo los sistemas naturales podrían estar operando,
hasta aquellos que tienen pretensiones concretas de que el mundo real sea enteramente
como las entidades y dinámica del modelo. En este último caso, la elección del modelo
implica un compromiso metafísico sobre el contenido del universo, cuyos objetos y
relaciones realmente existen.
El proceso por el cual se producen y utilizan estos modelos, y que le confiere un
notable parecido de familia con los procesos de producción de metáforas, puede resumirse
como sigue:
1. Hay un campo determinado de investigación, en el cual se han logrado ciertos éxitos en
la detección de algunos hechos y regularidades sea desde cuestiones desconectadas
entre sí y generalizaciones toscas a leyes muy precisas, posiblemente organizadas por
alguna teoría relativamente bien articulada;
2. El éxito inicial puede sugerir la posibilidad de extender el corpus de conocimientos y de
conjeturas o de vincularlo con otras esferas del conocimiento hasta el momento ajenas;
3. Por este pasaje pueden describirse algunas entidades (objetos, materiales, mecanismos,
sistemas, estructuras) pertenecientes al dominio nuevo utilizando herramientas propias
del dominio original por considerarlo relativamente no problemático, más familiar o mejor
organizado;
4. Debe disponerse de reglas de traducción explícitas que permitan el pasaje de un
dominio a otro;
5. Por medio de reglas de correlación se traducen ciertas inferencias acerca de las
asunciones hechas en el campo secundario, y se las contrasta independientemente a
datos conocidos o predichos del dominio primario.
Black rescata el carácter positivo y productivo de los usos de modelos y reconoce su
parentesco cercano con las metáforas, además del gran poder conceptual de los mismos, es
decir su capacidad para sistematizar la estructura de una teoría, su capacidad para expandir
y transformar una teoría y aun la potencia para generar nuevas teorías en campos
disciplinares nuevos. Los modelos, en este sentido, no son meros epifenómenos de la
investigación científica, sino que:
“(...) desempeñan en ella un papel peculiar e irreemplazable: que los modelos no son
deshonrosas suplencias de las fórmulas matemáticas. (...) Para muchos el uso de
modelos en la ciencia se viene pareciendo al de la metáfora (...) El modelo funciona
como un tipo más general de metáfora. No hay duda de que cierta semejanza entre el
empleo de un modelo y el de la metáfora (acaso deberíamos decir: de una metáfora
sostenida y sistemática) y la crucial cuestión acerca de la autonomía de los modelos
tiene su paralelo en una antigua discusión sobre la traducibilidad de las metáforas (los
que ven el modelo como una simple muleta se parecen a quienes consideran la metáfora
como mero ornamento o decoración). (...) el pensamiento metafórico es un modo
peculiar de lograr una penetración intelectual, que no ha de interpretarse como un
sustituto ornamental del pensamiento llano
Cosas muy parecidas pueden decirse de los modelos en la investigación científica. Si se
invocase el modelo después de haber llevado a cabo la tarea de formulación abstracta,
sería, en el mejor de los casos, algo que facilita la exposición; pero los modelos
memorables de la ciencia son ‘instrumentos especulativos’ (...)
El uso de un modelo determinado puede no consistir en otra cosa que una descripción
forzada y artificial de un dominio suficientemente conocido ya de otra forma; pero puede
ayudarnos también a advertir cosas que de otro modo pasaríamos por alto, y a desplazar
la importancia relativa concedida a los detalles: brevemente, a ver nuevas vinculaciones”
(Black, 1962, [1966, p. 232])
2.2.3 Metáforas básicas
Resta analizar aún algunos ‘artefactos’ que se presentan como modelos muy básicos
y que parecen estar a mitad de camino entre meras metáforas en el sentido tradicional y
modelos científicos en un sentido estricto. Los denominaré aquí, y a falta de un nombre
mejor, ‘metáforas básicas’. Se trata de las ME de mayor nivel amplitud.
S. Pepper (1942), por ejemplo, las denomina 'metáforas radicales' (root metaphors).
Las hipótesis cosmológicas, es decir hipótesis que se refieren a la estructura general del
cosmos y, en ese sentido solamente pueden ser corroboradas estructuralmente, tienen en
su base alguna metáfora radical que ha mostrado su idoneidad. Las que han tenido un papel
preponderante en la historia de la humanidad son, según Pepper:
1. La metáfora de la similaridad que da origen al ‘formismo’, llamado a veces realismo o
idealismo del tipo platónico. Platón, Aristóteles, los escolásticos y los realistas de los
últimos dos siglos responden a este patrón cuyo correlato gnoseológico es la teoría de la
verdad como adecuación.
2. La metáfora de la máquina, que ha dado origen al mecanicismo. Los ejemplos típicos se
refieren, obviamente a la concepción mecánica de la naturaleza del siglo XVII en
adelante, pero también puede ubicarse en esta línea, con las limitaciones contextuales
correspondientes, al atomismo de Demócrito. También pueden considerarse como
derivados del mecanicismo el empirismo de D. Hume, C. Berkeley y otros. Como se verá
luego las formas de mecanicismo son variables, pero una manifestación clásica es el
determinismo y, según Pepper, la teoría de la verdad se basa, en este caso en un
proceso inferencial y simbólico.
3. La metáfora expresada en un verbo (hacer, experimentar, etc.) representando una
sucesión, que da origen al contextualismo, a veces llamado pragmatismo, cuyos
ejemplos más destacados son las filosofías de Ch. Peirce, W. James, Bergson, J.
Dewey. La hipótesis cósmica resultante subraya el cambio y la novedad y la teoría de la
verdad que le corresponde es la teoría operacional.
4. La metáfora del organismo o, mejor dicho de la integración que da lugar al organicismo,
cuyas manifestaciones filosóficas son el idealismo absoluto u objetivo (Schelling, Hegel).
La teoría de la verdad es la de la coherencia.
Este tipo de metáforas, cuyos límites no aparecen delineados con claridad como los
otros, parece hundir sus raíces en la constitución misma del conocimiento. Black, que las
denomina 'modelos implícitos', señala que las observaciones de Pepper pueden ser
aplicadas con mayor amplitud en la medida que la extensión analógica parece típica de gran
parte de los procesos de teorización:
“En principio, el método parece ser el siguiente. La persona que quiere entender el
mundo mira en torno a él buscando algún indicio para su comprensión; se detiene en
alguna zona de hechos de sentido común y trata de ver si puede entender otras zonas
sobre la base de esta, a la que convierte así en su analogía básica o metáfora radical.
Describe lo mejor que puede las características de esta zona, o, si se prefiere, discierne
su estructura y convierte una lista de sus características estructurales en los conceptos
básicos explicativos y descriptivos (a los que llamaremos conjunto de categorías). Pasa
a estudiar a base de estas categorías todas las demás regiones fácticas, sometidas ya a
crítica o no - y trata de interpretar todos los hechos tomando como elementos estas
categorías-, y, como resultado del impacto de estos otros hechos sobre ellas, puede
perfilarlas y reajustarlas, de modo que, de ordinario, el conjunto de categorías cambia y
se desarrolla. Como normalmente -y, con bastante probabilidad, al menos en parte
también necesariamente- la analogía básica o metáfora radical procede del sentido
común, se necesita desarrollar y afinar enormemente el conjunto de categorías para que
resulten idóneas para una hipótesis de alcance ilimitado; algunas metáforas radicales
demuestran ser más fértiles que otras, tienen mayor capacidad de expansión y reajuste,
y ellas son las que sobreviven frente a las demás y engendran las teorías del mundo
relativamente idóneas" (citado en Black, 1962, [1966, p. 235])
Ideas parecidas aunque expresadas en otros términos proceden de muchos autores
que, al igual que Pepper, atribuyen a este tipo especial de modelos la condición de
verdadera condición de posibilidad del conocimiento. Puede ser comparable, en buena
medida, a la noción algo más amplia de Weltanschauung, esto es el conjunto de
determinaciones sociales, culturales, históricas que delimitan y al tiempo posibilitan el
surgimiento de nuevos conceptos, teorías, reglas de cientificidad, etc. E. H. Burtt los llama
fundamentos metafísicos (cf. Burtt, 1925); Nisbet (cf. 1976) por su parte rastrea de qué
modo la noción de 'desarrollo' que surge de la physis griega clásica, constituye un modelo o
metáfora que actúa como noción demarcadora fundamental en la historia de la cultura
occidental. Black llama ‘arquetipos’ a este repertorio sistemático de ideas básicas por medio
del cual un pensador describe, por extensión analógica, cierto dominio al que tales ideas no
sean aplicables, de momento, en forma inmediata y literalmente.
R. Hoffman (1985) proporciona una taxonomía que incluye modelos y metáforas.
Divide en primer lugar entre metáforas que considera autónomas por no estar ligadas
necesariamente a representaciones mentales o no mentales específicas. Están incluidas
dentro de este tipo las metáforas raíz-básicas o temas metafóricos, que tienen la propiedad
de estructurar u organizar campos completos y muy extensos del conocimiento sobre la
realidad, siendo casos típicos el mecanicismo o la conceptualización biológica de la
sociedad. Algunos casos como este último pueden ser simétricos, dado que también puede
considerarse el organismo en términos sociales. También considera Hoffman que algunas
hipótesis o teorías científicas pueden tener carácter metafórico, y es el caso de teorías
consolidadas en un ámbito que se extrapolan a otro en principio ajeno, por ejemplo
considerar la mente como un ordenador o a la inversa un ordenador como una mente. El
segundo grupo de metáforas, según Hoffman, es el que está ligado a representaciones y es
aquí donde más propiamente liga modelos y metáforas: imágenes que se basan en
metáforas y que pueden mediar entre la percepción la naturaleza de los fenómenos y
procesos a explicar: por ejemplo pensar la electricidad como un ‘chorro’ de electrones, el
universo como un plano curvo en la teoría de la relatividad, y una infinidad más; los modelos
a escala o modelos materiales; y los modelos matemáticos abstractos basados en
metáforas, que incluyen principalmente ecuaciones matemáticas, independientemente de
que puedan, además, graficarse.
3. RECONSIDERACION DE LA METÁFORA (EPISTÉMICA)
Antes de avanzar sobre la consideración de la metáfora en los estudios sobre la
ciencia parece necesario recapitular algunos aspectos básicos desarrollados hasta aquí:
• hablar de metáforas, y esto vale para todo tipo de metáforas, implica algo con relación al
significado. Ellas poseen un plus de significado con respecto a los originales, sea que
este plus se considere una interacción, extensión, ampliación o desviación con respecto
al significado original. En este sentido las metáforas detectan, inventan, construyen o
fantasean sobre alguna analogía entre ámbitos diferentes. Pero no se trata sólo de eso,
y dar cuenta de la naturaleza de la metáfora implica extenderse desde la semántica
hacia la pragmática del discurso, sobre todo a la hora de dar cuenta de la eficacia
metafórica. Y esto no es sólo un problema que atañe a la eficacia estética, sino también
a la eficacia cognoscitiva y epistémica.
• las metáforas dicen algo acerca del mundo, en principio todas ellas, aunque de hecho no
todas sean interesantes para la ciencia. Por lo tanto no sólo tienen una función estética,
sino que pueden en muchos casos rivalizar cognoscitivamente con construcciones
•
•
lingüísticas de otra genealogía. Esto no obsta para reconocer la belleza de muchas
metáforas científicas y que muchas metáforas de la literatura sean burdas, cursis o
triviales. En todo caso la belleza, que durante siglos pasó por ser la esencia de la
metáfora, aquí podría considerarse su carácter secundario y accesorio. Conviene
reforzar la siguiente cuestión: sostener que las metáforas dicen algo acerca del mundo
es una obviedad que no requiere más fundamentación; pero la cuestión se ha planteado
desde hace siglos sencillamente descalificando tal pretensión como un sin sentido
habida cuenta que las metáforas tenían sólo una finalidad estética. En este contexto se
ha señalado que en tanto discurso referencial, las metáforas son siempre afirmaciones
falsas. Lo que se pretende aquí es simplemente un giro consistente en analizar ciertas
afirmaciones de origen metafórico por su significado literal. Obviamente los resultados de
un planteo como este resultarán totalmente inútiles –probablemente absurdos- para la
literatura y la retórica. La atribucion de carácter cognoscitivo y epistémico a las
metáforas no sólo no invalida ni anula sus posibilidades estéticas, sino tampoco su
potencial heurístico. En todo caso se trata de asignarles unas funciones extraordinarias
cuya legitimidad deberá ser expuesta.
los modelos científicos considerados como representante de, se encuentran
cercanamente emparentados a las metáforas y en muchos respectos pueden analizarse
de modo similar. Pero, además, estos modelos pueden considerarse como metáforas
cuando pasan de un ámbito a otro.
Finalmente, he denominado a este tipo particular de metáfora como ‘metáfora
epistémica’ que he caracterizado como sigue: en el uso epistémico de las metáforas una
expresión (término, grupo de términos o sistemas de enunciados) y las prácticas con
ellos asociadas habituales y corrientes en un ámbito de discurso determinado sociohistóricamente, sustituye o viene a agregarse (modificándolo) con aspiraciones
cognoscitivo-epistémicas, a otra expresión (término, grupo de términos o sistemas de
enunciados) y las prácticas con ellos asociadas en otro ámbito de discurso determinado
socio-históricamente; este proceso se desarrolla en dos etapas, a saber: bisociación
sincrónica/literalización diacrónica. La índole misma de las metáforas epistémicas y su
uso en diferentes niveles de compromiso cognoscitivo impide una caracterización más
precisa: a veces puede tratarse de ideas de contornos y determinaciones bastante
difusas como la aplicación del evolucionismo a distintas áreas del conocimiento; otras
veces a ideas algo más precisas pero que no obstante pueden tolerar distintas
elucidaciones como por ejemplo la extensión del mecanicismo en el siglo XVII; también
puede incluir teorías consolidadas que pasan de un ámbito a otro, como el uso de la
mecánica clásica en la economía o la sociología. El carácter de metáfora le sobreviene
del traslado que se opera de un ámbito a otro.
CAPITULO 2
LA METÁFORA EN LOS ESTUDIOS SOBRE LA CIENCIA
Las vueltas de la historia
"Todas aquellas teorías filosóficas que
son expresadas sólo en términos
metafóricos, no son verdades reales,
sino meros productos de la imaginación,
vestidos (...) con unas pocas palabras huecas
llenas de lentejuelas (...) Cuando sus disfraces
extravagantes y lujuriosos entran
en la cama de la Razón, (...)
la profanan con abrazos impúdicos e ilegítimos"
Samuel Parker, Censura libre e imparcial de la filosofía platónica, 1666.
Este Capítulo tendrá una conclusión, por así decir, negativa, ya que se tratará de
dibujar un mapa del estado de la cuestión en los estudios sobre la ciencia para mostrar el
modo en que se ha generado un campo propicio para reconsiderar y revalorizar el uso de
metáforas en la ciencia pero, con el objetivo de señalar que tal revalorización resulta de una
evaluación sesgada y deficientemente parcial de la práctica científica, en tanto diluye su
especificidad en el campo amplio de otras prácticas culturales. Conviene insistir un poco en
esta cuestión: me abstendré en este trabajo de revalorizar el uso de metáforas en la ciencia
apelando a una suerte de ‘literaturalización’ de la ciencia, tal como lo hacen algunas
versiones retoricistas/irracionalistas/postmodernistas de moda. La revalorización de las
metáforas desde estas líneas se hace sin cuestionar su esencia retórica y estética y se
concluye desnaturalizando la ciencia. En este sentido hago mías las palabras de F. Jacob
en tono de advertencia:
“El siglo XVII tuvo la sabiduría de considerar la razón como una herramienta necesaria
para tratar los asuntos humanos. El Siglo de las Luces y el siglo XIX tuvieron la locura de
pensar que no sólo era necesaria, sino suficiente, para resolver todos los problemas. En
la actualidad, todavía sería una mayor demostración de locura decidir, como quieren
algunos, que con el pretexto de que la razón no es suficiente, tampoco es necesaria”
(Jacob, 1981 [1982, p. 132])
1. LOS ANTECEDENTES
La antigüedad clásica ha reflexionado sobre la metáfora ubicándola por fuera de la
filosofía y del conocimiento genuino ya que ella sería, casi exclusivamente, objeto de
indagación retórica. Platón, quizá uno de los más brutales detractores del lenguaje figurativo
(dentro del cual se ubicarían la metáfora, la analogía, la alegoría y la metonimia, entre otras
figuras), sostenía que las palabras del poeta no conducían a la verdad y, en tal sentido, eran
vanas. En su República afirma que los poetas son sólo creadores de apariencias. La
expulsión del poeta, y la consiguiente deportación de la metáfora, son las únicas respuestas
posibles ante una práctica que no provee ninguna verdad y solamente consigue promover
emociones. Esta concepción tiende a asociar la metáfora con un mero artilugio literario, en
un contexto de significación en el que ‘literario’ es un buen sinónimo para ‘engañoso’ o
‘ilusorio’ (y quizá también, para ‘peligroso’). Dado que la poesía es imitación de lo sensible,
que es copia de copia de las ideas y por tanto sólo una copia degradada, Platón traslada la
metáfora, junto con los otros instrumentos poéticos, a la periferia de la práctica filosófica. Es
curioso, no obstante, que Platón haya sido un maestro de la metáfora. Baste recordar las
alegorías de la caverna y de la línea, o los mitos de los metales y del carro alado.
Con todo, fue Aristóteles quien abordó con una nueva riqueza conceptual y cierta
sistematicidad el estudio de la metáfora, inaugurando de manera explícita, en el campo de la
reflexión sobre el lenguaje, la oposición entre lo propio y lo traspuesto -en esta última clase
se encuentran los sentidos indirectos o tropos. A diferencia de Platón, asigna a la metáfora
un papel en el conocimiento humano, destacando su carácter didáctico y alumbrador
aunque manteniendo siempre la condición fundamentalmente retórica y ornamental9.
Cicerón, en su De Oratore se ocupó del problema del origen de la metáfora
atribuyéndola a la insuficiencia de la lengua para expresar ciertas cuestiones que se fueron
incorporando por la experiencia creciente de los hombres, a las cuales había que hacer
referencia con expresiones ya conocidas. Pero, al igual que ocurrió con la vestimenta que
surge para protegerse del frío y luego adquiere en buena medida un carácter estético extra,
la metáfora se habría convertido en un objeto de adorno retórico. Cicerón define a la
metáfora como una forma abreviada de símil.
Los continuadores de Aristóteles -principalmente Teofrasto, pero también Quintiliano
y Agustín- pensaron los asuntos lingüísticos sobre la base de lo planteado por el estagirita,
priorizando el estudio de las figuras y consolidando la oposición propio – transpuesto. No
obstante, perdieron de vista el carácter cognitivo de la metáfora señalado por Aristóteles. En
términos generales, para la tradición retórica que va desde Quintiliano- quien destaca la
función sustitutiva de la metáfora- al siglo XVIII, la metáfora es algo subordinado,
ornamental, un desvío respecto de la norma. Las figuras son valoradas solamente por su
poder persuasivo, pero, en la medida en que se consideran reemplazables por enunciados
literales sin pérdida de significado, su presencia no resultaría indispensable. La figura es
comprendida como un desvío, una forma diferente de expresar un significado que podría
expresarse, sin rodeos, en lenguaje literal. Al respecto, César Du Marsais -retórico del siglo
XIX- sostiene que las figuras "revisten de ropajes más nobles esas ideas comunes". En
resumen, si bien esta visión -fundada en la creencia en un cierto fondo de pensamiento que
puede ser expresado tanto de manera directa (literal) como de manera indirecta (por medio
de una figura)- reconoce a la metáfora como creativa y orientativa, restringe su campo de
validez a la estética y la oratoria, limitándola a la pedagogía y la persuasión. No son pocos
los que piensan que la tradición post-aristotélica empobreció las ideas originales del filósofo
(cf. De Bustos, 2000)
En todo el medioevo los filósofos escolásticos consideraban de escaso valor el papel
de la metáfora para el pensamiento humano con la excepción quizá de Santo Tomás quien
afirmaba que tenía un papel cognitivo en la medida en que permitía aferrar las verdades
espirituales que no eran expresables directamente en un lenguaje literal. Con el correr de los
siglos la metáfora continuó siendo descartada por los filósofos como instrumento cognitivo.
Th. Hobbes, en verdad tan afecto al uso de metáforas brillantes, la caracterizó como un
obstáculo a la comunicación porque propiciaba el discurso ambiguo y oscuro. Para otro de
los grandes empiristas británicos, J. Locke, la metáfora es una clase de abuso verbal que
debe suprimirse del discurso propio de la expresión del conocimiento, ya que la dimensión
retórica del discurso, su virtualidad persuasiva, ha de residir no en la forma verbal, sino en
su sustancia lógica:
"(...) Admito que en discursos donde buscamos más el halago y el placer que la
información y la instrucción, semejantes adornos, que se toman de prestado de las
imágenes, no pueden pasar por faltas verdaderas. Sin embargo, si pretendemos hablar
de las cosas como son, es preciso admitir que todo el arte retórico, exceptuando el orden
y la claridad, todas las aplicaciones artificiosas y figuradas de las palabras que ha
inventado la elocuencia, no sirven sino para insinuar ideas equivocadas, mover las
pasiones y seducir así el juicio, de manera que en verdad no es sino superchería (...)"
(Locke, [1996, III,cap X]).
9
Cf. Aristóteles, Retórica, 1410b
Desde una posición opuesta al crecientemente hegemónico racionalismo moderno se
pueden rastrear antecedentes de la tesis según la cual la metáfora es central en el lenguaje.
B. Pascal pone el énfasis en la autonomía e irreductibilidad del significado metafórico.
Autonomía en cuanto que el significado de la metáfora es independiente de las acepciones
literales de sus elementos componentes, e irreductibilidad en cuanto que el significado
metafórico es intraducible mediante paráfrasis literales. De acuerdo con Pascal, el
excedente expresivo de la metáfora la convierte en el medio ideal para trasmitir lo inefable
(en su caso el mensaje divino).
Puede decirse que, en general, a lo largo de la historia ha prevalecido la tesis que
sostiene que la metáfora es un artilugio lingüístico con funciones comunicativas específicas
pero, en fin, ajena al conocimiento, y salvo contadas excepciones, la apreciación de la
metáfora continuó siendo exclusivamente retórica y un desprecio sobre su papel cognitivo
fue la opinión casi unánime. Ya entrada la modernidad y a favor de la instalación creciente
de la idea de progreso, el espíritu poético en general y la metáfora en particular pasaron a
jugar un papel distinto para algunos autores. G. Vico en su filosofía de la historia (cf. su
Scienza Nuova de 1725), distingue una fase poética del espíritu humano anterior a la
filosofía, en la cual los hombres presuponen un universo animado, donde cada cosa está
poseída de una vida corporal y afectiva, conforme a la humana. El único medio para que los
hombres del pasado ampliaran su experiencia era asimilar los objetos nuevos a los datos de
la propia experiencia del cuerpo y del alma, de modo que los hombres están inclinados, en
esta fase a nombrar los aspectos del universo visible con palabras utilizadas desde el origen
para las realidades del cuerpo (‘cabeza’ o ‘pie’ de una montaña, ‘boca’ de un río, ‘lengua’ de
mar, etc.). Cada metáfora en lo esencial sería, entonces, una personificación. En este
sentido Vico representa una ruptura con respecto a la concepción meramente ornamental
clásica de la metáfora pues considera que su fundamento radica en una comprensión
especial del mundo, en una metafísica propia de las primeras etapas de la civilización,
aunque se trata de una operación no fundada en la razón. K. Marx, tiempo después afirmará
en la misma línea que la comprensión mitológica del mundo proviene de las primeras
relaciones, de sometimiento, del hombre con las fuerzas de la naturaleza, que desaparecerá
cuando el dominio sobre las fuerzas naturales sea real. Esta línea de pensamiento despega
la idea de metáfora de la de mero ornamento y la ubica, reificando sus características en
una filosofía progresiva de la historia, ligada también al ámbito de las concepciones del
mundo pero con la condición de que sea una etapa primitiva y superada, pero esta
superación, no obstante, no invalida su papel en la categorización, taxonomización y
comprensión del mundo.
2. LA MODERNA FILOSOFÍA DE LA CIENCIA
2.1. la cuestión del lenguaje cientifico
Si se ha de abordar el problema del uso de metáforas en la ciencia, es necesario
analizar el lugar que han tenido en la filosofía de la ciencia moderna, cuyo inicio puede
ubicarse hacia fines del siglo XIX y principios del siglo XX, etapa en la que se consolidó lo
que luego dio en llamarse la Concepción Heredada de las Teorias (received view, en
adelante CH)10. A decir verdad indagar sobre el uso y status de las metáforas en la ciencia
en este contexto es algo que debe hacerse por omisión o ausencia, dado que si a lo largo de
la historia la metáfora ha sido asociada a la retórica y por tanto gozado de una desconfianza
fundacional, es en la CH, tan proclive a pensar la ciencia sólo como un sistema de
enunciados fundados en algunos de ellos con referencia empírica directa, cuando este
destierro de la metáfora se hace más obstinado y definitivo. La revalorización de las
metáforas requiere, antes bien, del abandono de los postulados epistemológicos que
consideran a la ciencia meramente como un cálculo axiomático empíricamente interpretado,
10
Se trata de una denominación acuñada por H. Putnam.
abandono que se ha ido dando paulatinamente a lo largo del siglo XX en una serie de
disputas en torno, básicamente, aunque no solamente, a la distinción u oposición entre el
‘ideal de transparencia del lenguaje’ y los distintos grados de la tesis de la ‘opacidad del
lenguaje’ (cf. Cabanchik, 2000)
2.1.1 el giro lingüístico
Hacia fines del siglo XIX y primeras décadas del XX se conforma un clima adecuado
para que la filosofía cambie de rumbo. La ciencia no sólo se había separado de la filosofía
en el sentido tradicional, sino que se había estructurado y expandido su campo de estudio a
nuevos y amplios aspectos de la realidad convirtiéndose en la forma más desarrollada y
genuina de conocimiento.
Sin embargo, también había mostrado que podía tener problemas sobre los cuales
era necesario llevar a cabo una reflexión filosófica. El abandono parcial de la Física Clásica
y el desarrollo de la Teoría de la Relatividad y la Mecánica Cuántica fueron considerados
pruebas claras de la capacidad de autocorrección de la ciencia y de que un análisis y
reflexión continuos sobre su método, estructura y criterios de validación podría ayudar a
evitar crisis tan profundas como la padecida a finales del s. XIX. Es más, esos análisis
ponían de manifiesto la estructura interna de las teorías, los procesos de su aplicación al
mundo y de su contrastación, la conexión entre las afirmaciones teóricas más abstractas y la
experiencia. Todo ello era tarea adecuada para una elucidación filosófica, para lo cual se fue
disponiendo, además, de un nuevo arsenal de profundos y extensos desarrollos de la lógica.
Era un campo propicio para la construcción de una filosofía de la ciencia precisa, empírica y
que recurriera a la lógica como método de investigación de modo semejante a lo que hace la
física con la matemática; una filosofía de la ciencia que pudiera parecerse a la ciencia, cuya
prioridad reconoce, y que no se pareciese en casi nada a la antigua Filosofía de la
Naturaleza. La filosofía de la ciencia se consolidaría con esa impronta que marcaría su
desarrollo durante varias décadas.
En buena parte de la filosofía europea se produce lo que dio en llamarse el ‘giro
lingüístico’, que, basándose en el supuesto de que el conocimiento era un reflejo fiel y
neutral de lo conocido, preconizaba el estudio del lenguaje en que se describe esa realidad
y se formula el conocimiento científico como la forma más objetiva e intersubjetiva de
conocimiento. Complementariamente, comienza a crecer con fuerza la idea que será piedra
angular de toda la tradición que, generalmente simplificando indebida y exageradamente las
cosas (cf. Suppe, 1974; Acero fernández, 1990) se denomina filosofía analítica: los
problemas filosóficos son problemas lingüísticos; problemas cuya solución exige enmendar,
volver a esculpir nuestro lenguaje o cuando menos, hacernos una idea más cabal de sus
mecanismos y de su uso. La filosofía se va convirtiendo en (o se reduce a) el análisis del
lenguaje (Frege, 1879). Tanto la filosofía del lenguaje como la filosofía de ese lenguaje
particular que es la ciencia se derivan de este estilo de pensamiento (Acero Fernández,
1990, Passmore, 1957).
Así, en buena medida la reflexión filosófica adquiere un carácter peculiar en tanto
deja de presentarse como una forma genuina de conocimiento con tesis sustanciales
propias, para convertirse en una reflexión de segundo nivel sobre las formas concretas del
conocimiento humano, utilizando como método propio el análisis lógico de los lenguajes en
que esas formas de conocimiento se formulan. De tal modo, la filosofía de la ciencia se
piensaa sí misma como una reflexión sobre la naturaleza y características del conocimiento
científico, buscando no tanto realizar una descripción adecuada del mismo cuanto
establecer las condiciones necesarias y suficientes para que un conjunto de afirmaciones
pueda ser considerado ‘ciencia’ tratando de convertirse así en guardiana de la pureza de la
ciencia y ser el árbitro último capaz de distinguir el conocimiento genuino del que no lo es.
Habitualmente se señala como antecedente fundamental de esta inusitada intimidad
entre filosofía y lenguaje, la publicación en 1879, de la obra de G. Frege Begriffsschrift,
cuyas tesis fundamentales pueden sintetizarse como sigue:
•
La finalidad de la filosofía es analizar el lenguaje para superar los obstáculos lógicos que
éste tiende.
“Si es una tarea de la filosofía quebrar el dominio de la palabra sobre la mente humana
al descubrir los engaños que sobre las relaciones de los conceptos surgen casi
inevitablemente en el uso del lenguaje, al liberar al pensamiento de aquéllos con que
plaga la naturaleza de los medios lingüísticos de expresión, entonces mi conceptografía,
más desarrollada para estos propósitos, podría ser un instrumento útil a los filósofos”
(Frege, 1879 [1972,p. 10])
•
Toda expresión (de la conceptografía) es nombre de alguna entidad. A cada expresión
significativa le corresponde un elemento de la realidad.
2.1.2. el primer Wittgenstein. El grado cero de la descripción
Con algunas diferencias grandes, la filosofía del atomismo lógico de Russell retoma
algunas de las consideraciones básicas introducidas por Frege, pero quizá el autor que más
influencia directa ha tenido sobre el empirismo lógico en particular y sobre la CH en general
ha sido L. Wittgenstein; fundamentalmente a través de su teoría figurativa del sentido11 y su
defensa contundente de la reducción del conocimiento a enunciados elementales.
Ya Russell había considerado que era razonable tratar al mundo físico como si fuera
una especie de ‘objeto lógico’. Supuso que existía una especie de correspondencia entre las
operaciones lógicas de nuestra mente, la lógica de la matemática y la multitud de cosas que
existen y se mueven en el mundo. Pero, para Wittgenstein las cosas eran algo diferentes y
pensaba que la lógica posibilitó la representación del mundo en el pensamiento,
representación en la que los pensamientos eran expresados a través del simbolismo del
lenguaje; pero las proposiciones de la lógica no representaban por ellas mismas el mundo;
la lógica revela qué situaciones son posibles pero no determina cómo se estructura el
mundo como agente causal externo, sino que era una imagen especular del mundo. Así,
según Wittgenstein, una proposición es una figura, una especie de mapa o dibujo peculiar
de una situación real, ya existente, ya hipotética. De modo tal que comprender una
proposición es conocer la situación o el estado de cosas que representa. Ser una figura de
una situación, entonces y según este punto de vista, es lo mismo que describirla o que ser
un modelo de ella.
En resumen, entonces, el supuesto que fundamenta las reglas que un enunciado
debe satisfacer para tener sentido (significado) es que existen enunciados elementales en el
sentido de que, si son verdaderos, corresponden a hechos absolutamente simples. E incluso
para los casos en que no se disponga de tales enunciados debe considerarse que aquellos
disponibles dicen lo que se diría afirmando ciertos enunciados elementales y negando otros,
es decir, sólo en cuanto dan una imagen, verdadera o falsa, de los hechos “atómicos”
primarios. Luego se volverá sobre el punto a propósito de la idea de ‘concepción enunciativa
de las teorías’.
Antes de avanzar sobre las características que fue adquiriendo la CH en buena
medida como resultado de la influencia de Wittgenstein, permítaseme una breve digresión.
L. Wittgenstein pensó, al escribir su Tractatus, en un lenguaje objetivo-literal, un lenguaje
que describiera hechos y depurado de todo elemento metafórico que respetara aquella
relación con la naturaleza que R. Rorty (1979) dio en llamar "especular". Pero, cabe
preguntarse: ¿es realmente posible una forma de expresión así?. Es decir, ¿podemos hallar
esta suerte de lenguaje minimalista que nos permita describir todas las situaciones del
mundo sin la necesidad de apelar a instancias tales como las metáforas u otras formas de
desplazamiento del lenguaje?. De acuerdo con la notable cantidad de metáforas que juega
un papel insoslayable en nuestra comunicación verbal cotidiana, resulta difícil sostener la
posibilidad de un lenguaje descriptivo neutro y exclusivamente literal que fuera capaz de
11
Según Acero Fernández (1990) esta es una expresión más adecuada que “teoría figurativa del
significado”.
expresar la realidad de una manera precisa, unívoca, en una relación de uno-a-uno. El
mismo Wittgenstein, una vez reconocido el reduccionismo de las tesis del Tractatus
relacionadas con los rasgos esenciales de la capacidad del lenguaje, ha sugerido la
importancia de este tipo de descripciones "indirectas" o no-literales de estados de cosas. En
sus Investigaciones Filosóficas reflexiona acerca de expresiones que escapan de la mera
literalidad, tales como "No sabía qué ocurría dentro de su cabeza". Con respecto a
enunciados como éste, sostiene que, en cierto modo "en el empleo real de las expresiones
damos rodeos, pasamos por callejones laterales; mientras que vemos ante nosotros la
avenida recta, pero sin que la podamos utilizar, porque está permanentemente cerrada". A
partir de esta analogía del lenguaje con la ciudad, Wittgenstein imagina a las metáforas
como "callejones laterales", al tiempo que señala para algunos casos la imposibilidad (la
"clausura permanente", si se quiere) de una forma de expresión directa, es decir, literal.
Puede derivarse de las últimas reflexiones de Wittgenstein, el reconocimiento de que
muchas de nuestras formas lingüísticas de comunicación cotidiana están formuladas de una
manera no literal y, además, que dichas maneras de expresión pueden ser tomadas como
objeto de indagación filosófica. Las impugnaciones posteriores dentro de la tradición de la
filosofía de la ciencia hacia la neutralidad de la base empírica, así como la creciente
conviccion de que los enunciados de observación sólo cobran sentido dentro de marcos
teóricos particulares van en el mismo sentido.
2.2. características generales de la ‘concepción heredada’
Las ideas básicas que derivaron en la CH son llevadas a su máxima expresión en los
años veinte por un grupo de científicos y filósofos reunidos bajo el nombre de ‘Círculo de
Viena’, que publican en 1929 un breve trabajo denominado “La concepción científica del
mundo: el Círculo de Viena” en el cual exponen las líneas directrices de un ambicioso
programa de estudios. A continuación del artículo se señala y comenta la bibliografía que
sigue esas líneas agrupándola según tres niveles de relación. En primer lugar los miembros
del Círculo de Viena: Gustav Bergmann, Rudolf Carnap, Herbert Feigl, Philipp Frank, Kurt
Gödel, Hans Hahn, Viktor Kraft, Karl Menger, Marcel Natkin, Otto Neurath, Olga HahnNeurath, Theodor Radaković, Moritz Schlick, Friedrich Waismann. Luego, aquellos “que
trabajan en el terreno de la concepción científica del mundo y que se encuentran en un
intercambio personal y científico con miembros del Círculo de Viena”: Walter Dubislav, Josef
Frank, Kurt Grelling, Hasso Härlen, E. Kaila, Heinrich Loewy, F. P. Ramsey, Hans
Reichenbach, Kurt Reidemeister, Edgar Zilsel. Finalmente, según reza el manifiesto citado,
aquellos pensadores “líderes del presente que defienden públicamente de un modo más
efectivo la concepción científica del mundo y que también ejercen la mayor influencia sobre
el Círculo de Viena: Albert Einstein, Bertrand Russell, Ludwig Wittgenstein”. Incluso en algún
sentido relevante pueden incluirse dentro de la misma línea a autores que, por lo demás,
han sido críticos de algunos postulados del Círculo tales como K. Popper, que aquí
desarrollaremos más adelante en pos de la claridad expositiva.
De hecho, como es imaginable, hay diferencias12 sustantivas entre los
planteamientos iniciales y los últimos desarrollos de la C.H., producto tanto de los debates
internos como así también de las notables diferencias entre los autores, pero, básicamente
se convirtió en un lugar común para los filósofos de la ciencia el considerar a las teorías
científicas como cálculos axiomáticos a los que se da una interpretación observacional
parcial por medio de reglas de correspondencia. Lo que la CH pretendía no era tanto
reconstruir la estructura de teorías concretas, sino, antes bien, dar una formulación canónica
que toda teoría pretendidamente científica debía satisfacer. Es cierto que esa formulación
canónica se construía a partir del estudio de teorías existentes tomadas como modelo12
Para un análisis de las reformulaciones de la CH a través del tiempo cf. Suppe (1974) o Diez y
Moulines (1997).
sobre todo la física- y que fue objeto de numerosas modificaciones con el fin de adecuarla a
las teorías ya consagradas que, en algunos aspectos, no la cumplían; pero no es menos
cierto que la pretensión última de la CH era que cualquier teoría se construyera siguiendo
esos cánones y esa era, en última instancia, la utilidad que la filosofía de la ciencia podía
tener para el conocimiento científico. Se ha sostenido, y lo repito aquí con ciertas reservas,
que esta impronta de la CH deriva en un punto de vista fuertemente prescriptivo, en
oposición a algunos desarrollos posteriores con aspiraciones más descriptivas que
atendieran a considerar la relevancia de las prácticas histórico sociológicas.
Las características más salientes de la CH13, que a su vez remarcan su imposibilidad de
tolerar la atribución de funciones cognoscitivas y epistémicas a las metáforas, han sido:
• su militancia antimetafísica
• prioridad de la observación: permitiría fundamentar una demarcación clara entre ciencia
y otros tipos de creencias y afirmaciones;
• distinción entre observación y teoría: se admite la inclusión de enunciados teóricos bajo
el supuesto de una distinción clara y tajante entre los informes de la observación y la
teoría, siendo obviamente prioritarios y fundamentales los informes de la observación y
el experimento. Entre los enunciados empíricos y los teóricos hay una relación de
deducibilidad.
• el realismo: la ciencia es un intento por descubrir un mundo real, y sus afirmaciones
verdaderas no dependen de lo que los individuos crean o supongan. Hay una única y
mejor descripción para cualquier parcela del universo. Como derivacion aparece la idea
unidad de la ciencia, lo que permite tanto una defensa de la unidad metodológica, como
así también, adoptando una tesis ontológica, la unidad, y el carácter reductivo y
acumulativo del conocimiento14;
• distinción tajante entre contextos de justificación y de descubrimiento.
2.2.1 el rechazo de la metafísica
El manifiesto “La concepción científica del mundo: el Círculo de Viena”
comienza advirtiendo sobre el crecimiento del pensamiento “metafísico y
teologizante” tanto en la vida diaria, como así también en la ciencia. Los extravíos
metafísicos se explicaban a partir de distintos orígenes como por ejemplo
psicológicos o sociológicos. Pero, según el Manifiesto del Círculo de Viena, tales
extravíos también proceden desde el punto de vista lógico: bien por una vinculación
demasiado estrecha con la forma de los lenguajes tradicionales o naturales –tan
ambiguos y difusos- , bien por una confianza exacerbada e injustificada en que el
13
Coincido en líneas generales con Ibarra y Mormann (1997), en que se trata más bien de una
interpretación heredada construida con posterioridad, dado que si bien había sustanciales puntos en
común entre sus defensores, también es cierto que había importantes diferencias. En la misma línea
se expresan Diez y Lorenzano (2002) al señalar que lo que se conoce como la filosofía de la ciencia
del periodo clásico no es más que una reducción artificial operada por los textos introductorios y
que,en verdad, las nuevas filosofías de la ciencia a partir de los años ’50 y ’60 más que una auténtica
revolución constituyen una profundización o recuperación de aspectos y problemas previamente
tratados. La heterogeneidad no sólo está dada por las diferencias entre los autores y a través de los
desarrollos en el tiempo de sus pensamientos, sino también porque la expresión CH a veces se
refiere a la filosofía clásica de la ciencia en general y otras, más restringidamente, al concepto clásico
de teoría, hegemónico durante el periodo clásico. Como quiera que sea en la medida en que esta
interpretación se constituye en interlocutor de los nuevos estudios sobre la ciencia debe
reconocérsele entidad aunque se traicione en alguna medida difícil de evaluar la tarea exegética
exhaustiva y rigurosa.
14
Debe notarse que no todos aceptaban esta distinción entre conceptos observacionales y conceptos
teóricos y divergían en el papel que estos últimos tenían en la ciencia “según mantuvieran posiciones
realistas, operacionalistas o nominalistas” (Diez y Lorenzano, 2002, p. 17)
pensar por sí solo pudiera llevar al conocimiento sin la utilización de algún
material de la experiencia. Pero, sostienen la investigación lógica lleva al resultado
de que toda inferencia no consiste en ninguna otra cosa que el paso unas oraciones
a otras, que no contienen nada que no haya estado ya en aquéllas. No es por lo tanto
posible desarrollar una metafísica a partir del pensar puro. El rechazo de la
metafísica es amplio:
“De esta manera a través del análisis lógico se supera no sólo a la metafísica en el
sentido propio, clásico del término, en especial a la metafísica escolástica y la de los
sistemas del idealismo alemán, sino también a la metafísica escondida del apriorismo
kantiano y moderno. La concepción científica del mundo no reconoce ningún
conocimiento incondicionalmente válido derivado de la razón pura ni ningún “juicio
sintético a priori” como los que se encuentran en la base de la epistemología kantiana y
aún más de toda ontología y metafísica pre y post-kantiana. Los juicios de la aritmética,
de la geometría, y ciertos principios de la física, que Kant tomó como ejemplos de
conocimiento a priori, se discutirán luego. Precisamente en el rechazo de la posibilidad
de conocimiento sintético a priori consiste la tesis básica del empirismo moderno. La
concepción científica del mundo sólo reconoce oraciones de la experiencia sobre objetos
de todo tipo, y oraciones analíticas de la lógica y de la matemática.
Los partidarios de la concepción científica del mundo están de acuerdo en el rechazo de
la metafísica manifiesta o de aquella escondida del apriorismo. Pero más allá de esto, el
Círculo de Viena sostiene la concepción de que todos los enunciados del realismo
(crítico) y del idealismo sobre la realidad o irrealidad del mundo exterior y de las mentes
ajenas, son de carácter metafísico, pues ellos están sujetos a las mismas objeciones que
los enunciados de la antigua metafísica: no tienen sentido porque no son verificables, no
se atienen a las cosas. Algo es "real" en la medida en que se incorpora a la estructura
total de la experiencia. (Carnap et al , 1929 [2002, p. 107])
2.2.2. la demarcación
Si la ciencia es el único conocimiento genuino, la Filosofía de la Ciencia debía elaborar
criterios de demarcación que permitieran delimitar este ámbito no ya privilegiado
epistémicamente, sino único. Y esto es así, porque en el caso de la CH, tal criterio no
separa meramente la ciencia de lo que no es ciencia, sino lo que se considera conocimiento
válido de las afirmaciones sin sentido. Para ello la C.H. utiliza un criterio basado en el
supuesto empirista de que la experiencia es la única fuente y garantía de conocimiento.
“Si alguien afirma “no hay un Dios”, “el fundamento primario del mundo es lo
inconsciente”, “hay una entelequia como principio rector en el organismo vivo”, no le
decimos “lo que Ud. dice es falso”, sino que le preguntamos: “¿qué quieres decir con tus
enunciados?”. Y entonces se muestra que hay una demarcación precisa entre dos tipos
de enunciados. A uno de estos tipos pertenecen los enunciados que son hechos por las
ciencias empíricas, su sentido se
determina mediante el análisis lógico, más
precisamente: mediante una reducción a los enunciados más simples sobre lo dado
empíricamente. Los otros enunciados, a los cuales pertenecen aquellos mencionados
anteriormente, se revelan a sí mismos como completamente vacíos de significado si uno
los toma de la manera como los piensa el metafísico. Por supuesto que se puede a
menudo reinterpretarlos como enunciados empíricos, pero en ese caso ellos pierden el
contenido emotivo que es generalmente esencial para el metafísico. El metafísico y el
teólogo creen, incomprendiéndose a sí mismos, afirmar algo con sus oraciones,
representar un estado de cosas. Sin embargo, el análisis muestra que estos enunciados
no dicen nada sino que sólo son expresión de cierto sentimiento sobre la vida. La
expresión de tal sentimiento seguramente puede ser una tarea importante en la vida.
Pero el medio adecuado de expresión para ello es el arte, por ejemplo, lírica o la música.
Si en lugar de ello se escoge la apariencia lingüística de una teoría, se corre un peligro:
se simula un contenido teórico donde no radica ninguno. Si un metafísico o un teólogo
desea retener el ropaje habitual del lenguaje, entonces él mismo debe darse cuenta y
reconocer claramente que no proporciona ninguna representación, sino una expresión,
no proporciona teoría ni comunica un conocimiento sino poesía o mito. Si un místico
afirma tener experiencias que están sobre o más allá de todos los conceptos, esto no se
lo puede discutir. Pero él no puede hablar sobre ello; pues hablar significa capturar en
conceptos, reducir a componentes de hechos científicamente clasificables”. (Carnap et
al, 1929 [2002, p. 110])
De este modo un conocimiento es genuino si es decidible empíricamente. La
combinación de este supuesto con la concepción ‘lingüística’, da lugar al principio
verificacionista de significado, que se puede enunciar como sigue: “el significado de una
proposición es el método de su verificación”. Según este principio, un tanto estrecho,
aquellas proposiciones que no puedan verificarse empíricamente, carecen de significado en
sentido estricto y sólo tienen un sentido emotivo: expresan estados de ánimo. Una de las
consecuencias más importantes de ese principio es que, por lo menos en principio, expulsa
de un plumazo, del ámbito de las afirmaciones con pretensiones de sentido a la metafísica y
a toda la filosofía especulativa en general (cf. Ayer, 1959; Schlick, 1959; Stevenson, 1959
Waismann, 1959). Todo discurso cognitivamente significativo acerca del mundo debía ser
empíricamente verificable y el problema de la verificación de las aserciones se reduce a la
cuestión de cómo deben ser verificadas las aserciones del lenguaje observacional y del
lenguaje protocolario. Las proposiciones significativas, entonces, se restringían tan sólo a
dos tipos: las proposiciones formales como las de la lógica o la matemática puras, que son
tautológicas; y las proposiciones fácticas referidas al mundo empírico y con posibilidad cierta
de verificación. Debe consignarse que lo que perdura durante décadas como parte de la
agenda epsitemológica es la necesidad de establecer una demarcación, aunque el criterio
verificacionista fue rápidamente abandonado dentro de la misma tradición del empirismo
lógico (cf. Ayer, 1959), como así también por otros autores como K. Popper (ver más abajo)
por ejemplo.
2.2.3 concepción enunciativa de las teorías y distinción teórico/observacional.
Las teorías científicas (para ciencias empíricas), son consideradas por la CH como
cálculos axiomáticos empíricamente interpretados. La idea básica es desarrollada en la
década del ’20 y ’30 del siglo XX por Reichenbach, Ramsey, Brigman, Campbell y Carnap y
paulatinamente reelaborada en las décadas siguientes por Hempel, Carnap y Nagel. Las
teorías científicas estarían constituidas, entonces, por conjuntos de enunciados,
independientes unos de otros, aunque manteniendo entre sí relaciones de deducibilidad. Por
otra parte, el número de enunciados que integra una teoría es, a todos los efectos,
potencialmente infinito, lo cual obliga a reconstruirla como un sistema de enunciados
axiomatizado deductivamente con la ayuda de métodos metamatemáticos, de tal manera
que resulte una estructura ordenada y manejable.
El arsenal lingüístico de las teorías entonces estará constituido básicamente,
entonces, tres clases de términos, a saber:
• lógico matemáticos: se trata del vocabulario instrumental formal
• observacionales: vocabulario observacional que se refiere a entidades, propiedades y
relaciones directamente observables
• teóricos: vocabulario que refiere a entidades propiedades y relaciones no directamente
observable postuladas para dar cuenta de los fenómenos
La articulación de los términos en la teoría permite al nivel de los enunciados otra
distinción importante:
• enunciados teóricos: contienen como vocabulario descriptivo (es decir no formal) cuando
menos un término teórico.
• enunciados observacionales: contienen como vocabulario descriptivo únicamente
términos observacionales. Es importante en este caso la distinción entre aquellos que se
refieren a entidades o procesos singulares, es decir los observacionales en sentido
estricto y los que se refieren a la generalidad de los casos, es decir los que suelen
denominarse leyes empíricas.
• reglas de correspondencia: contienen tanto términos teóricos como observacionales.
Son los enunciados que conectan los términos teóricos con la experiencia observable
cargando así de interpretación empírica los axiomas puramente teóricos.
El lenguaje observacional (Lo) tiene que ser neutral, dado con independencia del
lenguaje teórico (Lt) y único, porque así es la experiencia y porque sólo así se garantiza la
verificabilidad genuina de las teorías. Además tiene que ser accesible, preciso, con una
estructura lógica simple, extensional, etc., pues se conecta directamente con la realidad
observable. Luego de algunas disputas internas (cf. Neurath, Russel y Carnap en Ayer,
1959) triunfó por sobre la tesis fenomenalista, la tesis fisicalista propuesta por Carnap,
según la cual el lenguaje de observación o protocolar debería ser un lenguaje- objeto en el
que se hablara de cosas materiales a las cuales se les adscribiera propiedades observables.
Como las propiedades adscritas a las cosas son propiedades observables quedaba
garantizada la intersubjetividad
A su vez, Lt es relativo a cada teoría en el sentido de que puede diferir radicalmente
de una a otra y su estructura lógica puede ser muy compleja. Pero las controversias
fundamentales radican en cuál es el nivel de compromiso ontológico (si lo hay) que conlleva
la aceptación de términos que refieren a un ámbito ajeno a la posibilidad de observación.
Mares de tinta se han derramado acerca de esta cuestión, con distintos grados de sutileza
en los análisis, (cf. Hempel, 1959 y 1966, Suppe, 1959), pero básicamente hay dos
posiciones que, más allá de las diferencias, mantienen el compromiso básico con el
empirismo, pues el lenguaje observacional se considera indiscutible y libre de problemas y la
existencia de lo observado está fuera de toda duda. Por un lado la posición realista, que
sostiene que los términos teóricos se refieren a entidades y propiedades inobservables, pero
de existencia física. El carácter de inobservable está definido por la imposibilidad técnica (en
muchos casos transitoria) o sensorial de la especie humana. En este caso lo observable es
sólo una parte de la realidad, precisamente el conjunto de efectos y consecuencias de lo
inobservable. Las leyes teóricas pretenden describir esos procesos inobservables y por eso
son susceptibles de verdad o falsedad por su correspondencia con la realidad. Por otro lado,
la posición instrumentalista, según la cual los términos teóricos son concebidos como
abreviaturas de combinaciones complejas de términos observacionales o como
convenciones que facilitan el manejo del lenguaje observacional. Desde este punto de vista
no hay más realidad que la observable o, cuando menos, es la única relevante. Las leyes
teóricas son instrumentos útiles para la predicción de fenómenos y para organizar la
experiencia conectando unos sucesos con otros, pero no son ni verdaderas ni falsas en un
sentido estricto. Son, en todo caso artificios de cálculo con relación a los enunciados
observacionales. Se considera que las teorías pueden usarse para relacionar o sistematizar
enunciados observacionales y para derivar conjuntos de enunciados de observación
(predicciones) a partir de otros conjuntos (datos); pero se pretende no hacer mención ni
cuestión alguna con relación a la verdad o referencia de esas teorías. Sea como fuere, tanto
para los realistas como para los instrumentalistas, los dos tipos de lenguajes (Lo y Lt) con
sus correspondientes vocabularios, permanecen escindidos tajantemente. Por ello se hace
necesario establecer un puente que permita el pasaje deductivo, es decir conservando la
verdad, de los enunciados teóricos a los observacionales. Esa función se realiza según las
‘reglas de correspondencia’, enunciados especiales que permiten interpretar la teoría en
términos de observación. La naturaleza y el status de estas reglas fueron objeto de
numerosas discusiones y modificaciones que llevaron a una creciente liberalización en la
forma de entenderlas. Así, fueron consideradas, sucesivamente, definiciones, reglas de
traducción, enunciados de reducción parcial, diccionarios y sistemas interpretativos.
Igualmente pasaron de ser ‘externas’ a la teoría a estar integradas entre los postulados, y de
analíticas a sintéticas (cf. Suppe, 1959). En cualquier caso, la interpretación resultante es
lingüística, pues está constituida por el conjunto de enunciados observacionales que son
consecuencia de la teoría, y es única en el sentido de que actúa como la ‘gran aplicación’ de
la teoría a toda la experiencia. De modo tal que el conjunto de enunciados observacionales
obtenido describiría cómo sería toda la experiencia si la teoría fuese verdadera.
Desde un punto de vista lógico la teoría podrá ser considerada completamente
verificada si todas sus consecuencias observacionales se corresponden con la experiencia.
Esto implica que no es posible llevar a cabo la verificación completa de una teoría, ya que
sus consecuencias observacionales son, a todos los efectos, infinitas (lo que se sigue de la
propia estructura lógica de las leyes, que pretenden valer para todo lugar y tiempo), lo cual
obliga a la utilización de una inferencia inductiva, pues de la verdad de casos particulares se
infiere la de la teoría. Por ello se habla más bien de grado de confirmación, que se
determina mediante la probabilidad15 inductiva y es progresivamente creciente a medida que
aumenta el número de verificaciones. De la misma manera es posible decidir entre teorías
alternativas mediante experimentos cruciales, que confirmaran una de ellas,
desconfirmando, al mismo tiempo, la otra. Esto es posible porque las teorías son
conmensurables en un doble sentido:
1. Como el lenguaje observacional es neutral y compartido por las distintas teorías, es
posible compararlas, al menos a este nivel. Ciertamente algunas tendrán una base
empírica más amplia que otras, pero basta que tengan alguna parte común para que la
comparación sea posible. Incluso si sus bases empíricas son completamente diferentes,
siempre será posible establecer conexiones entre ellas al observar que se refieren a
aspectos distintos de la misma experiencia.
2. Para la C.H. las unidades mínimas de significado son los términos y, en un segundo
nivel, los enunciados aislados. De este modo el significado de un término será
independiente de la teoría en que aparece. Aunque en teorías sucesivas ese significado
pueda ser precisado y afinado o se introduzcan términos nuevos que sustituyan a otros
antiguos total o parcialmente, puede decirse que el significado de los términos se
conserva esencialmente, y en los casos de sustitución es posible identificar los términos
implicados (esta es la tesis de la invariancia de significado). Esto es lo que hace posible
la comparación de diferentes teorías científicas en el nivel del lenguaje teórico.
2.2.4. la distinción entre contextos.
En su Der logische Aufbau der Welt, Carnap (1928) presentaba un sistema y un
método para la construcción cognitiva y ontológica del mundo. Consideraba tal sistema
como una reconstrucción racional de los procesos de conocimiento y ‘conformación de la
realidad’ que en la mayoría de los casos se llevan a cabo intuitivamente y entendía la
reconstrucción en sentido fuerte y siguiendo ‘la forma racional de derivaciones lógicas’. El
problema fundamental de la filosofía (que en este contexto quedaba reducida a cumplir un
papel de auxiliar de las ciencias) consistiría en lograr esta reconstrucción racional con los
conceptos de todos los campos científicos del conocimiento. Este modo de concebir a la
filosofía implica otro recorte de suma importancia en el campo de estudio.
Algunos años después otro conspicuo representante de la CH, Reichenbach, en el
primer capítulo de Experience and prediction (Reichenbach, 1938) estableció dos
distinciones que cobraron fama y aceptación rápidamente. La primera era la diferencia entre
las relaciones internas y externas del conocimiento. Llamaba internas a las que se dan entre
las afirmaciones de la teoría en su reconstrucción racional y entre éstas y la evidencia
empírica; externas a las que van más allá de estos factores lógicos y empíricos y se
relacionan con elementos relativos a los comportamientos de la comunidad científica. La
ciencia estrictamente hablando, para estos pensadores, estaba constituida por los
contenidos y relaciones internas, ya que la conciben sólo como producto, desentendiéndose
15
Carnap (1966), realiza un análisis minucioso de la probabilidad, distinguiendo entre probabilidad
lógica o inductiva y probabilidad estadística. Atribuir a la ciencia carácter probabilístico ha sido
objetado por muchos autores, entre ellos Popper (cf. 1935, 1963, 1970), señalando acertadamente
que desde el punto de vista de la probabilidad matemática, las teorías científicas tienen probabilidad
cero.
de los problemas de la producción del saber. La otra distinción establecida por Reichenbach,
complementaria de algún modo de la primera es la que se establece entre el contexto de
justificación y el contexto de descubrimiento. Al primero corresponden los aspectos lógicos y
empíricos de las teorías, mientras que al segundo quedan reservados los aspectos históricos,
sociales y subjetivos que rodean a la actividad de los científicos. No interesa, para la
justificación de las teorías, los avatares que provocaron su generación y, en todo caso, el
abordaje de los mismos será tarea de la sociología, la historia o la psicología. La enorme
influencia de estos planteos provenientes de la filosofía de la ciencia generaron no sólo una
distinción conceptual, sino también una clara demarcación disciplinar. Así, esta verdadera
‘división del trabajo’, era asumida también por la sociología de la ciencia, que prestaba
atención a los aspectos institucionales de la ciencia, desde las condiciones externas que
favorecen su constitución y desarrollo como institución hasta su legitimación y la evaluación
social de los descubrimientos científicos, pero sin pretender ninguna injerencia relevante en
su contenido cognitivo. Un claro ejemplo es la sociología mertoniana, especialmente
interesada en las normas y organización de la ciencia en tanto institución social, sus
relaciones con otras instituciones y su integración o desintegración en la estructura social. R.
Merton (1973) sostiene que el contenido de la ciencia, su justificación y validación, su
desarrollo y cambios específicos, quedan fuera del campo de la sociología y obedecen a lo
que llama ‘normas técnicas’. Los contenidos de la ciencia dependen sólo de su función -el
aumento del conocimiento- y de sus métodos técnicos. En suma, los “imperativos
institucionales derivan del objetivo y los métodos”, pero no al revés.
En una línea de pensamiento diferente y que de algún modo puede considerarse
antecedente de la sociología del conocimiento científico y de algunas corrientes de la
sociología de la ciencia actual (cf. Prego, 1992; Lamo de Espinosa et al, 1994), está la
sociología del conocimiento de K. Mannheim, que asumía para el ámbito de las ciencias
sociales, la influencia determinante de los factores sociológicos e ideológicos sobre los
contenidos cognitivos y su justificación, hasta el punto que la comprensión de éstos exige la
explicitación y comprensión de aquéllos. Sin embargo, Mannheim consideraba que estos
factores ‘externos’ no jugaban un papel determinante en las ciencias naturales. Faltaban aún
varias décadas para que la sociología comenzara a reclamar la palabra sobre los contenidos
cognitivos de la ciencia en general. La evaluación de los contenidos cognitivos de la ciencia
aún era de pura incumbencia de la filosofía.
Quizá, simplificando un tanto las cosas, la historia de la reflexión epistemológica en
el siglo XX pueda leerse como un desbaratamiento paulatino y progresivo de la distinción
tajante y excluyente entre contextos. Pero, sobre esta cuestión quisiera dejar sentado algún
criterio. La epistemología tradicional no sólo sostiene que es posible pensar una ciencia
descontextuada y a expensas de los agentes que la producen sino que sencillamente resta
entidad a la pregunta misma. Por ello cabe preguntarse cuál es el sentido, desde el punto de
vista de la filosofía, de indagar acerca del sujeto que produce ciencia. De hecho deben ser
posibles otras respuestas para rescatar y dar entidad a tal pregunta. La historia de los
estudios sobre la ciencia y de la epistemología en particular de los últimos treinta o cuarenta
años podrían considerarse, justamente, una serie de intentos por otorgar pertinencia y
legitimidad a esta pregunta. El criterio de pertinencia, creo, se ubica en la misma línea que la
epistemología tradicional, aunque de hecho con una valoración y respuestas diferentes: la
pregunta por el sujeto que hace ciencia sólo cobra sentido filosófico en la medida en que la
respuesta que se le dé a la misma, resulte relevante epistémicamente. De hecho, la filosofía
de la ciencia tradicional ha considerado la injerencia del sujeto como una interferencia en la
producción del conocimiento; interferencia que, en el mejor de los casos podía y debía ser
eliminada mediante diversos tipos de procedimientos metodológicos. De esta manera los
comportamientos de esos sujetos, sean considerados individual o colectivamente, podían
explicar tan solo los errores de la ciencia o el marco histórico general que acompañó su
surgimiento. Por ello la revalorización del sujeto que produce ciencia, el análisis del contexto
de descubrimiento en suma, tiene sentido en la medida en que pueda descubrirse que las
prácticas en las cuales se produce el conocimiento científico resulten relevantes en cuanto
al contenido y legitimación de ese producto. El punto resulta crucial a la hora de evaluar
muchas de las reflexiones sobre la ciencia de las últimas décadas, como por ejemplo la
retórica de la ciencia y algunos desarrollos de la antropología de la ciencia, que rescatan
aspectos de las prácticas efectivas de los científicos pero no hacen mella sobre la distinción
establecida por la CH porque no se vislumbra cómo esas prácticas puedan determinar los
aspectos específicamente cognitivos.
Como quiera que sea, resulta claro que si el objetivo es desdeñar la relevancia del
contexto, una distinción como la discutida aquí resulta suficiente. Sin embargo, plantear la
necesidad de discutir la vigencia de la dicotomía y rescatar la injerencia del contexto de
descubrimiento en la justificación requiere de análisis mucho más finos, ya que queda claro
que la mera y simple afirmación de la influencia del medio en la producción científica resulta
trivial. F. Schuster (1999), en este sentido, realiza una distinción más sutil del contexto de
descubrimiento en:
• contextualización situacional: abarca la descripción de los sucesos y factores históricos,
sociales y políticos, y aun los individuales e institucionales que tuvieron lugar en el
tiempo y lugar de surgimiento de una teoría científica. Este marco más general y
abarcativo puede influir en la investigación científica de diversos modos aunque
constituye más un marco de referencia global.
• contextualización relevante:
“(...) se refiere a la incorporación de factores contextuales en las teorías producidas y de
modo tal que constituyan aportes al conocimiento y no elementos contaminantes a ser
eliminados (...) constituirá a nuestro entender, el lugar de discusión idóneo que nos
permita plantear, en primer término, bajo qué condiciones puede darse la conexión entre
producción y validación del conocimiento científico, mediante la incorporación de factores
cognitivos (provenientes del campo social, histórico, económico, etc.) al contenido mismo
de las teorías (o se vinculen con consecuencias metodológicas) y, en segundo término,
establecer el carácter propio de esa pertenencia, cubriendo así el hiato entre producción
y validación (...).” (Schuster, 1999, p. 27).
•
contextualización determinante: está relacionada con el concepto de causa y con
distintas posiciones deterministas. Remite a las discusiones sobre determinismo y
libertad y a la necesidad de establecer qué ha de considerarse condición suficiente para
una nueva teoría científica.
3. LAS CRITICAS A LA C.H.
Los autores incluidos en la CH han tenido el mérito de desarrollar un esfuerzo inédito
y monumental por entender y analizar la ciencia moderna, atravesada en las últimas
décadas del siglo XIX y primeras del XX por una serie de desarrollos inusitados a la vez que
inesperados y sorprendentes. Por otro lado ha marcado el nacimiento de la filosofía de la
ciencia como disciplina autónoma con inserción académica, una comunidad propia y con un
conjunto de problemas, métodos y técnicas de resolución peculiares. Todo ello, más el
hecho de haberse constituido en un punto de vista casi hegemónico durante décadas le
otorgan una importancia fundamental y la convierte en marco de referencia obligado. Pero,
al mismo tiempo, en esos logros y en su carácter ambicioso, probablemente se halle el
germen de los problemas que conducirán a su crisis. Sin embargo, y como se ha señalado
oportunamente, no es una línea homogénea, y no es raro encontrar que muchas de las tesis
retomadas después como críticas a la CH ya se encontraban desarrolladas o esbozadas por
los autores clásicos.
Un tipo de dificultades surge de lo que puede denominarse el ensimismamiento de la
C.H. (Sánchez Navarro, 1992). Una de las pretensiones básicas iniciales acerca de la
eliminación de la metafísica a la par de la adopción de una posición justificacionista, no se
condecían con el respeto de supuestos como la intersubjetividad, la objetividad o la
racionalidad, los cuales eran considerados como ‘dados’ sin necesidad de justificación. A su
vez, su autolimitación al análisis de las teorías científicas como producto, rechazando la
relevancia del contexto de descubrimiento es decir del proceso, fue paulatinamente
mostrándose insuficiente habida cuenta de la creciente evidencia acerca de que los criterios
de aceptación o abandono de las teorías eran establecidos internamente por las propias
comunidades científicas. De ese modo la CH se alejaba cada vez más de la práctica real de
los científicos y de los problemas planteados de hecho en su actividad y se concentraba
paulatinamente en el estudio y resolución de los problemas lógicos, muchos de los cuales
ella misma generaba. Se agrega a esto que muchas de las teorías científicas vigentes no
satisfacían los criterios canónicos que la CH requería para su aceptación. Así, con el correr
del tiempo una serie de discusiones fueron socavando las tesis iniciales.
La tendencia general de las nuevas líneas de trabajo se apoya en la necesidad de
abordar también estudios diacrónicos de las teorías cientificas pero esto implica una nueva
forma de considerar sincrónicamente a las teorías:
• las teorías cientificas no son sólo sistemas de enunciados, sino conjuntos mucho más
complejos con componentes formales y componentes empíricos que evolucionan en el
tiempo y se encuentran asociadas a sistemas de valores fuertemente dependientes del
contexto; lo cual conlleva un fuerte cuestionamiento a la distinción entre contextos de
descubrimiento y de justificación. Las prácticas concretas de la comunidad científica
adquieren relevancia epistémica
• se impugna la distinción teórico / observacional en términos absolutos; ya será muy difícil
defender la neutralidad y unicidad de la observación, y se reconoce la prioridad de la
teoría (también bajo otras denominaciones algo más difusas como 'marco teórico',
'paradigma', e incluso 'concepción del mundo', etc.) por sobre la observación
• reconocimiento de la infradeterminación de la teoría por los datos y de la indeterminación
de la traducción, es decir cuando menos una inconmensurabilidad localizada entre
conceptos pertenecientes a distintas teorías
•
•
•
•
Múltiples son las contribuciones a este cambio general de óptica.
Los trabajos de Popper sobre la inviabilidad del punto de vista empirista sobre la base de
la carga teórica. Aunque Popper siguió defendiendo la objetividad de la ciencia, la noción
de verdad como correspondencia y la existencia de experiencias cruciales, abrió,
involuntariamente quizá, el camino para serios cuestionamientos a la decidibilidad
empírica. Las críticas de I. Lakatos a la ‘racionalidad instantánea’ y a los experimentos
cruciales serían un buen ejemplo de esta derivación sobre todo si se acepta, a despecho
de Popper, la consideración que I. Lakatos hace de sí mismo como un popperiano
consecuente. (cf. Lakatos, 1968; 1970)
La concepción holista de la metodología de la contrastación (tesis Duhem-Quine) según
la cual los enunciados científicos no se enfrentan a los tests empíricos en forma
individual sino como un cuerpo colegiado.
Los análisis de Quine sobre la indeterminación de la traducción y, sobre todo, la
infradeterminación de la teoría por los datos, debilitaron la creencia en la
intersubjetividad y la objetividad, además de mostrar la dificultad que la sola evidencia
empírica comporta para la fundamentación de la ciencia. Otro elemento fundamental
también aportado por Quine lo constituye su propuesta de ‘naturalizar’ la epistemología
en oposición a la epistemología prescriptivista o normativista tradicional.
El fuerte poder crítico de los reclamos contextualistas de autores como S. Toulmin (1961,
1970), N. R. Hanson (1958) tendientes a objetar la neutralidad de la experiencia en el
supuesto de la dependencia teórica de la observación y que opusieron serios
cuestionamientos a las condiciones de intersubjetividad (en el sentido de la CH), la
decidibilidad empírica y la objetividad del conocimiento científico. En esta misma línea se
destacan por su repercusión los trabajos de P. Feyerabend (1970, 1975) y, sobre todo
los de Th. Kuhn (1962).
3.1 la racionalidad de la metodología científica: K. Popper
Haciendo honor a la verdad, hay que señalar que las agrupaciones de los autores
como ‘positivistas’, ‘neopositivistas’ o defensores de la CH no resulta nunca unívoca sino
que todas esas clasificaciones delimitan zonas grises que se amplían o estrechan
dependiendo de la exhaustividad del análisis o las connotaciones consideradas. En este
sentido, Popper, tiene no pocas coincidencias con el empirismo lógico y la CH, aunque su
relación con esas líneas de pensamiento haya sido siempre y principalmente polémica (cf.
Muguerza, 1975; Suppe, 1974).
Popper publica el núcleo central de su teoría en 1934, es decir, pocos años antes de
la disolución del Círculo de Viena y la misma conlleva una diferencia importante con la CH: a
Popper no le interesa el análisis lógico del lenguaje, ni mucho menos la construcción de un
lenguaje especial para la ciencia, sino la elaboración de una teoría de la racionalidad y una
epistemología objetivas en el convencimiento de que la ciencia es la forma más genuina de
conocimiento, aunque no la única. La clave de su punto de vista es que cualquier
conocimiento es (y debe ser) cuestionable y sólo puede considerarse completamente cierto
lo que está mas allá de toda duda. De aquí se sigue que la crítica racional es fundamental,
estableciéndose una asimetría entre la verdad y la falsedad. En efecto, mientras que nunca
puede establecerse cognitivamente la verdad de un enunciado científico o de un supuesto
conocimiento, sino sólo su aceptabilidad provisional o su credibilidad en virtud de que haya
pasado con éxito pruebas duras y numerosas, pero admitiendo siempre la posibilidad de que
fracase ante alguna nueva, es posible, sin embargo, determinar su falsedad en forma
concluyente. Este proceder es denominado por Popper ‘racionalismo crítico’.
Lo que pretende es determinar las características lógico-racionales de la ciencia
como conocimiento objetivo. Por eso la justificación no se refiere tanto a las teorías como
productos finales o a su estructura, sino más bien al comportamiento racional y al método
científico de construcción, evaluación y cambio de teorías. Lo que hay que explicar según
Popper es el desarrollo y progreso de la ciencia y no tanto la estructura de las teorías. Se
trata entonces de una lógica de la investigación científica. Por la misma razón no necesita
tanto postular un observador ideal, cuanto un científico ideal. Este interés en la
reconstrucción racional de la actividad científica, no sólo de sus productos, amplía su
concepción respecto a la de la C.H., pero manteniendo la separación entre contextos de
descubrimiento y justificación. Popper busca, como la C.H., una formulación canónica, pero
no de las teorías sino del método científico-racional
El conocimiento científico se caracteriza por ser empíricamente contrastable, es
decir, por estar sometido a la crítica de la experiencia, la más dura y objetiva de todas. Tal
como Popper entiende el racionalismo crítico, esa contrastabilidad consiste esencialmente
en la falsabilidad. La razón es que, dada la estructura lógica de las leyes (y de los
enunciados estrictamente universales en general), éstas son mucho más informativas por lo
que prohíben que por lo que afirman. Mientras no es posible comprobar si ocurre todo lo que
afirman, es fácil saber si tiene lugar algo de lo que prohíben. Lo contrario ocurre con los
enunciados estrictamente existenciales. Tal asimetría entre verificación y falsación permite
que una sola refutación haga falsa una teoría mientras ningún número de corroboraciones la
hace verdadera. Una característica básica del conocimiento científico es entonces su
provisionalidad.
La falsabilidad se convierte en el criterio de demarcación entre ciencia y no-ciencia (o
pseudociencia); pero no se trata de un criterio semántico o de sentido como el propuesto por
el Círculo de Viena, sino de un criterio de tipo metodológico. Al mismo tiempo no se
establece una demarcación tajante entre ciencia y ruidos sin sentido, sino de grado, que
simplemente permite diferenciar el conocimiento científico, es decir, el que puede en
principio ser falsado por la experiencia, del resto.
Las teorías se contrastan comparando sus consecuencias con la experiencia. Si se
produce una contradicción y la teoría no pasa la prueba, entonces resulta falsada y debe ser
abandonada. Pero no basta un caso aislado para que se produzca la falsación, es menester
que sea repetible y repetido. Eso equivale a pedir que el caso falsador se subsuma en una
hipótesis, llamada hipótesis falsadora. Así, la falsación se entiende también como el choque
entre una teoría desarrollada y una hipótesis elemental, que es el germen de una nueva
teoría. A su vez, si la teoría pasa la prueba con éxito resulta corroborada. Esta corroboración
es mayor o menor en virtud de la dureza de la contrastación, del riesgo que comporte, etc.
Por eso difiere de la verificación, pues la corroboración depende en gran medida de la
falsabilidad: una corroboración es más valiosa e importante cuanto más improbable sea, es
decir, cuanto más falsable sea la teoría. Esta falsabilidad puede medirse a partir de ciertas
características estructurales de la teoría, como el grado de universalidad, la precisión y
sencillez, la improbabilidad a la luz del conocimiento disponible, etc. Así se fija el grado de
falsabilidad. A partir de él, y tomando en cuenta el número, calidad, probabilidad, etc. de las
corroboraciones, se determina el grado de corroboración de la teoría en un momento dado.
La combinación de ambos, grado de falsabilidad y grado de corroboración, determina
la verosimilitud de una teoría, que permite jerarquizar y decidir entre teorías desde el punto
de vista de su aceptabilidad. Esto supone que la contrastación y evaluación de las teorías se
hace globalmente (aunque a través de los enunciados que se siguen de ellas). Supone,
también, que verosimilitud y verdad son cosas distintas. Para Popper la verdad objetiva
existe, pero actúa como un ideal regulador, no como algo cognitivamente determinable. Esto
se debe al falibilismo básico que incorpora el racionalismo crítico. Podemos saber que
nuestras teorías son menos falsas que sus predecesoras (porque aun no han sido falsadas),
o que son más verosímiles, pero nunca podremos establecer su verdad objetiva.
La unidad mínima de significado es, para Popper, la proposición, no los términos o
los conceptos. Eso incide en la consideración de la distinción teórico/observacional. Cada
teoría determina el conjunto de sus posibles falsadores como el conjunto de enunciados
singulares que prohíbe o que contradicen sus consecuencias. Este conjunto constituye la
base empírica relevante para la teoría y difiere entre teorías distintas. Por ello la teoría
determina, en un cierto sentido, la experiencia. Igualmente puede decirse que no existe la
observación indiscriminada, sino que toda observación es selectiva y está dirigida por
supuestos, problemas que se quieren resolver, etc. En este sentido, nuevamente, la
observación es dirigida por la teoría. Aunque esto no afecta a la neutralidad de la
contrastación, sí arroja dudas sobre la neutralidad de la experiencia. Aunque en el próximo
capítulo volveremos sobre Popper, por ahora interesa destacar algunas de las
consecuencias metacientíficas de su punto de vista:
• su criterio metodológico de falsabilidad implica la necesidad de atender al proceso de
crecimiento y desarrollo de la ciencia, es decir un enfoque diacrónico de la filosofía de la
ciencia. De cualquier modo Popper no extrae todas las consecuencias de este punto.
• la apertura a pensar ya no una ruptura taxativa entre ciencia y afirmaciones sin sentido,
sino una demarcación de grado entre ciencia y otros discursos con sentido pleno permite
vislumbrar la posibilidad de que las hipótesis y teorías científicas provengan de los
orígenes más dispares, incluso de afirmaciones metafísicas.
3.2 abriendo las barreras del contexto de descubrimiento: Toulmin, Kuhn,
Hanson
Varios autores, como Toulmin, Hanson y Kuhn, por citar a los más conspicuos, han
contribuido a erosionar paulatinamente los presupuestos básicos de la CH desde el reclamo
por la relevancia del contexto en la producción científica.
Para Toulmin (1961,1970), la ciencia provee de sistemas de ideas acerca del mundo
con pretensiones legítimas de realidad, sistemas que proporcionan técnicas explicativas –
de modo que su función no es primordialmente la predicción -consistentes con los datos
empíricos y que en un momento dado pueden ser considerados como absolutos y ‘del
agrado de la mente’. Estas explicaciones deben dar cuenta no tanto de lo que se espera que
ocurra en la naturaleza, sino, por el contrario de aquello que es inesperado según los
ideales de orden natural que especifican cierto ‘curso natural de los acontecimientos. Las
teorías científicas, compuestas por leyes, hipótesis e ideales de orden natural, tiene como
criterio de legitimidad su utilidad para dar cuenta de las presuposiciones que la ciencia
mantiene acerca del comportamiento fenoménico y que por ello no necesitan explicación,
presunciones que constituyen un marco teórico o Weltanschauung que determina las
preguntas que el científico se plantea, los supuestos, la base empírica y el significado del
términos utilizados.
Las críticas fundamentales de Hanson a la CH se basan en primer lugar en que ésta
acomete la empresa epistemológica atendiendo únicamente a la ciencia como producto
terminado desatendiendo los procesos racionales por los cuales se llega a la formulación de
hipótesis y teorías por primera vez a título provisional. En su Patterns of Discovery (1958)
señala que lo que un científico busca no es un sistema deductivo físicamente interpretado al
modo de la CH sino “un patrón conceptual en términos del cual sus datos se ajustarán
inteligiblemente a datos mejor conocidos”. En suma una teoría de mayor o menor
complejidad que pueda dar cuenta de la mayor parte de la experiencia disponible. En
segundo lugar, Hanson niega la existencia de un lenguaje intersubjetivo de observación que
posea una interpretación semántica directa independiente de toda consideración de las
diversas teorías que lo utilicen, es decir un lenguaje teóricamente neutral. Hanson niega
esta posibilidad señalando la dependencia que toda observación tiene de los marcos
teóricos y conceptuales aunque la forma en que esta dependencia se manifiesta sea
diferente. Su tesis es que el significado de una palabra depende del contexto, pero estas
apreciaciones sobre la carga teórica de la observación están dirigidas a establecer una
reformulación disciplinar. En efecto, en oposición a la idea de la CH de restringir la tarea de la
filosofía de la ciencia al contexto de justificación, Hanson cree que hay una lógica del
descubrimiento en virtud de la cual se pueda concluir que ciertas hipótesis son razonables con
relación a una determinada cantidad de conocimiento en un determinado contexto. De modo tal
que las teorías físicas proporcionan modelos dentro de los cuales los datos resultan
inteligibles, constituyendo una ‘Gestalt conceptual’. Una teoría no se ensambla a partir de
fenómenos observados, sino que más bien es lo que hace posible observar que los
fenómenos son de cierto tipo y que se relacionan con otros fenómenos. Las teorías colocan
a los fenómenos dentro de sistemas y resultan ser una serie de conclusiones para las que
es necesario señalar las premisas. El físico parte de las propiedades observadas de los
fenómenos para llegar a una idea fundamental a partir de la cual es posible explicar esas
propiedades de forma rutinaria.
La obra de Kuhn, es, si no la más original, probablemente la más influyente de los
nuevos estudios sobre la ciencia. Los puntos básicos de su propuesta, en la misma línea de
autores como Toulmin y Hanson, a los que podría agregarse el Feyerabend de su etapa de
ruptura con Popper, son los siguientes:
1. el desarrollo de la ciencia en la historia: la filosofía de la ciencia no puede limitarse
al estudio de los productos finales, es decir de las teorías en su formulación lingüística, sino
que ha de considerar toda la actividad científica, de modo tal que se alienta el abordaje
descriptivo y ya no, exclusivamente prescriptivo. Una empresa que ha de abocarse a
estudiar las teorías dentro del proceso de desarrollo científico, prestando especial atención a
sus aspectos dinámicos y, sobre todo, rompiendo la distinción entre contextos. En el caso de
Kuhn esta ruptura es obligada, pues los procesos de articulación, justificación y aplicación
de las teorías dependen de los de descubrimiento. Así, la actividad científica hay que
estudiarla como un todo y entender la ciencia como un complejo proceso de comunicación
en el cual las prácticas concretas y efectivas de la comunidad científica adquieren una
relevancia fundamental en tanto grupo estructurado, interconectado y fácilmente identificable
de científicos que comparten un paradigma. De aquí que el estudio de la ciencia deba
prestar especial atención a los aspectos pragmáticos e incluya elementos psicológicos,
sociológicos e históricos. En tal concepción criterios como la racionalidad, la objetividad,
etc., son relativos al paradigma y el desarrollo de la ciencia no puede ser acumulativo. Pero,
además, se produce la inconmensurabilidad entre teorías, pues ni pueden sostenerse dos
paradigmas al mismo tiempo, ni puede decidirse empíricamente entre ellos, ya que cada uno
construye su propia experiencia, ni pueden compararse, pues cada uno determina el
significado de sus términos. Esto no implica que no haya criterios de decisión, sino que tales
criterios son pragmáticos, no lógicos. Por eso es tan importante en Kuhn la teoría de la
ciencia descriptiva que incorpora la historia y la ciencia social.
2. unidad de análisis epistemológico: las teorías no son entidades aisladas, sino que
están integradas en marcos conceptuales más amplios. Estos marcos son estructuras
globales, de manera que el estudio y reconstrucción de las teorías no puede hacerse con
independencia de ellos. Para Kuhn estas estructuras globales son los paradigmas,
caracterizados como formas de ver el mundo. Una serie de críticas acerca de la ambigüedad
y/o vaguedad de la noción de ‘paradigma’, (cf. Masterman, 1970, en Lakatos-Musgrave,
1970) lo llevó a precisar el concepto y a denominarlo ‘matriz disciplinar’. El paradigma (en la
versión de 1969 ‘matriz disciplinar’) incluye supuestos compartidos, técnicas de identificación
y resolución de problemas, valores y reglas de aplicación, etc., y elementos específicos
como los modelos, las generalizaciones simbólicas y los ejemplares paradigmáticos. Así, no
puede hablarse de las teorías como meros sistemas axiomatizados de enunciados, sino
como estructuras conceptuales globales o, si se quiere conservar un enfoque lingüístico,
como lenguajes (en el sentido de estructuras o redes semánticas).
3. relación observación/teoría: niega la neutralidad de la experiencia y afirma que la
observación es dependiente de la teoría que goza de una prioridad conceptual y temporal.
En el caso de Kuhn esta dependencia es triple. En primer lugar, la observación está dirigida
por la teoría; personas con teorías diferentes observan cosas distintas, porque la
observación tiene una carga teórica. En segundo lugar, los hechos son construidos por la
teoría; son las teorías (o, más exactamente, los paradigmas/matrices disciplinares) quienes
determinan qué es un hecho y personas con teorías distintas considerarán hechos distintos;
esta es la base del constructivismo de Kuhn. Y, en tercer lugar, el significado de los términos
depende de, y es relativo a, la teoría; este significado viene dado por las conexiones del
término en el interior de la teoría, por ello, si un término aparece en teorías distintas, su
significado puede cambiar. Todo esto implica, además del constructivismo, un relativismo
que afecta no sólo a la experiencia, sino también a los criterios de validación, y una
concepción holista, o globalista, de las teorías como un todo. Ningún componente de la
empresa científica es absolutamente estable, se trate de supuestos metafísicos, formas de
explicación, criterios de evaluación, técnicas y procedimientos experimentales, o enunciados
de observación. De aquí que no se pueda disponer de ninguna plataforma privilegiada, de
ningún ‘punto arquimediano’, para la evaluación de las propuestas científicas. Este rechazo
de fundamentos últimos, que ya se han esbozado en parte se manifiesta en tres niveles: en
el nivel de la experiencia, ya que Kuhn niega el supuesto de una base empírica
independiente de toda perspectiva; en el nivel metodológico, ya que niega la existencia de
supuestos canónicos de elección entre teorías, es decir procedimientos de evaluación de
tipo algorítmico, basados en estándares universales de evaluación, que pudieran imponer a
cada sujeto la misma elección cuando se comparan teorías rivales; en el nivel ontológico, el
rechazo de Kuhn de la teoría de la verdad como correspondencia (Kuhn, 1962, 1990),
cancela el supuesto de que la evaluación de leyes y teorías tiene como objetivo determinar
su correspondencia con lo real.
4. la influencia: la obra de Kuhn generó una serie de debates y consecuencias,
muchas de las cuales excedieron largamente las intenciones e ideas del autor, en diferentes
ámbitos. Su influencia se sintió, de diferente manera e intensidad en la filosofía de la ciencia,
pero también y con una fuerza inusitada en el ámbito de la sociología de la ciencia. Una de
las consecuencias de la ERC es que al dejar en claro que la práctica cognoscitiva de la
ciencia es una actividad cultural sujeta a la posibilidad del análisis sociológico, sugiere
temas y problemas que anteriormente habían pasado inadvertidos y abre la puerta para un
nuevo tipo de análisis sociológico del conocimiento científico. Más tarde, el propio Kuhn
refuerza esta posibilidad al afirmar que frente a los estudios tradicionales sobre el método
científico, que tratan de encontrar un conjunto de reglas que le permita a cualquier individuo
que las siga producir conocimientos demostrables, él propone que el conocimiento científico
es intrínsecamente un producto de grupo y que por tanto es imposible entender tanto su
eficacia peculiar corno lo forma de su desarrollo sin hacer referencia a la naturaleza especial
de los grupos que lo producen. De esta manera, al poner de relieve que las distintas formas
del conocimiento natural no vienen dadas por un método universal o ahistórico socava
cualquier categoría epistemológica privilegiada y permite que la sociología del conocimiento
comience la tarea de revelar 'abrir la caja negra' de la producción de conocimiento
La fortaleza e influencia de la CH en los estudios acerca de la ciencia había
establecido una férrea división social del trabajo. Del contexto de justificación
(aspectos internos) cuyo estudio se suponía como el único relevante y pertinente para
explicar el hecho de que cada vez mayor número de proposiciones verdaderas se iba
sumando al corpus de la ciencia, se ocupaba la filosofía; y del contexto de
descubrimiento, es decir de los aspectos ‘externos’, sólo relevantes según este criterio
para indicar el medio circundante o a lo sumo los prerrequisitos bajo los que operaba
el contexto de justificación, debía ocuparse la sociología (o en todo caso la psicología).
Filosofía de la ciencia y ciencias sociales asumían en esta división del trabajo cada
una su papel en forma asimétrica. Estas últimas no tenían ninguna tarea epistémica,
es decir acerca de la verdad de los enunciados; a lo sumo podían dar cuenta de los
errores. En efecto, mientras la verdad dependía de la correcta aplicación de los
criterios canónicos establecidos por al CH, el error sólo podía entenderse por razones
psicológicas o sociales. La influencia de Kuhn ha sido muy importante para romper con
estas distinciones tajantes y excluyentes y ha contribuido de algún modo, a veces
ajeno a sus propios intereses teóricos y aun en contra de ellos, al desarrollo de las
nuevas sociologías del conocimiento científico.
El aporte de Kuhn también se hizo sentir en la historia de la ciencia, ya que contribuyó a
romper con la tradición de la historiografía whig que se desarrollará luego. Este modo
tradicional de hacer historia, apoyado en el supuesto de que se trata de un proceso lineal y
acumulativo, se refleja en el caso particular de la historia de la ciencia asignando al historiador
la tarea de:
“(...) determinar por qué hombre y en qué momento fue descubierto o inventado cada
hecho, ley o teoría científica contemporánea. Por otra parte, debe describir y explicar el
conjunto de errores, mitos y supersticiones que impidieron una acumulación más rápida
de los componentes del caudal científico moderno.” (Kuhn, 1962 [1992, p. 21])
Esto constituye lo que Kuhn denomina ‘historia de los manuales’. Y es en estos manuales,
precisamente, donde se forman los futuros científicos. Allí, además de este criterio histórico
(ahistórico), los futuros científicos, conocen el paradigma: no solamente las teorías propiamente dichas sino el tipo de experiencias, los enigmas a resolver y el tipo de estrategias de
respuesta a estos enigmas. Se trata de una educación dogmática ya que es
intraparadigmática: los científicos no son educados para romper con el paradigma sino para
trabajar en él. Esta actitud dogmática es la que, para Kuhn, puede llevar, paradójicamente, a
que en algún momento particularmente difícil de la disciplina, aparezca el científico
revolucionario: sólo el que conoce perfectamente el paradigma puede conocer dónde están
los problemas. El científico revolucionario surge, generalmente, entre los más jóvenes, que
son los que tienen menos compromisos, ya sea intelectuales como de cualquier otro tipo
(incluso económicos o políticos) dentro de la comunidad científica.
El reconocimiento de Kuhn como uno de los iniciadores de algunas de las líneas que
veremos a continuación obligan a una breve digresión. Uno de los méritos de Kuhn ha sido
publicar el libro que hacía falta en el momento justo; probablemente así se explique que la
ERC haya sido el único best seller de la literatura epistemológica. Pero, a los pensadores,
que como Kuhn, tienen una enorme influencia suele ocurrirles que se los conoce más por
esas líneas en las cuales han influido o que se han apropiado de su pensamiento, o mejor,
parafraseándolo, por esa ‘epistemología de los manuales’. De hecho puede encontrarse una
enorme cantidad de críticas a posiciones que Kuhn jamás defendió; algo similar ocurre
cuando se pretende criticar al empirismo lógico y se arremete contra una suerte de monstruo
que sólo existe en la epistemología de los manuales. La constante prédica del propio Kuhn
tratando de despegarse de interpretaciones que consideraba inadecuadas es prueba de ello.
Muchas veces, para no reconocer una interpretación sesgada se hacen lecturas
esquizofrénicas y se sostiene que habría un primer y un segundo Kuhn. Es cierto que las
líneas de pensamiento deudoras de cualquier autor no necesariamente deben ser
meramente exégesis rigurosas de ese autor, pero las versiones fuertemente relativistas e
irracionalistas que han creído ver en Kuhn a uno de sus padres fundadores chocan no sólo
con el contenido de los textos del propio Kuhn, sino que no reconocen su filiación intelectual
y académica:
“En cuanto a sus relaciones con la filosofía de la ciencia del periodo clásico, Kuhn- que
esperaba encontrar sus mejores aliados entre los popperianos- se dedica a mostrar
(Kuhn 1970) cómo su pensamiento continúa el de Karl Popper de una manera que le es
propia. El violento rechazo que experimentara le enseñó que, aunque tuvieran
coincidencias, la comunidad popperiana y el propio Popper no le perdonarían los
aspectos pragmáticos (psicológicos y sociológicos) de su propuesta.
La situación es igualmente paradójica con respecto al positivismo o empirismo lógico,
que se supone fue el adversario derrotado por su obra. Pocos advirtieron – o lo creyeron
un error- que La Estructura de las Revoluciones Científicas fue editada como monografía
en la primera parte introductoria de la Enciclopedia de la Ciencia Unificada, su más
ambicioso proyecto. Sin embargo, por fuera de los estereotipos que la transformaron en
el ‘hombre de paja’ que todos usan para denostarla, esta corriente de la filosofía de la
ciencia presenta una amplia gama de facetas y orientaciones, tal como lo muestra la
comparación de los trabajos de, por ejemplo Otto Neurath, Edgar Zilsel y Rudolf Carnap,
y que justifican la recomendación entusiasta del libro de Kuhn que éste escribe en una
nota de puño y letra al reverso de la carta oficial de aceptación que dirige a Charles
Morris.
El hecho de que la ‘Posdata’ escrita por Kuhn a La estructura de las revoluciones
científicas en 1969 fuera lo último editado en la colección anteriormente mencionada
constituía el cierre perfecto de una época, no porque Kuhn acabara para siempre con
esa tendencia, sino porque con él encontrarían cauce inquietudes que se iniciaran en
Viena a principios de siglo.” (Diez y Lorenzano, 2002, p. 23)
4. LOS ABORDAJES SOCIOLOGICOS
Como ya señaláramos, los abordajes de la sociología de la ciencia tradicional –
básicamente las líneas que surgen de Mannhein y Merton - se inician en el marco de una
distinción disciplinar marcada, deudora a su vez de la distinción entre contextos de
justificación y descubrimiento. La sociología mertoniana, heredera de la sociología del
conocimiento fundada por Marx y Mannheim, y desarrollada principalmente en los EE.UU.,
centraba su atención en la estructura social de las comunidades científicas, analizando de
qué forma las actividades de los científicos pueden entenderse como adecuación a las
normas que las guían -normas que forman el ethos científico- y como actividades que se ven
favorecidas por tipos concretos de ordenamiento social tales como las sociedades liberaldemocráticas. Por su parte, las nuevas sociologías del conocimiento científico, surgidas con
posterioridad y desarrolladas fundamentalmente en Europa, no sólo consideran la ciencia
como un producto del entorno social sino que, además, tratan de aplicar a las distintas
actividades, procesos e instituciones científicas los mismos métodos de investigación que a
otros grupos sociales. Aunque en general se coincide en que la ciencia es nuestro
conocimiento más valido, fiable y poderoso, cuya progresiva complejidad y sofisticación ha
hecho que sea manejado solo por colectivos de especialistas, el desacuerdo radica, sin
embargo, en lo que se entiende por 'carácter social' de la ciencia. Para la sociología de la
ciencia mertoniana la relación de los factores sociales con la ciencia era de un tipo distinto
de la existente con otros conocimientos, razón por la cual la sociología de la ciencia no
había de entrar en el estudio de los contenidos del conocimiento científico, tarea que en el
contexto de influencia de la CH quedaba reservado como tarea exclusiva de lógica y de la
filosofía. Con el correr de las décadas, sin embargo, los abordajes sociológicos fueron
diluyendo la distinción entre contexto y comenzaron a reclamar la palabra en asuntos
epistémicos y, al considerar a la ciencia como un campo de transacciones en las cuales los
aspectos retóricos cumplían un papel esencial fueron abriendo un ámbito propicio para
asignar un papel de relevancia a las metáforas. Aunque sostengo que no es esta la manera
de reconsiderar el papel de las metáforas en la ciencia, no obstante, en las secciones que
siguen se describirán brevemente algunos de estos desarrollos.
4.1 la sociología de la ciencia tradicional
La sociología de la ciencia norteamericana, de la mano de su fundador Merton,
admite que si bien las ideologías y utopías son influidas por los intereses de las clases y
estratos sociales, las ciencias son autónomas respecto de las influencias directas de estos
intereses y visiones parciales que son el resultado de las distintas posiciones que ocupan
los individuos en la sociedad y del deseo de conservarlas o alterarlas. De cualquier modo,
Merton no defiende a ultranza el carácter incontaminado de las ciencias naturales respecto a
las sociedades en que surgen. En su tesis doctoral -Ciencia, Tecnología y Sociedad en el S.
XVII- muestra de qué modo las estructuras sociales y, sobre todo, las necesidades
económicas y militares y la ética calvinista jugaron un papel importante en el desarrollo de la
ciencia. Por esto Merton propone dos objetivos particulares para la sociología de la ciencia:
por un lado, estudiar:
"(...) los diferentes modos de interdependencia de la ciencia y la estructura social,
tratando la ciencia misma como una institución social diversamente relacionada con las
otras instituciones de la época" [y, por otro lado, hacer un] "análisis funcional de esa
interdependencia, con especial referencia a las cuestiones de integración y de mala
integración". (Merton, 1973 [1977, p. 120])
Tal interdependencia y funcionalidad focaliza la atención del sociólogo de la ciencia
en la tensión entre el código político o de lealtad al Estado y el código ético de la ciencia, lo
que Merton llama el ethos de la ciencia:
"(...) un complejo de tono emocional de reglas, prescripciones, costumbres, creencias,
valores y supuestos previos que se supone que atan al científico. (...) Este ethos, como
los códigos sociales en general, es apoyado por los sentimientos de aquellos a quienes
se aplica". (Merton, 1973 [1977, p. 122])
Según Merton, las normas que rigen –o en todo caso deberían regir- en las
comunidades de científicos pueden resumirse en:
universalismo: las pretensiones de verdad se someten a criterios impersonales
preestablecidos;
comunitarismo: los logros de la ciencia son propiedad común:
desinterés: los científicos no han de perseguir en sus investigaciones fines personales y;
escepticismo institucionalizado u organizado: los resultados de la ciencia se consideran
siempre revisables en función del desarrollo de la misma, cuya práctica culmina en la
autonomía de la ciencia respecto a los ordenamientos sociales y políticos dentro de los
que se desarrolla.
La ciencia podrá progresar en un contexto socio-político que permita y favorezca el
cumplimiento de estas normas, en caso contrario sufrirá un estancamiento.
Pero los contenidos de la ciencia constituían una especie de caja negra para el
análisis sociológico. Los resultados de los procesos de descubrimiento, considerando que la
justificación y validación del conocimiento se fundaba en procedimientos objetivos e
independientes de los factores sociales, psicológicos, etc. serán dejados de lado. Podían
estudiarse tanto las relaciones internas entre los científicos como las repercusiones sociales
y culturales de la ciencia, pero el conocimiento científico como tal era autónomo,
suprasocial, dotado de características como objetividad, racionalidad, intersubjetividad,
verdad, etc., independiente de influencias externas y desarrollándose progresivamente
según reglas internas. Debe señalarse, no obstante, que a pesar de atender a los procesos
sociales, sus análisis son estáticos en un sentido importante: al considerar tan sólo las redes
de influencias entre científicos, su organización interna, la distribución de recompensas, etc.,
se desentiende de la evolución y el cambio científico porque consideraba que el desarrollo
de la ciencia era objetivo y autónomo y, por tanto, ajeno al análisis sociológico. También, y a
pesar de ocuparse del contexto de descubrimiento, se desentendía de los procesos de
formación de creencias de los científicos, de modo que la ciencia era tomada como algo
dado, dotado de un patrón único y resultante de la actividad de unos científicos ideales a
modo de sujetos epistémicos abstractos. Su organización en comunidades científicas, los
mecanismos específicos de aprendizaje, etc., no afectaban a la validez o aceptación del
conocimiento científico resultante.
4.2. las sociologías del conocimiento científico.
Las críticas que la CH fue sufriendo a lo largo del siglo, y que se hicieron más
patentes a partir de los años ’60, al tiempo que representaron una disolución de las tesis
más fuertes, permitieron un desarrollo de la sociología de la ciencia inscripto en el marco
mayor de un reacomodo de las incumbencias disciplinares. A partir de los ’60 y ’70
comienzan a aparecer estudios que se proponen explícitamente como rivales de la
sociología de la ciencia y que tienen como su punto fundamental el rechazo de la
consideración del conocimiento científico como "caja negra" y reclaman su apertura al
análisis sociológico. El desarrollo alcanzado por la sociología como disciplina académica en
Europa, convertida ya en sociología 'del conocimiento científico', para resaltar el cambio de
enfoque respecto a la sociología de la ciencia americana, tiene uno de sus puntos
principales, aunque no exclusivos, en Gran Bretaña. Se desarrolló una enorme cantidad de
investigaciones empíricas e históricas sobre la ciencia como sistema social, que abarcaban
desde los análisis de instituciones científicas hasta los estudios internos sobre los sistemas
de control de publicaciones y los mecanismos de información dentro de estas instituciones.
Estos estudios se centraron en diversos aspectos referidos a la constitución de las
comunidades científicas, tales como:
• Intentos de caracterizar la estructura y organización de las comunidades. En general se
trata de caracterizaciones abstractas porque se supone que toda la ciencia sigue el
mismo patrón de organización (la mayor o menor cohesión de las comunidades
concretas indicaría el grado de desarrollo del campo científico correspondiente)
• búsqueda de mecanismos generales de identificación de comunidades científicas
incluyendo su delimitación mas o menos precisa y la forma en que determinan las
asunciones, creencias y decisiones de sus miembros
• estudio de los procesos y condiciones sociales de la constitución de nuevos campos
científicos, pues estos procesos se consideraban el arquetipo del desarrollo científico y,
al mismo tiempo, eran más accesibles al análisis sociológico. Pero también, rompiendo
con las delimitaciones tradicionales,
• estudios fundamentalmente históricos intentando mostrar la validez de los estudios
sociológicos del conocimiento científico señalando como éste depende de las
comunidades científicas y del contexto cultural.
• correlaciones concretas entre diferentes fases del desarrollo científico y las estructuras
sociales asociadas con ellas.
En medio de la enorme heterogeneidad de los estudios que se inician, pueden
detectarse no obstante, ciertos principios generales. Según J. Sánchez Navarro (1988):
1. Principio de Naturalización: Se anula la distinción tajante y excluyente entre los
contextos de descubrimiento y los de justificación y validación. Esta disolución se basa
en la tesis que sostiene que el proceso de producción de conocimiento tiene relevancia
2.
3.
4.
5.
epistémica. Una consecuencia de este principio opera en el sentido de debilitar el
carácter meramente prescriptivo de la filosofía de la ciencia y plantear la necesidad de
los análisis descriptivos.
Principio de Relativismo: comienza a desconfiarse y negarse la existencia de criterios
absolutos y fundacionales que garanticen la verdad o la racionalidad. Aunque los juicios
y decisiones de los científicos se reclamen racionales y sus afirmaciones pretendan ser
verdaderas, tanto la noción de verdad, como las de progreso y racionalidad son
revisables y relativas a comunidades, épocas y contextos concretos. También las
normas y valores que guían la actividad científica son cambiantes y relativos, pues son
producto de procesos sociales dentro de la comunidad científica. Así, la producción, el
desarrollo y el cambio del conocimiento científico no son procesos autónomos, ni
objetivos, sino resultado de negociaciones y procesos de interacción social entre
científicos. Lo que se entienda por ciencia, su validez y aceptabilidad, al igual que los
métodos utilizados, son cuestiones relativas.
Principio de Constructivismo: las representaciones científicas no provienen directamente
de la realidad, ni son un reflejo literal de esta. No puede esperarse siquiera una
interpretación idéntica de los mismos fragmentos de evidencia, pues la experiencia no es
neutral sino dependiente y varía según el contexto, los aprendizajes, los esquemas
compartidos y los procesos de comunicación en que se produzca. De ahí que el
conocimiento y, en cierto modo, la realidad se consideren socialmente construido.
Principio de Causación Social: La actividad científica no es llevada a cabo por sujetos
epistémicos ideales, sino por comunidades concretas organizadas socialmente. En este
sentido los científicos son criaturas humanas y sociales sujetas a los mismos tipo de
explicación que cualquier otro grupo. Y el conocimiento que producen es en buena
medida resultado y reflejo de la forma en que se organizan dentro de esas comunidades.
Principio de Instrumentalidad: no habría mayor diferencia, salvo quizá su eficacia y
efectividad entre el conocimiento científico y otros conocimientos. De ahí que posea una
función instrumental y pragmática puesto que lo que se pretende con él es conseguir
ciertos fines o satisfacer ciertos intereses; por esta razón, su producción y aceptación
esta fuertemente condicionada por su capacidad para cumplir esa función.
4.2.1 el 'strong programme' de sociología del conocimiento.
Indudablemente uno de los intentos más importantes de las nuevas líneas es el
Strong Programme (en adelante SP), que fue desarrollado a mediados de los ’70 en la
Science Studies Unit de Edimburgo, fundamentalmente por D. Bloor y B. Barnes. Su
supuesto básico es que todo conocimiento está determinado socialmente, porque lo que se
considera ciencia en un momento determinado está invariablemente conformado por la
sociedad en que se genera; porque la actividad científica y el conocimiento resultante son
productos del trabajo de los individuos en el seno de una comunidad científica, con su propia
estructura, organización y relaciones internas; y porque la actividad científica, se encuentra
profesionalizada, por lo cual los factores macrosociales externos influyen en la forma y el
funcionamiento de la comunidad.
La estrategia del SP apunta a mostrar empíricamente, mediante el análisis de los
elementos que afectan a la producción y evaluación de conocimiento científico, que existen
redes de expectativas e intereses que determinan las creencias que guían la observación y
que afectan también a los resultados de la ciencia y a su evaluación. Esta estrategia impone
dos líneas de trabajo principales:
1. La descripción de cómo (y si es posible por qué) en épocas distintas grupos sociales
distintos seleccionan diferentes aspectos de la realidad como objeto de estudio y
explicación científica.
2. La descripción de cómo se construyen socialmente la observación, los experimentos, la
interpretación de los datos y las propias creencias científicas en la doble vertiente de
construcción por parte de la comunidad y construcción por parte de la sociedad (o de los
grupos sociales relevantes que influyen en la comunidad científica).
Bloor:
Los trabajos del SP se basan en cuatro principios programáticos formulados por
“(...) la sociología del conocimiento científico debe observar los cuatro principios
siguientes. De este modo se asumirán los mismos valores que se dan por supuestos en
otras disciplinas científicas. Estos son:
1) Debe ser causal, es decir, ocuparse de las condiciones que dan lugar a las creencias
o a los estados de conocimiento. Naturalmente, habrá otros tipos de causas además de
las sociales que contribuyan a dar lugar a una creencia.
2) Debe ser imparcial con respecto a la verdad y falsedad, la racionalidad y la
irracionalidad, el éxito o el fracaso. Ambos lados de estas dicotomías exigen explicación.
3) Debe ser simétrica en su estilo de explicación. Los mismos tipos de causas deben
explicar, digamos, las creencias falsas y las verdaderas.
4) Debe ser reflexiva. En principio, sus patrones de explicación deberían ser aplicables a
la sociología misma. Como el requisito de simetría, éste es una respuesta a la necesidad
de buscar explicaciones generales. Se trata de un requerimiento obvio de principio,
porque, de otro modo, la sociología sería una refutación viva de sus propias teorías.
Estos cuatro principios, de causalidad, imparcialidad, simetría y reflexividad, definen lo
que se llamará el programa fuerte en sociología del conocimiento. No son en absoluto
nuevos, pero representan una amalgama de los rasgos más optimistas y cientificistas
que se pueden encontrar en Durkheim, Mannheim y Zaniecki.” (Bloor, 1971 [1998, p. 38])
Los principios señalados por Bloor conducen a un relativismo metodológico en la
medida en que tanto las creencias falsas como las verdaderas deberán explicarse
causalmente por sus condicionantes sociales y los mismos tipos de causas explicarían tanto
las creencias evaluadas favorablemente como las rechazadas dado que los propios criterios
de evaluación son construidos socialmente. En este contexto, el éxito de una teoría depende
en ultima instancia de la habilidad de sus partidarios para demostrar su superioridad en
términos de los ideales, normas y mecanismos científicos aceptados por la comunidad y
esta habilidad está relacionada con el control de los recursos simbólicos y económicos de
esa comunidad. También la determinación de cientificidad de un determinado discurso
resulta de las propias prácticas de la cultura o comunidad involucrada por lo cual la forma
misma en que se distingue entre ciencia y no-ciencia es objeto de exploración sociológica
para el SP.
Sin embargo, esto no implica un convencionalismo absoluto. Aunque lo que se
entienda por ciencia ha de relativizarse a los distintos grupos sociales y su caracterización
se haga en términos de consenso social, el conocimiento científico tiene un fuerte
componente instrumental y pragmático, pues es una respuesta al medio a través de la
observación de regularidades y la formulación de leyes con una función de predicción,
manipulación y control. La disparidad de necesidades e intereses vitales de las distintas
sociedades humanas puede influir decisivamente en la aparición de desacuerdos o en la
construcción del consenso, pero, de cualquier modo no hay que ubicar la posición de Bloor
ni como un determinismo sociológico fuerte ni como un sociologismo extremo ya que se
admite que pueden intervenir otro tipo de causas además de las estrictamente sociales,
tales como las condiciones de operatividad y de coherencia interna, etc. Pero, en cualquier
caso, estas otras causas son, cuando menos, dirigidas y estructuradas por las primeras, por
lo que los procesos sociales básicos, mas o menos complejos, que están a la base de la
producción y aceptación del conocimiento científico pueden y deben ser analizados
sociológicamente. Las creencias, científicas o no, aceptadas o rechazadas, cognoscitivas o
metodológicas, se consideran resultado de causas materiales (en el sentido de no
espirituales). Estas causas son el resultado de otros procesos -que permanecen ocultos tras
los procesos de construcción y evaluación de las creencias, las disputas o el consenso en la
aceptación del conocimiento e incluso las descripciones que los propios científicos hacen de
sus actuaciones- y que son los de articulación e interacción de intereses de diversos tipos.
Estos intereses son básicamente de dos tipos: los instrumentales y los 'ideológicos'.
Los intereses instrumentales se centran en la predicción, manipulación y control del
medio y guían los distintos intereses cognoscitivos y epistémicos especializados tales como
la búsqueda de leyes efectivas, la elaboración de conceptualizaciones poderosas, etc.; y
también lo que proporciona a la ciencia sus características centrales: el empirismo, la
búsqueda de regularidades y la producción de rendimientos tecnológicos. Incluso los
criterios de evaluación y los requisitos esotéricos que las comunidades especializadas
aplican a las creencias que producen, están determinados por ese interés primario.
Los intereses ideológicos -o secundarios- son intereses sociales específicos y
relativos a la organización social concreta en la que se genera el conocimiento. Se trata de
intereses implícitos e, incluso los criterios y mecanismos por los que asignan valores a
creencias y a estructuras cognoscitivas están ocultos o subyacentes. Se trata de intereses
relevantes tanto en la producción o generación de creencias como así también, y
principalmente, en la evaluación y aceptación de esas creencias, en la clausura de
controversias y en la producción de consenso. Por eso son intereses encubiertos dirigidos a
la racionalización y persuasión, es decir, a la determinación social e ideológica en sentido
amplio. Es interesante explicitar un poco estos intereses que son, básicamente, de tres
tipos:
1. Los intereses profesionales, que también se pueden entender como intereses
personales o individuales, están relacionados con las habilidades y competencias
específicas adquiridas por los científicos a través de los procesos internos de socialización
en las comunidades científicas. Al integrarse en las comunidades mediante la educación y el
aprendizaje, los científicos no solo aprenden cómo comportarse dentro de la comunidad,
sino que adquieren también habilidades especializadas y asumen como garantizadas ciertas
creencias y normas de acción y evaluación, ignorando otras o dejándolas en un segundo
plano. De esta forma, surgen grupos de especialistas que reciben las inversiones sociales y
comunitarias de reconocimiento y prestigio, las económicas, etc.; esos grupos pretenden
explotar y hacer prevalecer sus competencias técnicas especializadas, mostrar su
importancia y necesidad para la actividad científica y extender su campo de aplicación como
una forma de ampliar el grupo y su influencia y conseguir mas inversiones. Estos intereses
pueden dar lugar a controversias dentro de la comunidad acerca de la naturaleza de los
fenómenos, la forma de interpretar la evidencia, la aceptabilidad de los supuestos, etc., dado
que según como se entiendan estas cuestiones, las investigaciones correspondientes se
asignarán a un grupo en virtud de sus competencias específicas. De este modo los intereses
profesionales creados dentro de la comunidad conectan las disputas técnicas sobre la
naturaleza e interpretación de los fenómenos, las líneas de investigación seguidas y los
métodos empleados, con la adquisición de medios de investigación y con la credibilidad y
reconocimiento del trabajo científico. En todos los casos habría envueltas estrategias para
defender y apoyar intereses profesionales.
2. Los intereses comunitarios, por su parte, están relacionados con la identificación,
cohesión y delimitación de las comunidades científicas y con su reconocimiento social
dentro del contexto cultural general. Entre las especialidades científicas se dan relaciones
jerárquicas de prestigio e influencia, que pueden cambiar a lo largo del tiempo y que dan
lugar a conflictos o acuerdos interdisciplinares, por lo que los intereses comunitarios pueden
entenderse, en cierto sentido, como generalizaciones de los intereses profesionales que
operan dentro de las comunidades. En última instancia, los intereses comunitarios están
conectados con la pretensión de las comunidades, en cuanto organizaciones sociales, de
persistir, reproducirse y crecer dentro de un medio social más amplio y en competencia con
otras organizaciones alternativas; y la manera de lograrlo es conseguir y aumentar el
reconocimiento social, mejorar su posición en la escala jerárquica y obtener medios
crecientes de financiación.
En estos procesos influyen elementos externos que provienen tanto del contexto
científico como del contexto cultural general, pues con frecuencia ciertos compromisos y
supuestos de tipo metodológico o filosófico de una comunidad favorecen o chocan con los
de otra o con supuestos culturales externos. Los intereses comunitarios juegan un papel
importante en la generación de acuerdos o desacuerdos entre comunidades y entre éstas y
otros grupos sociales. Algo semejante ocurre con la comunidad científica en general, que se
presenta dentro de la sociedad como cohesionada y diferente de otras instituciones sociales
y de sus productos culturales. De ahí que se hable de la ciencia en general como una
actividad unitaria dotada de ciertas características propias y de métodos específicos de
investigación, experimentación y selección de creencias, etc. En este sentido amplio, los
intereses comunitarios articulan y conectan las comunidades científicas y sus intereses
profesionales con otros grupos e instituciones y con los intereses sociales en general, para
lo cual poseen sistemas autoregulativos que son mecanismos internos de control social
(sistemas de árbitros, conjuntos típicos y básicos de fenómenos para validación
experimental, reglas normalizadas sobre la presentación de resultados, etc.), que tienen un
papel importante en la conclusión de disputas y en la obtención de consenso. Lo que se
pretende es que la comunidad mantenga su organización especifica, produzca resultados al
menos tan apreciados socialmente como los que había generado hasta ese momento,
satisfaga sus compromisos con el sistema social y se diferencie de otras instituciones
culturales con las que coexiste y compite en la búsqueda de prestigio e influencia. De esta
forma los intereses comunitarios se presentan como intermediarios y son fundamentales a la
hora de explicar los cambios revolucionarios en la ciencia.
3. Los intereses sociales generales, se presentan como el tipo más representativo de
intereses 'ideológicos'. Funcionan como determinantes macrosociales en los procesos de
generación y, sobre todo, aceptación de creencias científicas. Incluyen intereses
económicos, ideológicos y políticos sea de la sociedad en general o de los grupos
dominantes en ella y tienen una estrecha relación con la profesionalización de la ciencia y
con su reconocimiento social. A través de ellos se introducen los factores sociales externos
en el conocimiento científico y por eso se considera que el conocimiento reproduce, en
mayor o menor grado, la estructura de la sociedad que lo produce. El recurso a estos
intereses a la hora de explicar los juicios y decisiones de los científicos constituye la
característica más distintiva del SP. Los intereses sociales actúan en un doble sentido:
mediante la utilización en la ciencia de patrones, modelos y actitudes culturales externas
que funcionan en el pensamiento social y político y mediante el uso social de la naturaleza.
El primer caso ocurre cuando ciertas creencias científicas y explicaciones de los fenómenos
se inspiran o son influidas por concepciones sociales, políticas, etc., sostenidas en la
sociedad en general. El segundo, mucho más fuerte, consiste en el uso ideológico de la
naturaleza -y del conocimiento científico que pretende explicarla- para el control y la
persuasión social. Este uso social de la naturaleza no se limita simplemente a la utilización
por la sociedad, o por grupos sociales específicos, de las concepciones de la naturaleza
producidas por la ciencia, sino que se extiende a la evaluación de las creencias científicas
en virtud de su capacidad para ser usadas como instrumentos que permitan satisfacer
intereses sociales más amplios. Así, ciertas creencias científicas, leyes o sistemas de
clasificación pueden ser evaluados favorablemente y mantenidos por su utilidad para el
control, la manipulación y la persuasión social.
Los tres tipos de intereses, profesionales, comunitarios y sociales generales, no son
independientes, sino que actúan interconectados y estructurándose mutuamente, siendo el
conjunto de estos intereses ideológicos codeterminante de los procesos de producción de
conocimiento científico. Pero, además, la distinción entre intereses instrumentales en la
predicción, manipulación y control de la naturaleza e intereses sociales ideológicos es
simplemente metodológica. De hecho, ambos se dan conjuntamente y no es lícita su
separación por dos razones. Primero, porque lo que se considere adecuado para la
predicción, manipulación y control de la naturaleza puede diferir en contextos, épocas y
grupos sociales distintos e incluso es posible que sistemas de creencias diferentes
satisfagan igualmente el mismo interés primario; en este caso, los intereses ideológicos
secundarios son quienes estructuran a los instrumentales y evalúan favorable o
desfavorablemente la potencia instrumental de las clasificaciones científicas mediante el uso
social de la naturaleza. Segundo, porque lo que se intenta predecir, manipular y controlar es
el medio -tanto el natural, como el social y cultural-; de ahí que los intereses instrumentales
estén inextricablemente unidos con los ideológicos y que, en cierto sentido, puedan
considerarse los unos como parte de los otros. La forma en que se consideren conectados
los intereses instrumentales y sociales e ideológicos, la potencia causal que se les asigne y
el tipo de explicación que se exija para las creencias científicas ha dado como resultado
distintos matices de los seguidores del SP.
Así, por ejemplo, Barnes en trabajos anteriores a 1979, parte de una forma de
naturalización más débil en la cual no cabe la posibilidad de construir teorías generales y
leyes causales acerca de la conexión entre factores sociales y cognoscitivos, sino que más
bien propone el análisis de casos concretos y específicos como una forma de estudiar
empíricamente la intervención de los factores sociales en el conocimiento. El objetivo es
desarrollar, en todo caso, una teoría de los intereses que permita el enlace entre la teoría
del conocimiento y un programa general de investigación sociológica; la elaboración de
teorías o leyes generales seria un paso posterior resultante de la investigación empírica.
Para Barnes los intereses sociales son condiciones necesarias, pero no suficientes, para
explicar la génesis y aceptación de las creencias científicas. Es cierto que los factores
sociales estructuran y encauzan los intereses cognoscitivos instrumentales, pero no los
determinan estrictamente pues siempre tiene que haber un contacto con la realidad. Dicho
contacto con la realidad hace que los intereses instrumentales tengan una cierta autonomía
y que sean los mismos en todos los casos, aunque condicionados por circunstancias y
factores sociales. La influencia de los intereses sociales generales aunque permite explicar
fenómenos sociales no llega a ser suficiente para dar cuenta de las acciones de los
individuos o de sus procesos de invención de creencias. En estos casos, los intereses
actúan como marco, pero ceden la prioridad explicativa a los intereses instrumentales y
profesionales. Es la intervención combinada de ambos intereses lo que determina la
racionalidad natural y la objetividad de las acciones de los individuos. Todo esto hace que la
conexión entre factores sociales y cognoscitivos sea tan compleja que solo pueda estudiarse
empíricamente caso por caso y sin presuposiciones teóricas de principio.
Finalmente, entre las posiciones extremas de Bloor y Barnes, se ubica el 'modelo
instrumental' de que habla S. Shapin (1982) y en el que también puede incluirse al Barnes
posterior a 1979 y a McKenzie (1981). En este caso tampoco se busca establecer una teoría
general, ni fijar leyes causales fuertes, pero se asumen algunos principios-guía para la
investigación también centrados en casos concretos e históricos. Así, se considera que la
producción y evaluación del conocimiento está guiada por fines e intereses que son tanto
instrumentales como ideológicos, pero que no hay prioridad causal fuerte de unos sobre
otros. Cuando las generalizaciones permiten hacer conjeturas se relacionan con los
intereses de predicción y control; pero cuando se seleccionan dentro de un contexto algunas
de las generalizaciones previas, entonces se relacionan con los intereses sociales. Al igual
que antes, se afirma que ambos procesos interactúan y son inseparables porque quien
produce el conocimiento científico es una comunidad entera y no un individuo, y lo que la
comunidad acepte o considere razonable es una cuestión social. Así, los intereses sociales
estructuran y guían los procesos de conocimiento, la racionalidad natural y la evaluación de
las creencias, pero todo ello es relativo a un contexto y a una comunidad. Por eso, los
intereses instrumentales son múltiples y pueden variar en distintos casos, lo que convierte a
los intereses sociales en constitutivos del mundo. Al ser construido en comunidad, el
conocimiento es guiado y evaluado por fines sostenidos colectivamente y de ahí que su
principal característica sea la instrumentalidad, es decir, su capacidad para hacer cosas, que
es lo que lo hace significativo. Los propósitos e intereses en juego pueden ir desde la
legitimación o crítica de intereses sociales generales hasta la satisfacción de intereses
técnicos y cognoscitivos, pasando por intereses macro y micro políticos, pero todos ellos se
articulan en una red de consideraciones sociales. Por eso puede esperarse que en
sociedades y grupos diferenciados, los conjuntos de intereses en contraste den lugar a
propuestas de conocimiento diferentes: las creencias cambiarían con los cambios de
intereses. De esta forma, la relación entre ambos elementos es muy estrecha, pero dado su
carácter cambiante según contextos, comunidades y organizaciones sociales, no pueden
establecerse leyes generales, sino que la naturaleza e intensidad de la relación, al igual que
los tipos de intereses en interacción, deben fijarse en cada caso concreto. Los intereses son
contingencias necesarias que siempre subyacen a las creencias pero cuán fuerte sea la
relación y que intereses sean es cuestión de estudio empírico. De ahí la afirmación de
Shapin:
"La mera aserción de que el conocimiento científico 'tiene que ver' con el orden social o
que 'no es autónomo' no es muy interesante. Debemos especificar ahora con precisión
cómo tratar la cultura científica como un producto social. Necesitamos descubrir la
naturaleza exacta de los lazos entre las descripciones de la realidad natural y las del
orden social". (Shapin, 1982, p. 160)
Así, los intereses sociales, e incluso los políticos, son fundamentales e influyen
decisivamente en la naturaleza y evolución del conocimiento, pero han de ceñirse a análisis
empíricos al ser el componente relativista más fuerte que el causal.
4.2.2 otras líneas de análisis
El esfuerzo inicial del SP dio lugar, a partir de algunas críticas, a una serie de líneas
de análisis nuevas que comenzaron a dar prioridad a los estudios descriptivos frente a los
explicativos; a los análisis microsociológicos sobre los macrosociológicos y a pasar del
estudio teórico de la construcción social de las creencias en abstracto al estudio empírico de
las actividades científicas concretas y de los procesos específicos mediante los cuales se
alcanza el consenso y se construyen los hechos. Sánchez Navarro señala a partir de esta
objeción central una serie de puntos criticados al SP:
“1. Este carácter programático, general y presuposicionista lo lleva a buscar
explicaciones vagas y ad hoc de los procesos de construcción de las creencias
científicas sin entrar en el análisis detallado de cómo se construyen socialmente de
hecho las creencias, el consenso y los fenómenos. Su ambigüedad es mucho mayor
porque al pretender una naturalización fuerte de la sociología del conocimiento científico
da prioridad a los supuestos teóricos sesgando con ello los estudios empíricos. Esto se
aprecia claramente porque sus estudios concretos son fundamentalmente históricos e
interpretativos, en lugar de ser descriptivos sobre la actividad científica contemporánea.
2. En la misma línea sus propuestas son macrosociológicas o, al menos, da prioridad a
los estudios macrosociológicos sobre los microsociológicos. En consecuencia, llega a
conclusiones y afirmaciones generales difíciles de probar empíricamente.
3. Otro problema relacionado con la ad-hocidad de sus explicaciones es la ubicuidad de
los intereses. Si se parte del supuesto de que toda actividad científica esta guiada por
intereses sin mas precisiones ni pruebas, cualquier análisis concreto estará sesgado por
esa suposición y la teoría resultara infalsable.” (Sánchez Navarro, 1988, p. 24)
Así surgen los programas relativista, constructivista, los estudios de laboratorio, los
estudios del discurso científico, la etnometodología. Los Programas relativista y
constructivista surgen a partir de una objeción central al SP de Bloor: su intención de
constituirse en una verdadera teoría social del conocimiento no es aceptada por ambos
programas como un fundamento de sus estudios microsociológicos.
El Programa Relativista (en adelante PR) es desarrollado por la Escuela de Bath,
especialmente por H. M. Collins (1974, 1983) y T. Pinch (1981), a los que se han sumado
autores como A. Pickering (1981,1984) o B. Harvey (1981, 1981a), entre otros. Aunque
algunos autores lo consideran una versión blanda del SP, sin embargo Collins, que a veces
lo llama “Programa Radical”, lo considera metodológicamente prioritario al SP. La razón
descansa en que el PR asume sólo dos de los principios de SP -los de simetría e
imparcialidad- y deja de lado los de causalidad y reflexividad. Por eso, se compromete
fuertemente con el costado relativista y, sólo en segunda instancia, con el aspecto
constructivista. Los estudios del PR se limitan a casos concretos y, en especial, de la
actividad científica contemporánea centrándose principalmente en tres aspectos que
considera metodológicamente más relevantes: los estudios de los métodos de
experimentación y replicación científica y la forma en que sus resultados son determinados y
construidos socialmente; las controversias y su resolución como fuentes de la aceptación del
conocimiento; y las ciencias marginales que permiten que sean comparadas con las ciencias
duras. Analizan descriptivamente las disputas y negociaciones de grupos pequeños y
especializados de científicos que son representativos de la comunidad científica.
Las características principales del programa constructivista son:
1.
rechazan por igual los análisis macrosociológicos y los estudios microsociológicos de
las negociaciones entre científicos, limitándose al análisis microsociológico de la
conducta de los científicos trabajando en sus laboratorios.
2. Utilizan métodos etnográficos y antropológicos, lo que requiere la renuncia a cualquier
idea preconcebida acerca de las actividades de los científicos. La técnica básica es
incorporarse al laboratorio y observar las prácticas de los científicos como si se tratase
de otra cultura (cf. Althabe y Schuster, 1999).
3. No distinguen entre factores cognoscitivos y sociales, ni entre influencias internas y
externas, ni siquiera metodológicamente. Lo único relevante es que los científicos tienen
éxito en la creación de una organización especifica y en la generación de información y
esos son los procesos que deben ser descritos, para lo cual se presta especial atención
al lenguaje y a la comunicación entre los científicos. A fin de cuentas el núcleo esencial
del trabajo de laboratorio consiste en la codificación ordenada y selectiva de ítems de
información dispersos y desorganizados. La argumentación es fundamental, en este
caso, para la persuasión de los colegas y la negociación y aceptación intersubjetiva de
los hechos social y lingüísticamente construidos.
A partir de críticas, reformulaciones e interacciones entre las líneas esbozadas hasta
aquí surgen otros puntos de vista, como por ejemplo los que adhieren al análisis del
discurso científico como paso metodológico previo a cualquier desarrollo posterior. El
argumento de los defensores de este punto de vista se basa en la insuficiencia de los
estudios sociales de la ciencia anteriores en tanto comparten el objetivo de proporcionar
explicaciones definitivas de las acciones y las creencias de los científicos. En efecto, dado
que el conocimiento científico consiste en las creencias que los científicos sostienen,
creencias avaladas por recursos considerados válidos por los mismos científicos -tales como
pruebas experimentales, replicabilidad, etc.- y que las acciones de los científicos en sus
entornos y situaciones son los datos de que dispone el sociólogo para estudiar la ciencia,
todos los trabajos de historia y de sociología de la ciencia han intentado proporcionar
"versiones definitivas de las acciones de los científicos y, en menor grado, de sus
creencias", en el sentido de que "si el analista ha interpretado correctamente su evidencia,
esta es la forma en que las cosas realmente suceden o realmente sucedieron". La tesis
básica de los analistas del discurso es que no hay ninguna forma satisfactoria de establecer
explicaciones definitivas de la acción y la creencia, por lo que la cuestión constitutiva que
subyace a todas las formas de análisis debe sustituirse "por algo más apropiado a la
naturaleza de la evidencia sociológica". El análisis del discurso se presenta entonces como
alternativa al análisis de la acción social de los científicos. Se entiende por discurso a toda
forma de verbalización, todos los tipos de habla y todos los tipos de documento escrito. Y,
como todo lenguaje es relativo a un contexto o situación y una de las claves del éxito
lingüístico es la capacidad para controlar las variedades del propio lenguaje que son
apropiadas para usos diferentes, el discurso nunca puede tomarse simplemente como
descriptivo de la acción social a la que ostensiblemente se refiere. El problema o defecto
fundamental de todos los análisis de las creencias y las acciones de los científicos llevadas
a cabo por sociólogos es que sus datos consisten mayormente en afirmaciones obtenidas
en entrevistas con científicos o en sus descripciones escritas. Pero, dada la inmensa
variabilidad de las descripciones que los participantes dan de sus acciones, de las de otros y
de sus creencias, obligan al análisis de ese discurso en vez de tomarlo como un dato sobre
la acción. El discurso de los participantes es considerado como un tema y no como un
recurso.
Otra línea que surge, no ya como específicamente orientada al estudio de la
actividad científica sino como una apuesta sociológica más general es lo que se ha dado en
llamar ‘etnometodología’. Así, estudios etnometodológicos del trabajo de los científicos
forman parte de un programa de investigación etnometodológica más general. Para los
etnometodólogos, la actividad científica es una actividad mundana o cotidiana más y
comparte todas las características atribuidas por ellos a las prácticas situadas de la vida
social. Dado que la etnometodología es una estrategia de investigación dedicada a descubrir
y exponer los modos en que los actores sociales construyen el orden social en sus
actividades cotidianas y mediante prácticas situadas, los objetivos de las investigaciones
etnometodológicas sobre el trabajo de los científicos se centran en descubrir el problema del
orden social en la praxis científica, en los pormenores de las actividades cotidianas de los
científicos en su mundo, y tratan de hacer accesible a la investigación la actividad de los
científicos como una actividad organizada naturalmente. Al igual que todos los estudios del
programa etnometodológico, los del trabajo de los científicos tienen una preocupación
definida por la producción local del razonamiento y con su observabilidad, lo que significa
que el razonamiento se despliega en medio de órdenes de detalles especificables
intersubjetivamente: el orden de las expresiones habladas por los diferentes participantes en
una conversación, el orden composicional de los materiales manipulados en los laboratorios
o el orden transitivo de los materiales escritos en las páginas de un texto. Los estudios
etnometodológicos intentan elucidar estas estructuras en referencia a su uso como dominios
mundanos de conciencia, como estados temporalizados de proyectos razonados y como
cursos observables de movimiento corporal dirigido.
Como sucede en otras actividades prácticas de la vida social, en los manuales de
instrucciones, por ejemplo del trabajo en el laboratorio, no se proporcionan todos los
conocimientos necesarios para llevar a cabo la tarea prescrita en ellos, sino que queda un
algo más que es lo que posibilita al actor hacer frente a las contingencias y vicisitudes de su
actividad cotidiana. Es ese algo más lo que queda sujeto a la investigación
etnometodológica. En efecto, la actividad de los etnometodólogos consiste en describir
minuciosamente cómo a pesar de la falta de indicaciones precisas los científicos llevan a
cabo sus tareas y resuelven todos los problemas cotidianos imprevisibles en los manuales
mediante las “discusiones vernacularmente organizadas” y las rutinas incorporadas a la
investigación, mostrando una competencia no extraordinaria respecto a los hechos de la
vida cotidiana.
Así, en los últimos años los abordajes antropológicos han comenzado a producir una
perspectiva naturalizada de la ciencia como fenómeno contemporáneo y a partir de los ’80
comienza a delinearse un movimiento, la denominada “antropología de lo próximo”, que
apunta a analizar desde el punto de vista de la antropología algunas manifestaciones
cotidianas del presente (cf. Althabe, 1999a). El antropólogo puede desarrollar su perspectiva
específica a condición de respetar ciertas reglas por lo demás comunes al trabajo
antropológico en general (cf. Althabe, 1999b, p. 61). Sin embargo, la especificidad del objeto
de análisis (por ejemplo en la ‘etnografía de los laboratorios’) llama a reparar en elementos
diferentes, esto es, el peso del status gnoseológico del producto de la comunidad estudiada,
y las reglas epistémicas que lo legitiman:
“Entre los objetivos que guían los desarrollos de estos estudios encontramos el de hacer
comprender cómo es que la actividad científica es una actividad social, y mostrar, por
ejemplo, “cómo un hecho duro (hard fact) puede ser sociológicamente deconstruido”
(Isambert, F., 1985). En todo caso, mostrar que el hecho científico es construido no tiene
nada nuevo, pero sí pretender que es ‘enteramente’ construido. Esto último es lo que
postulan Latour y Woolgar (1979) cuando afirman que la referencia a una realidad
preexistente no tiene otro objetivo que la retórica para reforzar la posición del científico.
(...) queda así relativizado el peso que tradicionalmente se le atribuyó al contenido de
las teorías –y en este sentido resulta ajena la distinción contexto de descubrimiento y
contexto de justificación -, ya que no habría una instancia a la cual remitirse, tal como la
base empírica para validar un contenido en detrimento de otro.” (Filippa y Hernández,
1999, p. 71)
Efectivamente, los análisis que se basan en enfoques similares al planteado vienen a
sumarse al giro que la reflexión acerca de la ciencia viene desarrollando con mayor o menor
énfasis en las últimas décadas, pero asumiendo y reforzando un punto de vista relativista,
en germen ya en las ideas de Kuhn. Este giro puede enunciarse como una disolución de la
separación tradicional entre contexto de descubrimiento y un reconocimiento de la
relevancia de las condiciones de producción en el contenido de la teoría (cf. Filippa y
Hernández, 1999, p. 83). Tal disolución puede expresarse también como la renuncia a casi
toda forma de realismo, objetividad, neutralidad.
En los últimos años y como resultado de las líneas bosquejadas más arriba, más la
reflexión sobre la tecnología y su rol en las sociedades actuales, ha comenzado a
constituirse una campo interdisciplinar de reflexión sobre las relaciones entre ciencia,
tecnología y sociedad (CTS en español, STS en inglés) conocidos también como "estudios
sociales de la ciencia y la tecnología". Se trata de un extenso campo en el que convergen
diversas perspectivas disciplinares: sociología e historia de la ciencia, sociología e historia
de la tecnología, economía del cambio tecnológico, análisis de políticas científicas y de
innovación tecnológica, filosofía o teoría del conocimiento, estudios ambientales. Desde
todos ellos se pone el acento en la dimensión social de la ciencia y la tecnología sobre la
base del rechazo de la imagen estándar de la ciencia y la crítica a la concepción de la
tecnología como mera ciencia aplicada y neutral. Pero, además de la reflexión teórica sobre
la ciencia y la tecnología promotora de una nueva visión contextualizada, los estudios CTS
ha adquirido cierta influencia en al campo de la educación permitiendo la aparición en
muchos países de programas interdisciplinares de enseñanza. También en el campo de la
política los estudios CTS han defendido una activa participación pública en la gestión de la
ciencia y la tecnología, a través de la creación de mecanismo institucionales que permitan la
apertura de los procesos de toma de decisiones en cuestiones relativas a políticas científicotecnológicas.
5. RETÓRICA DE LA CIENCIA
En París estudiarás retórica y leerás a los poetas:
la retórica es el arte de decir bien lo que uno
no está seguro de que sea verdad (...)
(U. Eco, Baudolino)
La relación entre literatura y ciencia ha sido relativamente rica y,
principalmente, multifacética. En el contexto de la prevalencia de una distinción tajante
entre ambos campos, hay no obstante importantes ámbitos de intersección como la
ciencia ficción y la divulgación científica. Pero, hablar de retórica de la ciencia implica
algo más que mera relación o intersección y debe indagarse en una compleja
combinación de ideas y estudios que propiciaron su aparición. El derrotero seguido por
los debates dentro de la historia, la sociología y la filosofía de las ciencias, mostrando
entre otras cosas sus dificultades para dar cuenta de los problemas específicos de las
ciencias sociales (el círculo hermenéutico, la acción social, la racionalidad, etc.) e
incluso de su status científico, combinadas con la aparición de tendencias
metodológicas débiles como la etnometodología y, sobre todo, la expansión de las
propuestas postmodernas y el éxito alcanzado por los métodos de análisis utilizados
en la crítica literaria, llevaron a plantearse la posibilidad de utilizar estos mismos
métodos en el estudio del discurso científico. La retórica de la ciencia, pretende,
básicamente aproximar retórica y ciencia rompiendo con la idea, en verdad una visión
bastante estereotipada de la ciencia que no defiende casi ningún epistemólogo, según
la cual la ciencia consiste en un diálogo entre un sujeto objetivo y la naturaleza
siguiendo las normas estrictas del método científico.
“La literatura ha escuchado durante demasiado tiempo el implacable discurso "firme y
fijo" de la ciencia pegado a sus talones, forzándola a defensas cada vez más
extravagantes de su presunta debilidad e insustancialidad. Pero, si la ciencia no es ya el
simple lenguaje de la verdad, la literatura no necesita ser el lenguaje del capricho, la
imaginación, la ironía, la agudeza o la autorreferencia exclusiva. Apuntar la problemática
del lenguaje científico, observar que por ser científico no deja de ser lenguaje, es,
sencillamente, situar el lenguaje científico dentro del lenguaje. La comparación de
ciencia y literatura no tiene porque ser injusta en ningún sentido. La literatura no tiene
ningún control exclusivo de la imaginación, la expresividad, la persuasividad o la
creatividad; la ciencia no tiene ninguna patente sobre la verdad, la fiabilidad o la
funcionalidad. El investigador literario no tiene por qué estar más aislado del mundo que
el científico; las estanterías de la biblioteca no tienen más polvo que el banco del
laboratorio. Tanto la ciencia como la literatura tienen que ver con la verdad del mundo. Y
no son dos lenguajes —el lenguaje de la ciencia y el lenguaje de la poesía— sino uno, el
lenguaje de la humanidad.” (Locke, 1992 [1997, p. 264])
En el mismo sentido se expresa V. De Coorebyter (1994), señalando en el
prólogo a su libro que, según la imagen tradicional, la ciencia solo sostiene hechos,
cifras, leyes, etc., lo que equivaldría a la erradicación de la retórica e incluso podría
sugerir que el progreso científico está estrechamente conectado con la eliminación de
residuos retóricos y el distanciamiento de los sujetos concretos que hacen la ciencia y
sus situaciones específicas. Sobrevuela a la retórica de la ciencia la idea de que el
método científico, al igual que la imagen misma de la ciencia estándar, no serían más
que construcciones retóricas extremadamente eficaces y enormemente persuasivas,
como demuestra que hayan sido identificadas tan frecuentemente con la objetividad y
la racionalidad, pero que tienen poca relación con lo que las investigaciones históricas,
sociológicas y filosóficas sobre la ciencia y el trabajo de los científicos han ido
mostrando en los últimos años. La ciencia, en este sentido, ya no debería entenderse
como un dialogo entre sujetos objetivos y la naturaleza, sino como un dialogo entre
sujetos intencionales y comunidades, diálogo en el cual la evidencia misma es en
mayor o menor medida construida y aceptada retóricamente, tesis que no alcanzaría
solamente a las ciencias sociales, sino también a las ciencias naturales. De
Coorebyter analiza distintas ramas de la ciencia de forma diferenciada bajo el
supuesto de que en cada disciplina 'la retórica permanece irreductible en razón del
objeto de investigación', como señala en la introducción, lo que parece indicar que los
procedimientos y componentes retóricos varían según las especialidades científicas.
De Coorebyter (1994) mantiene un compromiso fuerte, sosteniendo que la retórica es
un componente fundamental e inevitable, casi constitutivo, de la ciencia y que es
necesario estudiar y analizar esas características retóricas para reconstruir la
racionalidad de la ciencia. En otras palabras, asumir esas características de la ciencia
no implica relativismo, ni anarquismo metodológico, por el contrario es posible
reconstruir la racionalidad interna que subyace a esos procesos retóricos.
Por su parte, Bauer (1992) intenta mostrar que ciencia natural y ciencia social
difieren significativamente en su forma de funcionar y en su grado de consenso y
acaba manteniendo que las ciencias sociales no deben considerarse ciencias.
Entre los defensores de la retórica de la ciencia hay distintos grados de compromiso
y de exacerbación de los elementos retóricos en el discurso científico. En primer lugar
aquellos que defienden la necesidad de construir una nueva imagen de la ciencia que
asuma los resultados de la filosofía de la ciencia reciente y de los estudios sobre ciencia y
tecnología, aceptando la importancia de los elementos retóricos de la ciencia, pero
manteniendo su carácter especifico y diferenciado como la mejor forma de conocimiento de
que disponemos. Autores como H. H. Bauer (1992) parten de la disparidad entre la imagen
de la ciencia presentada por la literatura científica corriente y lo que se sabe acerca del
trabajo de los científicos a la luz de los estudios CTS. En particular se muestra
especialmente crítico con el supuesto clásico de la existencia de un método científico tal
como se presenta en los libros de texto y en la divulgación y lo considera responsable de la
mayor parte de las concepciones erróneas y malentendidos creados en torno a la ciencia,
aparte del dogmatismo, la ignorancia científica y la deshumanización de la imagen
tradicional de la ciencia. Sostiene que el conocimiento científico es básicamente
conocimiento consensuado, aunque ello no implique que tales elementos sean arbitrarios.
Una posición similar defiende Fuller (1993) aunque rechaza el relativismo que surge de los
estudios CTS y los planteos radicales de retórica de la ciencia. Propone incorporarlos a su
propuesta de una epistemología social que consistiría en un estudio multidisciplinar de la
ciencia y que permitiría no solo describir y comprender, sino también evaluar y dirigir la
ciencia socialmente. Pera (1991), por su parte, sostiene que la ciencia pertenece al dominio
de la argumentación y no al de la demostración pero rechaza la interpretación radical de que
todo sea reducible a retórica entendiendo por tal el intento de probar mediante análisis
sociológicos, hermenéuticos o semióticos de textos que los hechos son solo palabras. Por el
contrario, considera que el discurso científico consiste en la interacción de tres elementos:
dos individuos (o un individuo y una comunidad) que debaten y la naturaleza que esta de
fondo. Acepta que el avance de la ciencia se basa en el acuerdo de los interlocutores acerca
de la respuesta de la naturaleza, pero mantiene que este acuerdo no es convencional ni
arbitrario. El consenso no es simplemente conversacional, sino que esta constreñido hasta
cierto punto por la naturaleza, sin que eso signifique que lo imponga. Es posible establecer
criterios para distinguir argumentos ‘mejores’ y ‘peores’ que permitan establecer un ganador
en el debate sobre la naturaleza. La ciencia mantiene su contenido cognitivo, aunque la
única forma de comprender ese valor cognitivo y reconstruir su racionalidad mínima seria
comprendiendo el discurso científico y reconstruyendo su estructura. Esto lo lleva a
distinguir entre retórica como acto de persuadir y dialéctica como lógica de la argumentación
persuasiva, aunque admite que ambas son inseparables.
Una versión más radical es la que prácticamente identifica ciencia con retórica
considerando que el discurso científico no presenta ninguna diferencia esencial con
otros tipos de discurso. La evidencia misma sería un texto, porque cuando menos
tiene que ser 'escrita' y 'leída' y, en ese sentido, es estrictamente retórica, como lo son
los individuos que dialogan. Un exponente de este punto de vista es D. Locke (1997).
En La ciencia como escritura sostiene que existe una tradición según la cual ciencia y
literatura son opuestas y una contratradición, que él mismo defiende, que asegura que
son afines. Ambas, tradición y contratradición, han sido defendidas desde la ciencia y
la epistemología como así también desde la literatura. Según Locke, entre ciencia y
literatura hay una similitud no reconocida por las versiones estándar de la filosofía de
la ciencia y de la crítica literaria:
“Sostengo que (...) todo texto científico debe ser leído, que es escritura, no una
taquigrafía verbal privilegiada, portadora de una verdad científica pura y simple. (...) Si,
entonces, el discurso científico es un dispositivo de persuasión, como la literatura lo es
de la ficción, ¿no se da un parentesco entre los dos cuerpos de discurso?.
Presumiblemente. Como dicen Latour y Woolgar en una nota final a Laboratory life,
‘nuestra discusión es un primer paso tentativo para esclarecer el vínculo entre ciencia y
literatura’. Latour y Woolgar y los otros nuevos sociólogos se han unido un tanto, quizás
precedidos, en su primer paso tentativo, por ciertos críticos literarios, muchos
historiadores de la ciencia y algunos científicos mismos, todos los cuales hablan no tanto
de las diferencias entre ciencia y literatura como de sus similitudes.” (Locke, 1993 [1997,
p. 11]
El trabajo de Locke posee algunos méritos innegables. En primer lugar por mostrar
que aun en los artículos científicos provenientes de disciplinas como la química hay
elementos retóricos. Cabe consignar que, en este sentido, la argumentación es bastante
forzada para los trabajos actuales de química, pero resulta más interesante y más clara en
otro tipo de textos como por ejemplo El origen de las especies16, también analizado. Cabe
16
El libro clásico de Darwin es considerado como una larga argumentación a saber:
“El cuerpo del libro está dividido en tres grandes secciones, cada una de las cuales consiste en cuatro
o cinco capítulos. En la primera de estas secciones, la confirmación, Darwin presenta el
funcionamiento detallado de su argumentación en el sentido de que la selección natural actúa sobre
pequeñas variantes individuales, por medio de la ‘lucha por la existencia’, para producir en última
instancia nuevas especies. Después, en los siguientes capítulos, la refutación responde a varias
objeciones a la teoría, en el sentido de que no podría dar cuenta de la producción de órganos de gran
señalar dos cuestiones que atañen a la elección- no casual por cierto- del texto clásico de
Darwin: en primer lugar su calidad de escritor y, en segundo lugar y más importante su
carácter revolucionario que obliga a emplear más y mejores estrategias retóricas que las
necesarias para los textos que surgen en periodos de ‘ciencia normal’. Además, Locke hace
un esfuerzo por mostrar que las distintas tradiciones de teoría literaria –incluso las que
prácticamente han sido abandonadas en la actualidad- pueden aplicarse al análisis de los
textos científicos:
“(...) 1) la teoría de la representación, que ve el texto literario esencialmente como una
representación del mundo real; 2) teoría de la expresión, que observa esa obra como
una expresión de los pensamientos y sentimientos de su autor; 3) teoría de la evocación,
que la valora como evocadora de respuestas por parte de sus lectores; 4) teoría del
objeto de arte, que juzga la obra como un objet d’art, interesante por sus propiedades
puramente formales; 5) teoría del artefacto, que sitúa la obra entre los sistemas
significantes que organizan, estructuran y constituyen de hecho el mundo; y 6) teoría de
la instrumentalidad, que coloca la obra entre los sistemas significantes que organizan,
estructuran y constituyen de hecho el mundo.
(...) nada en el instrumental crítico literario tiene que quedar per se fuera de los límites
del análisis de los textos científicos
Desde luego, cada una de las seis teorías revelará algo importante en relación con la
lectura de textos científicos: algo que los científicos necesitan conocer si la ciencia tiene
que proceder con una conciencia completa de su metodología; algo que el mundo de la
crítica literaria necesita conocer si tiene que comprender enteramente sus propias
modalidades de lectura y su radio de aplicabilidad; algo que todos aquellos que habitan
el mundo que la ciencia ha construido necesitan conocer si deben comprender ese
mundo y cómo funciona. Si hay dos culturas, ambas se entrecruzan. Y si el mundo debe
apreciar lo que la cultura científica está diciendo, y lo que está haciendo diciéndolo, debe
emplear los métodos de la cultura literaria para descubrir cómo lo está diciendo, y cómo
lo está haciendo.” (Locke, 1993 [1997, p. 42])
Con todo, el análisis de Locke, no resulta objetable por sostener que cualquier texto
científico puede ser analizado desde la crítica literaria y la retórica, aunque muchos de ellossobre todo los artículos más actuales- sean de una gran pobreza literaria. Pero la tradición
estándar a la que Locke hace referencia y que no reconocería ningún papel a los elementos
retóricos en la ciencia en la medida en que considera a ésta como una expresión neutra y
refleja de la realidad, constituida meramente por enunciados protocolares, no es más que
una versión sumamente estereotipada de la CH que prácticamente ningún especialista
defiende. La avalancha de críticas que esta tradición ha venido sufriendo y que puso de
relieve la necesidad de atender a los elementos contextuales, incluso las problemáticas de
la escritura científica y de la ausencia de neutralidad del lenguaje científico, así como
también la dependencia del lenguaje observacional de los marcos teóricos, abre la legítima
posibilidad de analizar los componentes retóricos de la ciencia pero, debe llamarse la
atención sobre pretensiones epistemológicas desmedidas de tal hallazgo. Tiene razón Locke
cuando señala que la literatura no tiene ningún privilegio de exclusividad sobre la
creatividad, la imaginación o la persuasividad, ni como contraparte que la ciencia no lo tiene
sobre su acceso a la verdad en un sentido absoluto y pleno; también tiene razón cuando
complejidad, como el ojo, etcétera. Finalmente, en una digresión, Darwin aporta un nuevo apoyo para
su teoría demostrando lo eficazmente que ésta da cuenta de la distribución de los seres en el tiempo
(según revelara la geología) y en el espacio (como mostrara la geografía), así como de gran cantidad
de hechos biológicos enigmáticos, como la existencia de órganos vestigiales. El argumento en la
confirmación es en gran medida un argumento a partir de causas eficientes; en la digresión, a partir
de consecuencias. El último capítulo se abre como una recapitulación del argumento entero y luego
pasa a una peroración afectada donde Darwin considera algunas de las implicaciones de su teoría.
Ésta culmina en el párrafo final que elabora la célebre metáfora darwiniana del ‘enmarañado ribazo’,
un símbolo de las interrelaciones complejas que observa entre la comunidad de las criaturas vivas. La
última frase, altamente recargada, que invoca tanto a Newton como al creador, proclama la
‘grandeza’ de su visión de la vida” (Locke, 1993, [1997, p. 124]).
señala que no hay en el fondo dos lenguajes- el de la ciencia y el de la literatura- sino uno
solo: el de la humanidad.
Sigue siendo legítimo el análisis que pueda hacerse sobre las estrategias narrativas
de los científicos, el carácter constitutivo de las metáforas científicas, la dimensión
hermenéutica de la constitución de conceptos de la investigación científica. Ahora bien, debe
quedar claro que 'descubrir' que el discurso científico no es un lenguaje neutro en el sentido
que la epistemología estándar exigía que refleje un mundo real autosubistente, no
necesariamente revaloriza la idea de que la ‘mente construye el mundo’ y, por otra parte, si
se trata, entre otras cosas, de analizar de qué modo juega la imaginación en la ciencia, lo
cual es absolutamente legítimo, analizar la retórica de la ciencia no dice nada sobre el
problema –que subsiste- de la relación entre ese tipo particular de lenguaje que es el
lenguaje científico y la realidad a que hace referencia.
6. LA IGUALDAD Y LA DIFERENCIA. La ciencia y los saberes
Los estudios literarios tradicionales parecían haber desarrollado cierto gozo por la
limitación de las metáforas al uso estético, probablemente porque la limitación comportaba
no sólo una distinción conceptual sino que también recortaba un ámbito de incumbencias
propio y excluyente. Por el lado de la epistemología estándar pretendían haber hecho
justicia: las metáforas simplemente no eran tomadas en cuenta. Hasta allí todos contentos:
los epistemólogos expulsando las molestas expresiones figuradas o sesgadas y buscando la
depuración extrema del lenguaje; el resto de los mortales -incluyendo los que defendían
versiones irracionalistas de la ciencia- gozando de las sobras a las que, sin embargo y en
muchos casos, pretendían considerar como las expresiones más elevadas de la humanidad.
En las últimas décadas el panorama ha ido cambiando. Por un lado los estudios sobre la
metáfora han desbordado el ámbito acotado de las reflexiones de retóricos y filósofos en
siglos pasados, superando esos límites disciplinares para convertirse en objeto de reflexión
de áreas de la psicología, la sociología, la antropología, la teoría de la ciencia e incluso la
inteligencia artificial. Pero, además, se ha ido configurando un clima propicio para que la
reflexión sobre el problema de la relación entre conocimiento y metáforas se intensifique en
el marco de los nuevos estudios sobre la ciencia: la crisis de la hegemonía teórica de la CH
fue revelando poco a poco la insuficiencia de considerar como única tarea relevante de la
epistemología la reconstrucción racional de las teorías y, al mismo tiempo, la necesidad de
atender a la relevancia epistémica del proceso de desarrollo y progreso de la ciencia. El
deterioro de las tesis fuertes de la CH, produce un giro en la reflexión sobre la ciencia que
comienza a tener en cuenta al sujeto que la produce, reconociendo que en las prácticas de
la comunidad científica, es decir en el proceso mismo (psico-socio-histórico), acontece la
legitimación, validación y aceptación del conocimiento producido.
Esta necesidad creciente de atender ya no tanto a los aspectos sincrónicos – es
decir de reconstrucción racional de las teorías-, sino también diacrónicos de la práctica
científica, posibilitó una suerte de reacomodamiento de incumbencias disciplinares,
básicamente en las líneas que teorizaban sobre la ciencia dentro de la sociología, la historia
y la antropología. Los llamados estudios sobre la ciencia de la actualidad, variados en
filiación y puntos de vista, surgen de esta encrucijada de perspectivas disciplinares y son el
resultado de largos debates que se precipitaron en las últimas décadas que pueden
resumirse como sigue: ha habido un gigantesco esfuerzo de la CH por desarrollar criterios
para esclarecer las diferencias y especificidades de la ciencia, criterios cuyo fracaso parcial
se explica, probablemente, por su misma rigidez y exacerbación, resultando así impotentes
para explicar la relación de la ciencia con otras prácticas humanas; como contraparte, los
desarrollos posteriores de la misma epistemología, la historia y la sociología de las ciencias,
revelando elementos concluyentes para exacerbar el papel de tales insuficiencias,
contribuyeron a disolver la especificidad y a mostrar en qué se parece la ciencia a otros tipos
de prácticas culturales. Unos fueron impotentes para entender las prácticas de los científicos
en lo que tienen de parecido con otras prácticas, otros lo son para dar cuenta de las
diferencias y especificidades. En este sentido, y aunque lo razonable apunte a la necesidad
de una teoría de la ciencia de perfil interdisciplinario, ha surgido una variada gama de
posiciones relativistas, irracionalistas, historicistas, retoricistas, o posmodernistas, que
apoyadas en el reconocimiento de que ya no es posible defender posiciones fuertes como la
CH y del relevante papel de los elementos contextuales no sólo en el ‘descubrimiento’, sino
también en la validación del conocimiento científico, han salido a impugnar la especificidad
cognoscitiva de la ciencia sosteniendo que ella es un saber entre saberes sujeto a los
mismos criterios de producción y legitimación que otros. Esta igualación hacia abajo se ve
apoyada por igual en el debilitamiento de las tesis fuertes de la versión estándar –los
requisitos de objetividad, neutralidad, intersubjetividad, distinción observación/teoría, etc.-;
en la detección de fuertes juegos de poder –político, ideológico, académico, etc.- en la
construcción de las afirmaciones de la ciencia; y en el señalamiento de la habitual invasión
de la ciencia por recursos retóricos, tales como las metáforas, que son tomadas
erróneamente como dato inequívoco de que no hay nada demasiado especial en la ciencia.
En este contexto, la tarea a emprender debería ser recuperar la diferencia en la
semejanza, para proporcionar una teoría de la ciencia que pueda dar cuenta del plus
cognitivo que tiene la ciencia (el producto terminado) al tiempo que responder a la agenda
de problemas sociológicos, históricos y filosóficos genuinos que conlleva. No hay nada de
malo en la estrategia tradicional de la filosofía de la ciencia de reconstrucción racional de
teorías si se tiene en claro que la misma no puede hacerse al modo de la versión estándar
de la CH, sino tomando en cuenta también los aspectos diacrónicos. En todo caso habrá
que considerar categorías de análisis más amplias y abarcativas. La forma propuesta aquí,
no la única por cierto, consiste en partir de la reconsideración de las cualidades cognitivas
de las metáforas más allá de los análisis meramente fenomenológicos provenientes de la
retórica y la teoría literaria.
Para finalizar y aunque el panorama expuesto en este capítulo es sumamente
exuberante y atravesado tanto por diferencias sutiles como también gruesas entre los
diferentes puntos de vista, vale la pena hacer algunos señalamientos que puedan aplicarse
a las versiones constructivistas y más fuertemente relativistas:
1. la disolución de la separación entre contextos no implica solucionar el problema que tal
distinción vino a querer, fallida y exacerbadamente en la CH, solucionar. Asistir al
desmoronamiento de las tesis fuertes de la CH no implica la resolución de la agenda
epistemológica y filosófica en general que ella ha generado y que le ha sobrevivido. En
efecto, el debilitamiento- justificado por cierto- de las perspectivas reconstruccionistas y
prescriptivas iniciales de la CH, jugó muchas veces a favor de la disolución de la
especificidad del discurso científico, ubicándolo como un saber entre saberes, o en un
entramado de redes de poder-saber y, en las versiones más extremas, reduciéndolo a
estrategias retóricas, pero no ha conseguido suplantar las versiones justificacionistas o
fundacionalistas por versiones más debilitadas e interdisciplinarias que puedan dar
cuenta de la especificidad epistémica de la ciencia. Si las primeras versiones de la CH
resultaron demasiado estrechas porque no podían dar cuenta de la relación entre la
ciencia como producto y la ciencia como proceso, por el contrario, disolver la distinción
entre contextos y renunciar a cualquier forma –aunque sea debilitada- de demarcación
adolece por ser un punto de vista demasiado amplio porque deja sin resolver genuinos
problemas filosóficos involucrados en la práctica científica.
2. aunque pueda discutirse la asimilación del funcionamiento de las comunidades
científicas a otros grupos dispares, el fenómeno de la ciencia parece más interesante
por lo que tiene de específico y diferente que por lo que tienen de similar. En los últimos
tiempos suele enarbolarse como consigna irreverente o distintiva la afirmación de que la
ciencia es un producto social17 y como consecuencia se sostiene que el objeto a
investigar por los estudios sobre la ciencia es la práctica social. Y no quedan dudas de
que la ciencia es una práctica social, pero no sólo resulta cuando menos equívoco el
17
“Todo es social” es el lema de Latour y Woolgar (1979)
concepto de ‘práctica social’ (cf. Ibarra y Mormann, 1997) sino que tanto desvelar los
vínculos interpersonales entre los científicos como establecer correlaciones positivas
entre teorías concretas y el contexto de producción no contribuye a solucionar problemas
básicos de la filosofía de la ciencia, tal como la forma en que las teorías se ajustan de
algún modo a un conjunto de experiencia disponible mejor que otras, es decir de su
relación con el mundo y la elección entre teorías.
3. las versiones sociológicas fuertemente relativistas, entre ellas la etnografía de
laboratorios, constituyen perspectivas importantes, legítimas y reveladoras, pero su
status epistémico se enfrenta a una encrucijada: si sólo puede dar cuenta, con mayor o
menor profundidad y sutileza, del entramado de relaciones al interior del
laboratorio/comunidad de científicos, será un punto de vista más del análisis institucional;
si, por el contrario, pretende llegar al fondo del análisis de la ciencia no puede evitar o
renunciar a la agenda epistemológica, sino que debe sobrellevar la carga de la prueba e
intentar responder mejor algunos de sus temas. El “análisis de las prácticas”, caballito de
batalla de las perspectivas constructivistas y relativistas, resulta, además de una
afirmación equívoca, una perspectiva, una perspectiva estrictamente pragmática
insuficiente para dar cuenta de los aspectos más puramente semánticos de las teorías.
Si bien puede reconocerse que es legítimo metodológicamente para el análisis
sociológico/antropológico considerar a la actividad científica bajo las mismas pautas que
otras actividades de grupo y, en ese sentido no hay ninguna razón para otorgarle un
estatus privilegiado, no parece razonable equipararla sin más a cualquier otra actividad
social. Y no sólo por su creciente importancia en el mundo actual a través de la
tecnología, sino por el producto que obtienen.
4. parece haber una tendencia en las corrientes sociológicas hacia los análisis cada vez
más circunscriptos, cada vez más microsociológicos. Es decir, una tendencia a pasar de
los ambiciosos intentos de ofrecer explicaciones causales para las creencias científicas o
formular leyes copiando a las de las ciencias naturales, a limitarse a dar meras
descripciones cada vez más microscópicas de los comportamientos y negociaciones de
grupos. Así no sólo se pierde de vista el análisis del producto de esos grupos, sino
además, que hay en la ciencia natural una suerte de estructura global que marca la
consistencia –con periodos de tensión claro está- y la interrelación entre las teorías.
5. Se comprende que en un campo en el cual se otorga creciente relevancia a las
negociaciones a través de ejercicios retóricos (y de otros tipos) y donde operarían
sustratos ocultos y misteriosos bajo la forma de conocimiento tácito, tradiciones de
diversas clases, etc., pueda reconsiderarse positivamente el papel que cumplirían las
metáforas. Pero se trata de una revalorización de la metáfora considerada siempre como
un recurso retórico y estilístico, es decir que la estrategia consiste en atacar las tesis
sobre la pureza y transparencia del lenguaje tradicionales con la tesis contraria de la
opacidad y carácter desviado del lenguaje, al tiempo que se le otorga a la metáfora una
serie de propiedades misteriosas e insustituibles de comprensión y captación. Este giro
puede caracterizarse como una suerte de literaturalización de la ciencia o una redución a
los aspectos retóricos de su comunicación. Si bien la línea de la retórica de la ciencia
parece el camino más directo para resolver la relación entre metáfora y ciencia, se
considerará tal tentación como un punto de vista demasiado parcial y reduccionista si no
directamente equivocado; y la equivocación no procede de pretender utilizar las
herramientas propias del análisis literario para analizar el discurso científico lo cual
resulta perfectamente legítimo, sino de pretender que ese recurso resulta idóneo porque
no hay diferencia apreciable entre ambos discursos como no sea que el científico es más
pobre estéticamente. La metáfora, en esta línea, es vista principalmente desde el lado de
la literatura y no desde el de la ciencia y mucho menos como uno de los mecanismos
constitutivos del conocimiento.
CAPITULO 3
EPISTEMOLOGÍA Y EVOLUCIÓN
La metáfora en marcha
Mucho más que una simple construcción gramatical o
figura de dicción. La metáfora es una forma de
saber, una de las más antiguas, de más hondo arraigo e,
incluso indispensable,
en la historia del conocimiento reflexivo humano.
(Nisbet, Cambio social e historia)
Si ha de atribuirse a las metáforas un papel fundamental en la construcción y
validación resulta ineludible hacer referencia a una serie de preguntas: ¿es posible considerar
la generación de metáforas como uno de los mecanismos básicos para proveer conocimiento
sobre el mundo y aun de la producción misma del lenguaje?; o incluso ¿por qué hacemos
metáforas?; ¿puede considerarse la generación de analogías o detección/construcción de
semejanzas, de las cuales las metáforas epistémicas serían un subconjunto, como una regla
epigenética?. Se trata de problemas que atañen al funcionamiento de los mecanismos
cognitivos y, aunque hay algunos intentos de responder a este tipo de preguntas, desde las
ciencias cognitivas y desde las gnoseologías evolucionistas entre otras, el estado actual de la
cuestión no parece permitir conclusiones consolidadas. Sin embargo, aun puede avanzarse
bastante sobre otro grupo de problemas que propios de la historia y la filosofía de la ciencia
que pueden abordarse de manera independiente a las cuestiones señaladas más arriba. En este
sentido, el objetivo principal de este capítulo es delinear una epistemología evolucionista que
considere a la noción de 'metáfora epistémica' como la unidad de selección. Si la propuesta
resulta adecuada se podrá contar con un instrumento idóneo para abordar la historia de la
ciencia desde un punto de vista evolucionista y con categorías para el análisis filosófico de la
ciencia. Tales instrumentos y categorías permitirían un abordaje exitoso, si se permite la
expresión, fenomenológico de la ciencia y su desarrollo diacrónico sin necesidad de pensar
que los mecanismos de generación de analogías y metáforas constituyan partes
consustanciales del aparato cognoscitivo.
1. LA NATURALIZACION DE LA EPISTEMOLOGÍA
Si bien puede asistirse en las últimas décadas al florecimiento parcial de las
epistemologías y gnoseologías orientadas evolutivamente, la relación más fuerte entre una
disciplina científica particular y la epistemología, históricamente se ha dado con la física
antes que con la biología. Ya desde el siglo XVII, pero en especial desde Kant en adelante,
toda reflexión epistemológica lleva la impronta de un modelo de cientificidad basado en la
física moderna. De hecho las ciencias sociales del siglo XIX consolidan su papel en
Occidente a partir de la invocación de la paternidad de la física; la filosofía de la ciencia de
fines del siglo XIX y principios del siglo XX encuentra una de sus raíces más profundas en
las crisis de la física y la matemática; basta dar una recorrida por la literatura epistemológica
estándar para notar que intenta apoyarse en el uso estratégico de ejemplos tomados
fundamentalmente de la física. Parece sencillo encontrar post hoc, una serie de buenas
razones de distinto orden para dar cuenta de esa supremacía: sobre todo el papel
fundamental que le cupo en la conformación y desarrollo de la Revolución Científica, a partir
de su íntima relación con la matemática, la posibilidad de conformarse como un sistema
deductivo, sus éxitos asociados con la astronomía y quizá principalmente su versatilidad
para constituirse según un modelo mecanicista del universo. Los éxitos y desarrollos en los
siglos siguientes reforzaron esta posición inicial. Como quiera que sea la instalación en un
lugar de privilegio epistémico así como la pérdida del mismo no constituyen una respuesta a
condiciones de mérito o demérito meramente internas de la disciplina, sino que se trata, más
bien de una cuestión epistemológica. De hecho la física ha producido en el siglo XX la física
cuántica y la física relativista, pero estos desarrollos inéditos van de la mano de un paulatino
abandono de su lugar de modelo de cientificidad. La disolución de los postulados fuertes de
la CH fue mostrando la imposibilidad de aplicar criterios de cientificidad canónicos
provenientes de la física, ya sea porque no se aplicaban a, eran irrelevantes para, no eran
verdades de o no tenían equivalentes en, otras áreas de conocimiento y quizá, algunos
tampoco pudieran cumplirse en la misma física.
En el contexto de la institucionalización de la filosofía de la ciencia hacia comienzos
del siglo XX, la física funcionó bien mientras lo que se buscaba era un modelo fuertemente
prescriptivista, sincrónico y formal de la cientificidad, pero cuando fue necesario explicar el
desarrollo diacrónico de la ciencia en un proceso irreversible y que se da no ya en sistemas
cerrados - los sistemas de enunciados- sino en sistemas interrelacionados con el medio - las
comunidades científicas, los sujetos concretos que hacen ciencia, etc.- se hizo necesario un
modelo de cientificidad dinámico diferente. Hay que agregar a ello la profundización del
proceso de alejamiento de la física de la experiencia cotidiana hasta limites insospechados e
inabordables en términos de escalas y percepciones humanas para ser utilizada como
modelo de una actividad como la producción de conocimiento. Ya no sirve como modelo de
la misma envergadura además de ponerse en cuestión aspectos que en los modelos
mecanicistas que funcionaron hasta mediados del siglo XIX eran signos de una capacidad
superior: predicción, matematización, exactitud, reversibilidad y control. Sin duda, también
resultaron fundamentales los éxitos de la biología evolucionista, constituida ya en el siglo XX
en teoría sintética de la evolución más los espectaculares desarrollos de la genética y la
biología molecular. Una cuestión no menor es que, en este contexto fue haciéndose cada
vez más patente el carácter peculiar de la biología, como campo de conocimiento cuyas
incumbencias se ubican en un área de intersección entre las llamadas ciencias naturales en
el sentido más estricto (por ejemplo la biología molecular), y las ciencias sociales en tanto
búsqueda de fundamentos biológicos –muchas veces con un optimismo desmedido en
cuanto a su resultado- para las conductas y organizaciones sociales. Esta doble pertenencia
de los saberes biológicos se manifiesta en las conexiones directas o indirectas (reales,
imaginarias, ideológicas o potenciales) que los trabajos en muchas áreas de la biología
establecen con las condiciones sociales de producción, legitimación, reproducción y
circulación del conocimiento y con las prácticas y puesta en marcha de tecnologías sociales.
El panorama en el cual la biología suplanta epistemológicamente a la física se
completa con un giro probablemente decisivo: la propuesta de naturalización de la
epistemología, que conduce de un modo natural a ámbitos científicos como la psicología, las
ciencias cognitivas, la neurofisiología y la biología evolucionista.
Una consecuencia radical de la tesis del fracaso de las posiciones fundacionalistas
clásicas, es la propuesta de Quine acerca de la naturalización de la epistemología,
considerando, en oposición a la epistemología prescriptivista o normativista tradicional, el
conocimiento humano puede ser estudiado como cualquier otro fenómeno natural y, por lo
tanto, la ciencia misma debería ser el instrumento adecuado para su abordaje:
“Pero ¿por qué toda esta reconstrucción [se refiere a las ‘reconstrucciones racionales’]
creadora, por qué todas estas pretensiones?. Toda la evidencia que haya podido servir,
en última instancia, a cualquiera para alcanzar su imagen del mundo, es la estimulación
de los receptores sensoriales. ¿Por qué no ver simplemente cómo se desarrolla en
realidad esta reconstrucción? ¿Por qué no apelar a la psicología?. Una tal entrega de la
carga epistemológica a la psicología es un paso que en anteriores tiempos no estaba
permitido por su condición de razonamiento circular. Si el objetivo del epistemólogo es
validar los fundamentos de la ciencia empírica, el uso de la psicología o de otra ciencia
empírica en esa validación traiciona su propósito. Sin embargo, estos escrúpulos contra
la circularidad tienen escasa importancia una vez que hemos dejado de soñar en deducir
la ciencia a partir de observaciones. Si lo que perseguimos es, sencillamente entender el
nexo entre la observación y la ciencia, será aconsejable que hagamos uso de cualquier
información disponible, incluyendo la proporcionada por estas mismas ciencias cuyo
nexo con la observación estamos tratando de entender.” (Quine, 1969, [1986,p. 101])
No habría, según Quine, una filosofía anterior para explicar la ciencia, lo cual implica
una modificación sustancial en cuanto a los ámbitos de incumbencia:
“(...) yo veo a la filosofía no como una propedéutica a priori o labor fundamental para la
ciencia, sino como un continuo con la ciencia. Veo a la filosofía y a la ciencia como
tripulantes de un mismo barco- un barco que, para retornar, según suelo hacerlo a la
imagen de Neurath, sólo podemos reconstruir en el mar y estando a flote en él. No hay
posición de ventaja superior, no hay filosofía primera. Todos los hallazgos científicos,
todas las conjeturas científicas que son plausibles al presente, son, desde mi punto de
vista, tan bienvenidas para su utilización dentro de la filosofía como fuera de ella”.
(Quine, 1969, [1986, p. 162])
La epistemología naturalizada rechaza supuestos tales como la existencia de
fundamentos últimos para nuestras creencias acerca del mundo y rechaza también la
búsqueda de criterios absolutos de conocimiento o de justificación, que puedan ser
especificados y validados a priori. Este planteo representa, obviamente, un giro importante
con relación al modo prescriptivo de concebir la epistemología, ya que ésta no podría
ubicarse en tanto naturalizada, más allá de los marcos conceptuales con relación a los
cuales se construye la ciencia, sino que se encuentra dentro de ellos. La tesis es que el
programa fundacionalista, de raigambre cartesiana pero con múltiples versiones, ha
fracasado (Cf. Jaegwon Kim, 1994, Kornblith, 1994), y no por ser un proceso incompleto o
inacabado, sino que la objeción en este punto es radical: el punto de vista fundacionalista ha
fracasado porque se ha planteado preguntas imposibles de responder. La propuesta de
Quine apunta al reemplazo (Kornblith, 1994) de la epistemología fundacionalista por la
ciencia (psicología) empírica18, aunque de hecho la propuesta de Quine excede por su
propia índole el estricto marco de la psicología empírica como parte de la ciencia natural. En
efecto, la epistemología naturalizada permite desarrollar una agenda mucho más amplia en
la cual pueden tener cabida todos los planteos que consideren a la ciencia como objeto de
estudio empírico abordable desde diversas disciplinas y que vayan más allá de los análisis
logicistas; que considere que el conocimiento científico es producido, aceptado y justificado
por seres humanos reales en interacción con un medio natural, social y cultural. La puerta
para que los aspectos estrictamente cognitivos y de validación inherentes a la actividad
científica sean abordados por la ciencia misma había quedado abierta. El planteo quineano,
entonces, es naturalmente ampliable a los abordajes epistemológicos desde la biología, la
historia o la sociología. Así, las llamadas epistemologías evolucionistas, deben incluirse
dentro del espectro más amplio de las epistemologías naturalizadas19. El desarrollo y
refinamiento posterior de las sugerencias iniciales de Quine condujeron a la combinación
con una propuesta más general, que apunta a considerar que los seres humanos, incluso
sus facultades cognitivas, son entidades naturales que interactúan con otras entidades
18
Sobre las consecuencias escépticas de la propuesta de Quine cf. Stroud, 1984.
J. Sánchez Navarro (1994) sostiene que la diferencia entre todas estas formas de hacer
epistemología se puede centrar en tres puntos: “a) la disciplina científica a que se conceda más
importancia, aun asumiendo también las otras (psicología, biología, etc.); b) la relación que mantienen
con la epistemología clásica: sustitución, complementariedad o dependencia y c) el status que
conceden al sujeto del conocimiento: individual, social o sin sujeto cognoscente”.
19
naturales y que los resultados de las investigaciones científicas naturales de los seres
humanos son relevantes y pertinentes para la empresa epistemológica. (Shimony, 1987a,
van Fraassen, 1987).
La vinculación especial entre evolución biológica y conocimiento ha dado lugar a
distintas líneas de trabajo, constituyendo una campo lo suficientemente heterogéneo como
para conspirar contra cualquier intención de establecer una taxonomía que pueda agrupar a
todas las versiones y que al mismo tiempo respete sus especificidades. No obstante, una
clasificación o división que puede ser útil para delimitar problemas es la que establece M.
Bradie (1994), al diferenciar entre dos programas bien definidos: el EEM y el EET20. Mientras
que el primero está abocado a dar cuenta de las características de los mecanismos
cognitivos en animales y humanos mediante una extensión directa de la teoría biológica de
la evolución al aparato cognitivo (cerebro, aparato perceptual, aparato motor, etc.), el
segundo intenta explicar la evolución de las ideas y teorías científicas según el modelo de la
evolución biológica. La distinción de Bradie es útil porque marca con claridad los diferentes
tipos de problemas que pueden abordarse desde consideraciones evolutivas: los aspectos
del desarrollo ontogenético, filogenético e histórico del conocimiento; pero su utilidad se
limita si se pretende ubicar a los autores o las propuestas concretas que ellos hacen, ya sea
porque algunos abordan ambos programas como así también porque algunos reconocen la
relevancia de alguno de ellos pero le quitan todo sustento al otro. De hecho, muchos de los
defensores de EEM niegan entidad a EET o bien adoptan un criterio reduccionista o, en los
casos más prudentes consideran que los problemas de EET son externos y ajenos a EEM.
Asimismo, buena parte de los defensores de EET pretenden encontrar fundamento y
continuidad en alguna versión de EEM. Aquí se adoptará una clasificación algo diferente,
denominando ‘gnoseología evolutiva’ (GE) lo que, grosso modo, Bradie llama programa
EEM y ‘epistemología evolucionista’ (EE) a un conjunto algo más complejo y heterogéneo
que incluye puntos de vista de autores que o bien defienden ambos programas
simultáneamente o se encuentran clara y exclusivamente en el EET de Bradie. Una breve
digresión con relación a los términos utilizados será conveniente: en adelante se usará
‘evolutivo/a’ cuando se trata de calificar, o hacer referencia a los procesos naturales en sí
mismos, vale decir coincidiendo con un lenguaje científico o de nivel 1. En cambio se
reservará ‘evolucionista’ y más propiamente ‘epistemología evolucionista’ (EE) como
concepto epistemológico, es decir de nivel 2, para designar las teorías epistemológicas o
puntos de vista, que hagan referencia o utilicen modelos de la biología evolutiva para la
descripción de los procesos del desarrollo de la actividad científica21.
4. LA EPISTEMOLOGIA EVOLUCIONISTA
La EE considera el desarrollo a través de la historia del contenido del pensamiento
humano y no meramente de la función y capacidades humanas en la evolución biológica.
Este desarrollo se concibe como un decurso que se puede describir y comprender según el
modelo de la evolución biológica. La idea de explicar los desarrollos históricos y sociales a
partir de modelos biológicos es bastante antigua, pudiendo rastrearse antecedentes hasta el
20
Ruiz y Ayala (1998) agregan un tercer grupo (EEP) a los propuestos por Bradie. Este tercer
programa se basa en la indagación de los procesos mentales, es decir que toma en cuenta los
métodos de pensamiento y sostienen que ellos son el resultado de la selección natural. M. Ruse
(1986) defiende la tesis de que hay diferencias en cuanto a procesos mentales, y de que tales
diferencias provocan a su vez que los individuos tengan mayor o menor adecuación, de modo que los
procesos mentales influirían en la selección natural como otras características de los organismos.
21
El término ‘evolutivo/a’ en el contexto de la epistemología aparece muy ligado a la psicología
genética de J. Piaget. Por otra parte no parece necesario recurrir al neologismo ‘evolucionario/a’, a
pesar de que resulta bastante común que en el inglés se utilice “evolutionary” (o en el alemán
“evolutionär”) y tal término sirva para jugar con la oposición con ‘revolucionario’.
siglo XIX –H. Spencer o T. H. Huxley22- pero aquí se tratará tan sólo de los intentos que se
han dado en las últimas tres o cuatro décadas, analizando planteos diferentes agrupables
bajo el rótulo de EE. Básicamente una EE construye una metáfora epistémica de la teoría de
la evolución biológica y, en ese sentido debe contener cuando menos tres elementos
básicos: en primer lugar un mecanismo que permita introducir la variación y la novedad; en
segundo lugar dispositivos de selección entre las variantes disponibles; y en tercer lugar
formas o mecanismos de transmisión de las variantes seleccionadas. En las secciones
siguientes se analizarán algunas de las versiones más significativas en EE, señalando
algunos de sus problemas con el objetivo de ir delineando una propuesta superadora.
4.1. S. Toulmin. La evolución conceptual en la historia
La metáfora evolucionista construida por Toulmin intenta dar cuenta básicamente de
una historia de las ciencias considerada relevante epistemológicamente, aunque no
renuncia a la búsqueda de criterios de racionalidad generales. La tesis básica de Toulmin es
que las disciplinas científicas son como las poblaciones biológicas en evolución, es decir
como especies. En este sentido, una disciplina científica, no debe ser considerada como los
contenidos de un libro de texto en una fecha determinada, sino como una materia en
desarrollo a través del tiempo y se caracteriza “tanto por su proceso de crecimiento como
por el contenido de cualquiera de sus secciones históricas”. La identidad a través del cambio
de una disciplina científica es análoga a la identidad a través del cambio de una especie
biológica. A partir del modelo evolucionista sostiene que el desarrollo conceptual dentro de
una disciplina científica consiste en la selección natural que opera sobre un conjunto de
variantes conceptuales. Se preocupa por señalar que no se trata de una simple forma de
hablar, o metáfora o analogía, sino que efectivamente el pensamiento científico se desarrolla
siguiendo un patrón evolutivo. La reconstrucción racional del desarrollo científico en su
conjunto resulta una suerte de ecología intelectual, de modo tal que la filosofía de la ciencia
es a la historia de la ciencia lo que ecología es -en la biología evolucionista- a la filogénesis
(ver tabla 2). El contenido de una disciplina, de acuerdo con Toulmin, se adapta a dos
circunstancias ambientales diferentes: los problemas intelectuales que enfrenta la disciplina
y las situaciones sociales de quienes la practican. Las nuevas ideas surgen a medida que
los científicos intentan resolver racionalmente las dificultades conceptuales con las cuales se
enfrente su disciplina, aunque con mucha frecuencia esas nuevas ideas se verán
influenciadas por las demandas institucionales y por los intereses sociales en pugna. Es por
ello que explicar el surgimiento de ideas innovadoras para Toulmin implica considerar tanto
las razones como las causas. Sin embargo, una vez que se instalan esas variaciones, es
necesario poner atención a los procesos causales a través de los cuales se seleccionan y
preservan las variaciones. La historia efectiva de la ciencia, entonces, debe dar cuenta tanto
de los procesos de selección de las ideas y conceptos de acuerdo a las normas intelectuales
de la comunidad de científicos, como así también del proceso de selección de acuerdo con
las demandas sociales, procesos ambos que pueden funcionar tanto de manera
complementaria como antagónica en momentos diversos.
22
Podría considerarse un epistemólogo evolucionista en general a Spencer (cf. Ruse, 1986) aunque
un antecedente en los mismos términos considerados aquí puede encontrarse en el pensamiento de
Huxley (1893): “La esencia del espíritu científico es el criticismo. Éste nos dice que siempre que una
doctrina nos pida nuestro asentimiento debemos replicar: lo tendrás si puedes hacerlo inevitable. La
lucha por la existencia tiene lugar tanto en el mundo intelectual como en el físico. Una teoría es una
especie de pensamiento, y su derecho a existir es coextensivo con su poder de resistir la extinción
por sus rivales” (citado en Ruse, 1986 [1987,p. 56])
TABLA 123: EVOLUCION DE LAS ESPECIES Y EVOLUCION DE CONCEPTOS
Pregunta
Respuesta
Evolución de las especies
Filogénesis Ecología
¿de qué
¿Qué secuencia de
sucesión de respuestas a presiones
precursores del entorno hizo que la
desciende
especie adquiriese su
esta
forma actual?
especie?
Un árbol
Aplicación de la teoría
genealógico de la selección natural
Cambio conceptual
Historia de la ciencia
Filosofía de la ciencia
¿De qué sucesión de
¿Qué secuencia de
conceptos precursores
respuestas a presiones
desciende este conjunto disciplinares hizo que
de conceptos?
surgiese este conjunto de
conceptos?
Historia de una
disciplina científica
Una reconstrucción racional
del desarrollo científico
Tanto las innovaciones como así también las reglas de selección son productos
históricos y de allí la relevancia epistemológica de la historia de las ciencias. Cualquier
tentativa de descubrir o formular normas de evaluación inviolables y ahistóricas está
destinada al fracaso. Esas normas o procedimientos también están sujetos a la evolución
histórica. En el modelo de Toulmin las teorías adaptadas son las que sobreviven, pero esta
adaptación –como no podía ser de otra manera- siempre es relativa al contexto. Además, la
adaptación actual a las presiones ecológicas tiene éxito sólo si se consigue un equilibrio
entre la adaptación a las condiciones presentes y la conservación de la capacidad de
responder creativamente a futuros cambios de esas condiciones. Tomarse en serio la
metáfora evolucionista implica enfatizar las 'consideraciones ecológicas' en el desarrollo
conceptual. De hecho un sistema conceptual puede seguir teniendo éxito por su flexibilidad
frente a condiciones intelectuales cambiantes o bien, si es poco flexible puede ser exitoso en
una entorno ecológico invariable. Dado que el éxito es tanto una cuestión de adaptabilidad
futura como presente, la única norma independiente del contexto es la referida al equilibrio
entre adaptación presente y futura.
Analicemos ahora con algo más de detalle el paralelo entre evolución orgánica y
evolución conceptual queestableceToulmin según cuatro tesis principales:
1. uno de los principales problemas de la biología es explicar el origen y la evolución
de las especies. Debe explicar las razones por las cuales se encuentran tantas especies
definidas y separadas dentro de poblaciones de seres vivos en continua variación, y también
cómo las especies existentes en una época, en lugar de perder su carácter distintivo inicial,
pueden transformarse en otras formas igualmente distintas o dividirse en poblaciones
sucesoras separadas, todas las cuales tienen el carácter distintivo de especies diferentes
(Cf. Toulmin, 1970 [1977,p. 146]). El paralelo epistemológico de esta tesis aparece en la
necesidad de explicar la coherencia y la continuidad por las que se identifican las disciplinas
como distintas (el equivalente a la existencia de especies definidas) y los cambios a largo
plazo por los que dichas disciplinas se transforman o son superadas (el equivalente de la
aparición de nuevas especies).
2. La respuesta darwiniana se basa fundamentalmente24 en la selección natural: "un
proceso dual de variación y perpetuación selectiva". El equivalente epistemológico para este
aspecto está dado por la proliferación de novedades intelectuales que surgen en toda
disciplina o área de estudio vigente y la selección según la cual sólo unas pocas de esas
novedades conquistan un lugar firme en la disciplina y son transmitidas a las generaciones
siguientes.
3. Con todo, el mecanismo de la selección natural resulta condición necesaria pero no
suficiente para inaugurar una línea de especiación. Es necesario además que haya suficiente
‘presión selectiva’. Del mismo modo ocurre, según Toulmin, en la evolución conceptual.
Sólo puede darse si hay producción constante de variaciones sobre las que se ejerza una
presión de selección más o menos fuerte. Así, en un proceso cuasi popperiano:
23
Los dos cuadros de esta sección fueron extraidos de Losee, 1987.
Es necesario señalar que Darwin contemplaba otros procesos como el de la "selección sexual",
además de la selección natural. En este sentido Toulmin muestra un Darwin hiperseleccionista.
24
“(...) deben existir ‘foros de competencia’ dentro de los cuales las novedades
intelectuales puedan sobrevivir durante un tiempo suficiente para mostrar sus méritos o
defectos, pero en el cual también son criticadas y escudriñadas con suficiente severidad
como para mantener la coherencia de la disciplina.” (Toulmin, 1970 [1977,p. 148])
4. La última tesis de Toulmin se refiere, en la biología, a que las variantes se
perpetúan, o cuando menos sobreviven un tiempo relativamente prolongado si están
suficientemente adaptadas:
“(...) la palabra ‘adaptación’ simplemente se refiere a la efectividad con la que diferentes
variantes hacen frente a las ‘exigencias ecológicas’ del ambiente particular (...) La
competencia y las exigencias ecológicas son nociones correlativas; cuando los
individuos ‘compiten’, está implícita alguna medida comparativa del ‘éxito’ por la que el
‘ganador’ logra más éxito que el ‘perdedor’. En la competencia darwiniana esta medida
es la prueba de la reproducción: las formas ‘exitosas’ tienen más representantes en las
generaciones posteriores. En correspondencia con esto, las exigencias ecológicas de un
medio determinan los requisitos locales para el ‘éxito’ evolutivo: el término ‘exigencias’
concentra la atención en aquellos factores que dentro de este ‘nicho’ influyen en las
oportunidades de cualquier variante nueva de contribuir a la progenie de generaciones
posteriores." (Toulmin, 1970 [1977,p. 149])
El paralelo en el campo de la evolución conceptual se da, según Toulmin a través de
una ‘ecología intelectual’: el proceso de selección disciplinaria elige y acepta aquellas de las
novedades en competencia que mejor satisfacen las exigencias del medio intelectual local.
Estas exigencias comprenden los problemas inmediatos que cada variante conceptual está
destinada a abordar y también los otros conceptos ya consolidados con los que debe coexistir.
Así, entre los elementos que intervienen en la evolución orgánica y la evolución conceptual
podría establecerse el siguiente paralelo:
TABLA 2: LA METÁFORA EVOLUCIONISTA DE TOULMIN
Unidad de estudio:
Consta de:
Unidades de variación:
Unidades de modificación
efectiva:
Mecanismo de selección
Evolución orgánica
Especie
Organismos individuales
Formas mutantes dentro de la
población en t1
Las variantes de t1 dominantes en la
población en t2
Presión reproductiva diferencial
Cambio conceptual
Disciplina científica
Conceptos, métodos, objetivos
Variantes conceptuales dentro de la
disciplina en t1
Las variantes de t1 dominantes dentro
de la disciplina en t2
Necesidad de una comprensión más
profunda
Una muestra de que la epistemología evolucionista dista mucho de ser una campo
homogéneo, es la crítica que Toulmin le hace a Kuhn con respecto a su visión de la historia de
la ciencia como una sucesión de ‘ciencia normal’ y ‘ciencia revolucionaria’. La polémica
puede resumirse como la oposición entre revolución y evolución, o, dicho de otro modo, entre
una concepción de la historia como una sucesión de pequeños cambios acumulados y otra
como una historia de cambios cualitativos radicales. Para Toulmin, tanto en el desarrollo de la
ciencia como en el de la política –a propósito de la analogía kuhneana sobre las revoluciones
en ambos ámbitos- la diferencia entre cambio normal y cambio revolucionario es sólo de
grado. Los cambios extendidos y profundos, tanto en la ciencia como en otras áreas no son el
resultado, según Toulmin, de ‘saltos’ repentinos, sino de la acumulación de pequeñas
modificaciones, cada una de las cuales ha sido selectivamente perpetuada en alguna situación
problemática local e inmediata.
Haciendo referencia al cambio que Kuhn habría introducido en su posición a partir de
sus tesis más fuertes (Kuhn, 1962) Toulmin (1975) realiza un paralelo con un episodio de la
historia de la geología: las disputas entre las dos corrientes paleontológicas más influyentes del
siglo XIX en Francia, el ‘catastrofismo’ (defendido por Cuvier en Francia y luego por Louis
Agassiz en Inglaterra) y el uniformitarismo (de J. Hutton y Ch. Lyell).
“(...) la teoría de las catástrofes subrayaba las profundas discontinuidades que se
encontraban en la geología y la paleontología. Partiendo de una observación real y
general de las discontinuidades geológicas, llegó a insistir en que estas discontinuidades
mostraban claramente la existencia de procesos ‘supranaturales’, es decir, cambios
demasiado repentinos y violentos para ser explicados en términos de procesos físicos y
químicos. Los uniformitaristas por su parte atribuían los cambios geológicos y
paleontológicos a agentes de acción gradual constante que han sido exactamente los
mismos en cada fase de la historia de la Tierra.” (Toulmin, 1975, p.160)
Pero la resolución de esta disputa entre teorías no tuvo lugar por un cambio
revolucionario o brusco en el cual una es desechada sin más y la otra triunfa de manera total y
absoluta, sino cuando los geólogos y paleontólogos uniformistas reconocieron que algunos
cambios de los cambios en el pasado del planeta habían ocurrido más drásticamente de lo que
hasta entonces suponían –las ideas uniformitaristas se hicieron más catastrofistas-, y
paralelamente las ideas catastrofistas evolucionaron en sentido opuesto, cuando Agassiz encontró
que sus estudios lo obligaban a multiplicar el número y reducir la dimensión de las catástrofes
que había de invocar para explicar los sucesos geológicos. Kuhn, sostiene Toulmin se separó de
su posición original en la misma dirección en que Agassiz se separa de la teoría original de
Cuvier.
Vale la pena un breve digresión en este punto. Uno de los problemas clave de la
historiografía de la ciencia está constituido por la indagación con respecto a la secuencia y
patrones de desarrollo de la ciencia a través del tiempo. Varias respuestas se han dado,
comenzando con los modelos estáticos o ahistóricos que piensan la historia del conocimiento
humano como revelación. Las versiones más antiguas proceden de los relatos míticos, en
general asociados con la idea de un pasado glorioso, pero también algunas versiones
premodernas de la historia del conocimiento se hallan impregnadas de este punto de vista.
Aunque este modelo en sus formas clásicas tiene muy poca importancia para la actual historia
de las ciencias, pueden encontrarse sin embargo reminiscencias del mismo en aquellas
historias que consideran el progreso de la ciencia como producto de la actividad de genios
aislados que a través de iluminaciones súbitas realizan meramente una tarea de descubrimiento de una realidad que está allí totalmente independiente de los sujetos que conocen
y que sólo espera pasivamente ser explicada. A partir de la modernidad los modelos de
análisis comienzan a ser de desarrollo como por ejemplo el modelo acumulativo o de
crecimiento, según el cual, hay una acumulación incesante de conocimiento. De hecho el
planteo de Diderot y el plan de la Enciclopedia responden a este modelo de crecimiento, al
igual que las ideas de A. Comte y W. Whewell. Una alternativa la constituye el modelo
revolucionario que tiende a considerar los cambios en la ciencia como discontinuidades o
rupturas, a veces cambios profundos y abarcativos, más que como acumulación.
Evidentemente el alcance, magnitud, cantidad y periodicidad de las revoluciones difiere entre
los autores. A. Koyre, resulta un claro ejemplo al entender la llamada ‘revolución científica’
del siglo XVII, como la revolución cultural más profunda desde la Grecia clásica, y cuya
esencia consiste en la aplicación de las matemáticas al estudio de la naturaleza, tal como
ejemplifican los trabajos de Galileo. No obstante, es el Kuhn de La Estructura de las
Revoluciones Científicas quien propone una versión epistemológica de las revoluciones
científicas en una versión mixta del modelo, según el cual la ciencia se desarrollaría a través
de periodos de relativa estabilidad y crecimiento acumulativo, la ciencia normal, y periodos
de cambio radical en los cuales hay sustitución lisa y llana de un paradigma por otro no sólo
incompatible sino también inconmensurable, es decir las crisis seguidas de las revoluciones
científicas. Finalmente aparecen las versiones evolucionistas. Para el caso particular
deToulmin es necesario señalar que la metáfora que él establece se basa en una versión
estrictamente gradualista y seleccionista25 de la teoría de la evolución con su paralelo en la
evolución conceptual. De hecho no es la única versión de la biología evolucionista pero,
además:
• La historia de la ciencia se parece más a una combinación de cambios de detalle con cambios
más profundos y radicales sin seguir patrones de secuencias más o menos fijos y la polémica
revolución/evolución parece ociosa.
• Pero también resulta ociosa la polémica al interior de la EE, ya que este modelo funciona
tanto para los cambios revolucionarios como para los cambios considerados de detalle o
acumulativos.
4.2. K. Popper. Una filosofía evolucionista
Popper ha mantenido un vínculo estrecho y peculiar con la Teoría de la Evolución (Cf.
Popper, 1974). Si bien la utiliza profusamente, en principio mantuvo una actitud muy crítica
calificándola de “programa metafísico de investigación” y llamando la atención acerca de que
“la afirmación de que sobreviven los más aptos es circular o simplemente una tautología, por lo
que carecería de apoyatura empírica”. Sin embargo, a partir de sus obras de fines de los años
’60, modificó su actitud y, al tiempo que intentó encontrar una versión ‘no tautológica’ de la
Teoría de la Evolución, comenzó a utilizar lo que llamó un ‘enfoque evolucionista’ pero que
no es ni más ni menos que una verdadera filosofía evolucionista. Esta suerte de giro
biológico en el pensamiento de Popper constituye, a mi juicio, más que un cambio, un
intento de unificación de sus tesis del '34. En este mismo sentido se expresa Bartley:
"Se podría presentar el pensamiento popperiano anterior a 1960 como un incremento de
temas: sus nuevos fundamentos para la lógica y su obra sobre el indeterminismo en
física, sus contribuciones a la teoría de la probabilidad, todo ello podría presentarse
como elaboraciones de su temprana obra sobre inducción y demarcación. Su nueva obra
en filosofía de la biología, sin embargo, más que agregar temas, unifica todo el conjunto.
La manera en que la biología integra su pensamiento se puede ver en su nueva
formulación del problema central de la epistemología: “La tarea central de la teoría del
conocimiento es comprender a éste como una continuación del conocimiento animal; y
comprender también sus discontinuidades -si las hay- con el conocimiento animal.”
(Bartley, 1982, p. 255)
El nuevo punto de vista viene entonces a arrojar una luz nueva sobre los mismos
problemas y a intentar evitar algunas de las objeciones que había recibido acerca de los
mecanismos de incremento de conocimiento. Al mismo tiempo representa un enfoque
abarcador y amplio, con el cual aborda diferentes niveles de análisis:
1. en el ámbito propiamente epistemológico, le sirve para explicar el desarrollo y el
progreso de la ciencia;
2. en el campo más amplio de la teoría del conocimiento, para criticar al empirismo y
proponer su propia teoría, según la cual el conocimiento en general, es parte del
proceso adaptativo de los humanos;
3. la evolución biológica, de acuerdo con la biología evolucionista, aunque proponiendo
algunas modificaciones a la teoría de la evolución habida cuenta de algunos desajustes
observados en la analogía utilizada; y
4. a través del concepto de ‘evolución emergente’, construye una verdadera ontología que
da sustento a los otros niveles de análisis: la teoría de los ‘tres mundos’.
25
Según Ayala (1998) esta es una toma de posición innecesaria por parte de Toulmin.
4.2.1. la teoría de los tres mundos
La postulación por parte de Popper de una ‘epistemología sin sujeto cognoscente’
(tal es el título de una ponencia presentada al ‘Tercer Congreso Internacional de Lógica’ del
año 1967 y publicada luego en Conocimiento Objetivo -Popper, 1972) es el resultado de su
teoría de los tres mundos26, una verdadera ontología que contempla:
“(...) primero, el mundo de los objetos físicos o de los estados físicos; en segundo lugar,
el mundo de los estados de conciencia o de los estados mentales, o quizás, de las
disposiciones comportamentales a la acción; y en tercer lugar, el mundo de los
contenidos de pensamiento objetivo, especialmente, de los pensamientos científicos y
poéticos y de las obras de arte.” (Popper, 1970 [1988, p. 106])
Estos estadios representan, además de la estructura misma de la realidad, el orden
de aparición de los mismos en el devenir temporal a través de los distintos ‘estadios de la
evolución cósmica’. El mecanismo que rige la aparición de estas etapas es la ‘evolución
emergente’, que conlleva como elemento esencial la ‘aparición de novedades’ y algún
mecanismo de restricción a tales novedades.
Resulta intersante y necesario hacer aquí una breve digresión. ‘Emergentismo’ se ha
denominado a las doctrinas de autores como por ejemplo S. Alexander, Ll. Morgan, W.
Wheeler, H. Bergson y otros. Estas doctrinas están conectadas a la pretensión de explicar la
variedad, diversidad y novedad de los fenómenos sin recurrir a modelos de explicación
mecanicistas, vitalistas o reduccionistas. Afirman, en general, que cada nivel del ser (esto es
materia, vida y conciencia) presenta respecto del anterior alguna cualidad irreductible, es
decir elementos que no son continuos con lo que fue antes. La posición de Popper parece
implicar una especie de aceptación-rechazo de la reducción, que depende de su idea de
‘emergencia’. Cuando menos analíticamente, habría que distinguir un concepto
sustancialista u ontológico de emergencia de otro meramente cognitivo o metodológico.
Según el primer punto de vista, las múltiples y diferentes estructuras que ocurren en el
universo entero (incluido el mundo de lo orgánico) constituyen una larga cadena de ‘niveles’
en la cual cada uno presupone al anterior. Estos niveles son mutuamente irreductibles, dado
que presentan rasgos cualitativamente nuevos, inesperados sobre la base de los niveles
más bajos. Aquí, la emergencia aparece como una característica intrínseca de los nuevos
hechos y eventos. Éstos no constituyen una mera suma de elementos preexistentes, sino
que son únicos e irrepetibles, de modo que no pueden ser explicados sobre la base de los
hechos ya conocidos. Las críticas más fuertes a este punto de vista, y que separan
polarmente ambas formas de reduccionismo, provienen, básicamente, de posiciones como
las de la CH en general y del empirismo lógico en particular, que defienden la posibilidad de
un ‘reduccionismo’ fuerte. Hempel, entre otros, insiste en la necesidad de eliminar la
“errónea idea de que ciertos fenómenos tienen una misteriosa cualidad de inexplicabilidad
absoluta” (Hempel, 1953, p. 335). La emergencia, sostiene, no es una propiedad de los
objetos, estados, procesos y entidades, sino una propiedad de los conceptos y leyes de la
ciencia, por lo cual dependen del status de las teorías y el lenguaje científico. No hay
referente ontológico objetivo para la emergencia, sino que ella depende del poder explicativo
y predictivo de las teorías en el campo específico de cierta ciencia. Sólo indica el alcance de
nuestro conocimiento. Según este modo de ver las cosas, sólo se puede hablar
metodológicamente de emergencia relativa, en el sentido de que cierta propiedad que
parece emergente en términos de alguna teoría puede no ser emergente con respecto a
contextos teóricos diferentes. Ellos admiten la emergencia de las leyes y teorías en el
lenguaje de la ciencia, es decir la presencia de nuevos e impredecibles conceptos y leyes en
el conocimiento científico, sólo en la medida en que ellos no sean considerados
intrínsecamente nuevos, sino vistos como no reducibles a los sistemas estándar de leyes y
26
Popper utilizó en un principio la denominación ‘tercer mundo’ y luego la cambió por una expresión
con menos connotaciones políticas y económicas: ‘mundo3.
teorías. Popper critica esta teoría de la emergencia metodológica basada sobre el supuesto
de un reduccionismo ontológico, sosteniendo la idea de “un progreso sin reducción”. Como
quiera que sea, la posición de Popper en este respecto resulta peculiar. Explícitamente
señala su rechazo al emergentismo ontológico, y resulta antes bien un intento crítico de
ofrecer un enfoque racional de la evolución emergente que evite lo pernicioso del
reduccionismo, dado que el mismo es, para Popper, un sinónimo de inductivismo y
determinismo. (Cf., entre otros, “Sobre Nubes y relojes” en Popper 1970 [1988]; 1977, cap.1;
1974, # 37 a 39 ).
“Cuando utilizo la idea confesadamente vaga de ‘evolución creadora’ o ‘evolución
emergente’, pienso al menos en dos tipos distintos de hechos. En primer lugar, está el
hecho de que en un universo en el que en un momento no existiesen otros elementos
(según nuestras teorías actuales) más que, digamos, el hidrógeno y el helio, ningún
teórico que conociese las leyes que entonces operaban y se ejemplificaban en este
universo podría haber predicho todas las propiedades de los elementos más pesados
que aún no habían surgido, ni podría haber predicho su emergencia, por no hablar de
todas las propiedades incluso de las más simples moléculas compuestas, como el agua.
En segundo lugar, parece haber como mínimo las siguientes etapas en la evolución del
universo, algunas de las cuales producen cosas con propiedades que son
completamente impredictibles o emergentes: 1) La emergencia de los elementos más
pesados (incluyendo los isótopos) y la emergencia de cristales y líquidos. 2) La
emergencia de la vida. 3) La emergencia de la sensibilidad. 4) La emergencia (junto con
el lenguaje humano) de la conciencia del yo y de la muerte (o incluso del córtex cerebral
humano). 5) La emergencia del lenguaje y de las teorías acerca del yo y de la muerte. 6)
La emergencia de productos de la mente humana como los mitos explicativos, las teorías
científicas o las obras de arte.
Podría resultar útil (...) disponer algunos de estos estadios de la evolución cósmica en la
siguiente tabla:
Mundo 3 (los productos de la mente (6) Obras de arte y de ciencia (incluyendo la
humana
tecnología)
(5) Lenguaje humano. Teorías acerca del yo y
de la muerte
Mundo 2 (el mundo de las experiencias (4) Conciencia del yo y de la muerte
subjetivas)
(5) Sensibilidad (conciencia animal)
Mundo 1 (el mundo de los objetos (2) Organismos vivos
físicos)
(1) Los elementos más pesados; líquidos y
cristales
(0) Hidrógeno y helio
(Popper, 1977 [1993, p. 18]).
Los distintos niveles, desde el más elemental del hidrógeno y el helio (nivel 0) hasta
el último de las obras de arte y de la ciencia (nivel 6) constituyen, cada uno, una novedad
respecto del nivel anterior. Este modelo de ‘evolución cósmica’ sirve de fundamento, en la
óptica popperiana, para la explicación del desarrollo científico, no solamente porque los
productos científicos constituyen parte de uno de sus niveles, sino porque en ambos
sistemas (en el cósmico general y en el de las ‘conjeturas y refutaciones’ propias de la
ciencia) existe un isomorfismo fundamental: ambos funcionan sobre la base de la ‘novedad’
(de carácter emergente) y restricciones a la novedad.
Popper está interesado en desarrollar principalmente la idea del mundo3, en el cual
se encuentra principalmente el conocimiento científico, de modo tal que reconoce una
diferencia fundamental entre el conocimiento o pensamiento en sentido subjetivo
(perteneciente el mundo) 2 y el conocimiento o pensamiento en sentido objetivo, es decir los
'problemas, teorías y argumentos en cuanto tales". Se trata de un mundo 'en gran medida
autónomo' a pesar de ser, en el fondo, un producto derivado del mundo 2.
“Una gran parte del tercer mundo objetivo de teorías, libros y argumentos actuales o
posibles, surgen como subproducto involuntario de los libros y argumentos realmente
producidos. También podemos decir que es un subproducto del lenguaje humano. El
propio lenguaje es, como el nido de un pájaro, un subproducto involuntario de acciones
orientadas a otros fines (...) De este modo puede surgir todo un nuevo universo de
posibilidades o potencialidades- un mundo en gran medida autónomo. (...) La idea de
autonomía es fundamental para mi teoría del tercer mundo: aunque sea un producto
humano, una creación del hombre, a su vez crea, como otros productos animales, su
propio campo de autonomía” (Popper, 1970, [1988, p. 115/6])
“(...) sugiero la posibilidad de aceptar la realidad o (como también puede decirse) la
autonomía del tercer mundo y, a la vez, admitir que éste se constituye como producto de
la actividad humana. Incluso se puede admitir que el tercer mundo es un producto
humano a la vez que sobrehumano en un sentido muy claro. Trasciende a su productor.”
(Popper, 1970 [1988, p.152])
Este mundo3 resulta objetivo cuando menos en dos sentidos relacionados pero
diferentes: por un lado, en un sentido casi ‘antropológico’, la objetividad del tercer mundo
consiste, para Popper, en la concreción de los contenidos de la mente humana, sea en
forma de obras de arte, edificios, teorías científicas o sistemas políticos; pero, por otro lado y
en un sentido epistemológico, la objetividad derivada del realismo epistemológico y
correlativamente, la convicción de que es posible construir un conocimiento al margen de las
determinaciones individuales y sociales. Este último aspecto recibirá una solución peculiar:
una suerte de objetividad institucional apoyada en la mecánica de las conjeturas y
refutaciones. Así, la objetividad lejos de ser un producto de la imparcialidad del científico
individual, es le resultado del carácter social o público del método científico; por ello, la
imparcialidad del científico individual, es, en todo caso, no la fuente sino el resultado de esta
objetividad social e institucionalmente organizada de la ciencia. El conocimiento se
desarrolla mediante la interacción entre nosotros y el tercer mundo, existiendo una estrecha
analogía entre el crecimiento del conocimiento y el crecimiento biológico; es decir, la
evolución de animales y plantas. (Cf. Popper, 1970 [1988,p. 107 y sig.])
4.2.2 la teoría popperiana de la evolución
Todos los epistemólogos evolucionistas intentan establecer ciertas analogías de mayor
o menor compromiso ontológico y mayor o menor meticulosidad entre la teoría de la evolución
darwiniana y la evolución conceptual, el desarrollo de las teorías o el conocimiento en general.
No se trata de un mero recurso expositivo o didáctico, sino que ambos tipos de procesos son
explicados por la misma teoría porque tanto la evolución biológica como la del conocimiento,
son procesos adaptativos. El conocimiento es adaptación y, en este sentido Popper expresa
una continuidad entre GE y EE, pero con un giro peculiar: el modelo ‘original’ es su concepción
del conocimiento, sobre cuya base, pretende reconstruir o retocar la misma teoría de la
evolución27 aun en aspectos que establecen fuertes tensiones cuando no directamente
incompatibilidad con la teoría biológica aceptada y reconocida por la comunidad científica.
Como ya seseñalara más arriba, a la desconfianza inicial acerca de la teoría de la
evolución, el Popper de los ’60 imprimió un giro de su pensamiento que lo llevó a encarar
una estrategia doble dirigida a un mismo fin: por un lado intentó presentar una teoría de la
evolución no tautológica y por otro introducir un elemento teleológico fuerte en la misma. El
modelo no teleológico de evolución representa, para los intereses de Popper, un problema
que puede ser enunciado como sigue: el carácter profundamente revolucionario del aporte
darwiniano se patentizó en la expulsión de la teleología de la naturaleza; pero, si se lo utiliza
como modelo, surge entonces la dificultad de pretender explicar un proceso que, en principio
27
A este respecto, Ruiz y Ayala (1998, p. 112) señalan, a mi juicio y por lo menos en cuanto a Popper
se refiere, equivocadamente, que "tanto Popper como Campbell toman el modelo biológico de
evolución y lo llevan a la evolución de las ideas, sino que hacen un círculo completo, regresan de la
evolución conceptual a la evolución biológica y hacen propuestas de modificación de la teoría
evolutiva a partir de lo encontrado en la evolución conceptual".
aparece como teleológico (el de la ciencia), mediante un modelo no teleológico28 (el de la
Teoría de la Evolución). La estrategia argumental de Popper se dirige a plantear una teoría
de la evolución teleológica sabiendo que “puede ser muy objetable para la mayoría de los
biólogos que crean que las explicaciones teleológicas en biología son tan rechazables, o casi,
como las teológicas” (Popper, 1970, [1988,p. 246]):
“Así, la actividad, las preferencias, la habilidad y las idiosincrasias del animal individual
pueden influir indirectamente sobre las presiones selectivas a las que está expuesto y
con ello influir sobre el resultado de la selección natural (...) Los cambios evolutivos que
comienzan con nuevos patrones de comportamiento (...) no sólo hacen más
comprensibles muchas adaptaciones, sino que revisten los objetivos y propósitos
subjetivos del animal de un significado evolutivo.” (Popper, 1977 [1993,p. 14]).
“El problema a resolver es el viejo problema de la ortogénesis versus mutación
accidental e independiente –el problema de Samuel Butler de la casualidad o la astucia.
Surge de la dificultad de comprender de qué modo puede resultar de la cooperación
puramente accidental de las mutaciones independientes un órgano complicado como el
ojo.
Brevemente, mi solución al problema consiste en la hipótesis según la cual en muchos,
si no en todos, los organismos cuya evolución plantea este problema- tal vez haya que
incluir algunos organismos de una escala muy baja- podemos distinguir más o menos
tajantemente, al menos, dos partes distintas: grosso modo, una parte que controla la
conducta, como el sistema nervioso central, y una parte ejecutiva, como los órganos de
los sentidos y las piernas, junto con sus estructuras sustentadoras.” (Popper, 1970
[1988,p. 250])
En el mismo sentido Popper propone introducir la idea de ‘monstruo comportamental’
en contraposición con la de monstruos anatómicos, es decir individuos dotados de diferencias
de índole estructural sumamente significativas respecto de sus progenitores o de la media de
su especie. Las características ‘monstruosas’ en este último sentido generalmente son letales
para el organismo. En cambio el monstruo comportamental, según Popper, tendría diferencias
significativas respecto de la media de su especie pero su comportamiento no necesariamente
lo llevaría a la muerte. La conducta novedosa podría así tener significado evolutivo, en la
medida en que, por ejemplo:
“(... ) el interés por ver puede fijarse con éxito genéticamente, convirtiéndose en el
elemento rector de la evolución ortogenética del ojo; hasta las menores mejoras en su
anatomía pueden ser valiosas selectivamente si la estructura propositiva y la de destreza
las utilizan suficientemente.” (Popper, 1970 [1988, p.258])
Interesa aquí, más allá de las objeciones que desde el punto de vista de la biología
pueden hacerse (Cf. Ruiz y Ayala, 1998, p. 112), remarcar la intención de Popper de dar una
versión teleológica de la teoría de la evolución otorgando un papel fundamental a las
intenciones de los organismos. Los esfuerzos de Popper en esta línea, pueden explicarse
principalmente por dos factores: por un lado, y en un doble juego de legitimaciones teóricas,
porque el modelo original es el epistemológico de las conjeturas y refutaciones que después es
extrapolado a las otras instancias, inclusive la de la biología; y por otro lado, por la explicación
dualista popperiana respecto del problema mente-cuerpo.
4.2.3 conjeturas y refutaciones (el desarrollo de la ciencia)
Según Popper, la obtención de conocimiento procede según el mecanismo de
‘ensayo y error’ o lo que es lo mismo ‘conjeturas y refutaciones’, el "procedimiento más
28
Es una cuestión aun debatida la direccionalidad de la evolución y también la idea de progreso
aplicada a lo biológico, aunque en líneas generales debe reconocerse la ruptura que el darwinismo
marca con respecto a los modelos teleológicos de la naturaleza en su conjunto como así también con
planteos como el lamarckiano.
racional" (Cf. Popper, 1970). Pero este mecanismo de conjeturas y refutaciones no es
privativo del modo particular que los humanos de los últimos tres o cuatro siglos tenemos de
explicar el mundo, sino que resulta un caso particular – mediado por “el descubrimiento griego
del método crítico”- de un mecanismo que se encuentra en la naturaleza misma de lo viviente:
“El método del ensayo y error, por supuesto, no es simplemente idéntico al enfoque
científico o crítico, al método de la conjetura y la refutación. El método del ensayo y error
no sólo es aplicado por Einstein, sino también, de manera más dogmática, por la ameba.
La diferencia reside, no tanto en los ensayos como en la actitud crítica y constructiva
hacia los errores; errores que el científico trata, consciente y cautelosamente de
descubrir para refutar su teoría con argumentos minuciosos, basados en los más
severos tests experimentales que sus teorías y su ingenio le permitan planear.
Puede describirse la actitud crítica como el intento consciente por hacer que nuestras
teorías, nuestras conjeturas, se sometan en lugar nuestro a la lucha por la supervivencia
del más apto. Nos da la posibilidad de sobrevivir a la eliminación de una hipótesis
inadecuada en circunstancias en las que una actitud dogmática eliminaría la hipótesis
mediante nuestra propia eliminación.” (Popper, 1963 [1989,p. 79]).
Para Popper todos los aspectos biológicos en general y de la vida humana en particular
pueden ser vistos como procesos de adaptación, que se dan no solamente en el nivel genético,
sino también en el conductual y en el del conocimiento científico29, a través de un proceso de
instrucción y selección:
“Podemos distinguir entre tres grados de adaptación: la adaptación genética, el
aprendizaje conductista adaptativo, y el descubrimiento científico, que es un caso
especial de aprendizaje conductista adaptativo. (...) (Pero hay una) similitud fundamental
de los tres niveles (...) el mecanismo de adaptación es en lo fundamental el mismo (...)
La adaptación comienza a partir de una estructura heredada que es básica para los tres
niveles: la estructura genética del organismo. A ella corresponde, al nivel conductista, el
repertorio innato de los tipos de comportamiento de que dispone el organismo, y al nivel
científico, las conjeturas o teorías científicas dominantes. Estas estructuras son siempre
transmitidas por instrucción en los tres niveles, por medio de la duplicación de la
instrucción genética codificada a los niveles genético y conductual, y por tradición social
e imitación a los niveles conductual y científico. En los tres niveles, la instrucción procede
de dentro de la estructura. Si ocurren mutaciones, variaciones o errores, éstos son
instrucciones nuevas, que también surgen de dentro de la estructura, y no de fuera del
medio (...) La siguiente es la etapa de selección entre las mutaciones y variaciones
disponibles: las de los nuevos juicios tentativos que están mal adaptados quedan
eliminadas. Esta es la etapa de eliminación del error.(...) La eliminación del error, o de
las instrucciones de prueba mal adaptadas, también se llama selección natural: es una
especie de ‘realimentación negativa’, y opera en los tres niveles”.
(...) Resumiré ahora mi tesis. A los tres niveles que estoy considerando, genético,
conductual y científico, estamos operando con estructuras heredadas que nos han sido
legadas por instrucción; sea mediante el código genético, sea por tradición. A los tres
niveles, surgen nuevas estructuras y nuevas instrucciones mediante cambios de prueba
de dentro de la estructura: por pruebas tentativas que están sujetas a la natural selección
o eliminación del error.” (resaltado mío) (Popper [1985, p. 156 y ss.])
En suma, es posible señalar que hay unidad, orden y continuidad en las relaciones
entre los tres niveles. Hay unidad porque los tres niveles operan de modo similar, es decir
mediante instrucción y selección; hay, además, un orden en cuanto a su emergencia temporal,
tanto desde un punto de vista filogenético como ontogenético -el orden filogenético implica por
su parte dos órdenes distintos, a saber: uno del cual da cuenta la teoría de los tres mundos que
ya fue tratado y el otro representado por la evolución conceptual a través de la historia que se
abordará luego; por su parte, el orden desde el punto de vista ontogenético supone el planteo
29
Un planteo similar puede encontrarse en Campbell, 1999 y en Oeser, 1984.
de una teoría del conocimiento); y por último, hay continuidad entre los niveles, ya que cada
uno presupone al anterior.
Algunas observaciones pueden hacerse según lo dicho:
• se invierte el camino más habitual de la epistemología evolucionista, ya que Popper echa
mano de su concepción gnoseológica o epistemológica para proponer un modelo de
evolución biológica.
• ¿es posible pensar la muerte de un individuo y aún de una especie como un error?. Perder
en la lucha por la supervivencia parece ser sólo eso: perder (y morir). Pero un error es
cometido por un sujeto determinado que no ha obedecido alguna de las reglas establecidas
por la lógica o el lenguaje, o bien de las relaciones entre algunas de esas y la experiencia.
• mientras la evolución biológica es no direccional y contingente, el desarrollo de la ciencia y
la aparición de novedades en la actividad científica no parece ser aleatoria prácticamente
en ningún caso. Los intentos de imprimirle un sesgo teleológico a la teoría de la evolución
apuntan a diluir esta objeción fuerte.
4.2.4 teoría del conocimiento (desde un punto de vista evolucionista)
Popper representa claramente una suerte de continuidad entre lo que aquí se ha
denominado GE y EE. Su concepción de los organismos como solucionadores de problemas
y la unidad del mecanismo de ensayo y error para todo lo viviente así lo muestran:
“De la ameba a Einstein, el desarrollo del conocimiento es siempre el mismo: intentamos
resolver nuestros problemas, así como obtener, mediante un proceso de eliminación,
algo que se aproxime a la adecuación en nuestras soluciones provisionales.” (Popper,
1970 [1988, p. 241])
Es conocido el antiempirismo hiperbólico y militante de Popper y el ‘enfoque
evolucionista’ le permite proponer una teoría del conocimiento que se construye en
oposición a la teoría del conocimiento del sentido común –el empirismo en general-, pero
sobre todo al empirismo del Círculo de Viena y sus variantes subjetivistas, como así también
al idealismo. Niega que nuestro conocimiento se obtenga mediante información recibida a
través de los sentidos y que tal información sea fundamento del conocimiento. Así, señala
que “tal vez el error central sea suponer que nuestra misión es lo que Dewey ha
denominado la búsqueda de la certeza” (Popper, 1970 [1988,p. 67]) sobre la base de la
percepción. Y respecto de la posibilidad de que la percepción sea el origen del
conocimiento:
“En otras palabras nuestro conocimiento subjetivo de la realidad se compone de
disposiciones innatas que van madurando”. Creer que nuestro conocimiento comienza y
se funda en lo dado sólo es una ilusión basada en “nuestra increíble eficacia como
sistemas biológicos (...) Casi todos nosotros somos eficaces observando y percibiendo.
Pero este problema hay que explicarlo recurriendo a teorías biológicas y no se puede
tomar como base para ningún tipo de dogmatismo sobre el conocimiento directo,
inmediato o intuitivo.” (Popper, 1970 [1988, p. 68]8)
Desde el punto de vista evolucionista, la crítica al empirismo, está dirigida
fundamentalmente a mostrar que la teoría de la tábula rasa es pre-darwinista, y estableciendo
un paralelo entre el darwinismo como enfoque crítico (que opera mediante “instrucción desde
adentro” de la estructura) y por el otro el enfoque de tipo lamarckiano asimilándolo al
inductivismo en tanto opera con “instrucción desde fuera”30 (desde el ambiente):
30
Nótese que se trata aquí de una interpretación algo parcializada de la teoría lamarckiana, según la
cual, si bien es cierto que los individuos responden a necesidades provocadas por el ambiente, la
evolución se basa en todo caso en un impulso vital –interior- de los individuos a adaptarse. Es
precisamente a este aspecto teleológico del lamarckismo que se opone Darwin.
“Afirmo que todo animal ha nacido con expectativas o anticipaciones que pueden
tomarse como hipótesis; una especie de conocimiento hipotético. Afirmo, además, que
en este sentido poseemos determinado grado de conocimiento innato del cual partir,
aunque sea poco fiable. Este conocimiento innato, estas expectativas innatas crearán
nuestros primeros problemas, si se ven defraudadas. Podemos decir, por tanto, que el
ulterior desarrollo del conocimiento consistirá en corregir y modificar el conocimiento
previo.” (Popper, 1970 [1988, p. 238])
Y aun más:
“(...) no existe nada que pueda llamarse ‘instrucción desde fuera’ de la estructura, o
recepción pasiva de una afluencia de información que se imprima en nuestros órganos
sensorios. Todas las observaciones están impregnadas de teoría: no existe una
información pura, libre de teorías, desinteresada. La objetividad descansa en la crítica,
en la discusión crítica y en el examen crítico de los experimentos (...) el 99,9 % del
conocimiento de un organismo es heredado o innato y sólo una décima parte consiste en
modificaciones de dicho conocimiento innato. Sugiero también que es innata la
plasticidad precisa para estas modificaciones. De aquí se sigue el teorema fundamental:
Todo conocimiento adquirido, todo aprendizaje, consta de modificaciones (posiblemente
de rechazos) de cierto tipo de conocimiento o disposición que ya se poseía previamente
y, en última instancia, consta de disposiciones innatas(...). Todos los órganos sensoriales
incorporan genéticamente teorías anticipatorias (...) todos nuestros sentidos están de
este modo impregnados de teoría.” (resaltado mío) (Popper, 1970 [1988, p. 65 y ss.])
4.3. T. Kuhn. De la ausencia de teleología a la especiación
Dar cuenta de la inclinación evolucionista de Kuhn conlleva dos problemas
insalvables: la primera referencia, de 1962 (en las últimas páginas de La estructura de las
revoluciones científicas), es tan solo didáctica o ilustrativa, lo cual torna irrelevante una
análisis más o menos riguroso; y la segunda, de 1990 (en “The Road since Structure”), es
tan solo un esbozo a propósito del anuncio de un libro que nunca se publicó. De cualquier
modo ambas referencias son inequívocas y permiten un abordaje diferenciado con respecto
a otros autores.
4.3.1. teleología y verdad
En La estructura de las revoluciones científicas (Kuhn, 1962) hay una referencia a la
teoría darwiniana de la evolución a propósito de un sugestivo comentario: casi ha concluido el
libro y todavía no se ha hablado en él de la noción de ‘verdad’. Según la visión tradicional del
progreso científico a través de la historia, la verdad es la meta última, sea que se confíe en
alcanzarla, sea que se la postule como una suerte de idea regulativa, operante aunque sea
inalcanzable. Kuhn se pregunta si es indispensable que exista la verdad como meta y si no es
más factible explicar la ciencia y sus éxitos en términos de evolución a partir del estado de
conocimientos de una comunidad en un momento determinado. Señala que si se pudiera
sustituir la-evolución-hacia-lo-que-deseamos- conocer por la evolución-a-partir-de-lo-queconocemos, “muchos problemas difíciles desaparecerán en el proceso” (Kuhn, 1962 [1992, p.
263]).
La analogía que Kuhn establece con la teoría de la evolución, transita por el carril en
donde ésta fue realmente más revolucionaria y resistida, hecho que por otra parte expresa su
verdadera significación histórica: la idea de que la evolución no estaba dirigida hacia ningún fin
predeterminado. En este marco Kuhn establece una extensión de la metáfora:
“El proceso descrito como la resolución de las revoluciones en la sección XII constituye,
dentro de la comunidad científica, la selección, a través de la pugna, del mejor camino
para la práctica de la ciencia futura. El resultado neto de una secuencia de tales
selecciones revolucionarias, separado por períodos de investigación normal, es el
conjunto de documentos maravillosamente adaptado, que denominamos conocimiento
científico moderno. Las etapas sucesivas en ese proceso de desarrollo se caracterizan
por un aumento en la articulación y la especialización. Y todo el proceso pudo tener
lugar, como suponemos actualmente que ocurrió la evolución biológica, sin el beneficio
de una meta preestablecida, de una verdad científica fija y permanente, de la que cada
etapa del desarrollo de los conocimientos científicos fuera un mejor ejemplo.” (Kuhn,
1962 [1992, p. 265]).
La visión tradicional de la ciencia, con su utópica vocación de verdad, conlleva,
siguiendo esta metáfora, un elemento teleológico en su seno que la haría compatible, al menos
en este aspecto, con el creacionismo y, también, con el lamarckismo. En este aspecto
particular nótese que la metáfora construida por Kuhn resulta más adecuada que la propuesta
por Popper, aunque deberían tenerse en cuenta cuando menos dos cuestiones.
En primer lugar puede señalarse que la aparición de mutaciones en el mundo biológico
es en principio aleatoria con relación al medio ambiente y, de entre una enorme cantidad de
mutaciones generalmente perjudiciales o irrelevantes, muy excepcionalmente aparece alguna
cuyo carácter ventajoso pueda, eventualmente, inaugurar alguna línea de especiación. Las
teorías científicas, en cambio, no son ni aleatorias ni, fundamentalmente, abundantes. Muy por
el contrario, la historia nos muestra que, en verdad, parecen ser un bien escaso, y más aún,
dentro del contexto del pensamiento de Kuhn donde la ciencia se desarrolla mediante
paradigmas hegemónicos y eventual y transitoriamente con un paradigma en retirada y otro
que se consolida. Más bien parece haber una suerte de preselección en el sentido propuesto
por Toulmin.
En segundo lugar, la competencia entre individuos por la supervivencia implica que hay
un factor externo (el ambiente) que hace las veces de ‘árbitro’ o ‘prueba’. Este factor externo,
que sufre variaciones, actúa en la selección, de modo implacable y neutral, metafóricamente
hablando. Pero, ¿qué pasa en las ciencias?, ¿cuál sería este factor ‘externo’ que actuaría como
árbitro para la elección entre teorías?, ¿se podría decir, desde Kuhn, que es el control
empírico?. Si así fuera, la noción de “paradigma”, perdería su sentido fuerte como determinante
de una visión del mundo y aún la inconmensurabilidad se diluiría ante una instancia decisoria
extraparadigmática. Para Kuhn, “el mejor criterio de decisión es el del grupo científico” (Kuhn,
1969, p. 262), y entonces, el isomorfismo entre desarrollo científico y evolución biológica se
vería seriamente debilitado. Cabe consignar que esta objeción tiene sentido en el marco de La
Estructura, obra en la cual Kuhn defiende una noción muy fuerte de ‘inconmensurabilidad’. En
las reformulaciones posteriores de esta noción, la objeción pierde peso.
4.3.2. especialización (especiación) y aislamiento
En “The road since structure” (1990), y en el contexto de anunciar un libro que por ese
entonces se encontraba en preparación pero nunca apareció, Kuhn retoma la metáfora
biológica, cambiando tanto el compromiso con este nuevo punto de vista que reconoce como
un ‘kantismo postdarwiniano’, como así también para precisar algunos aspectos claves como la
inconmensurabilidad, ya desarrollados en La Estructura... e ilustrar otros aspectos de la ciencia.
Señala básicamente dos paralelos entre la evolución biológica y la evolución del conocimiento.
En primer lugar las revoluciones producen nuevas divisiones en los distintos campos de
investigación del mismo modo que los episodios de especiación en la evolución biológica. Kuhn
encuentra que el paralelo ya no son las mutaciones, como había creído antes, sino el procesos
de especiación. El isomorfismo ya no se establece por la aparición de teorías (o paradigmas)
que compiten entre sí, sino en el hecho de que en ambos procesos se producen división y
especialización (especiación). Inclusive el problema que se presenta habitualmente a la
biología, esto es la dificultad para identificar un episodio de especiación hasta algún tiempo
después de que ha ocurrido, y la imposibilidad, aún entonces, de fechar el momento en que
ocurrió, constituyen episodios similares a los que presentan los cambios revolucionarios y la
individuación de nuevas especialidades científicas. El desarrollo de la actividad científica, daría
como resultado la aparición de nuevas especialidades derivadas de troncos comunes, y,
aunque también es posible que se den reunificaciones como la biología molecular, se trata de
excepciones, siendo lo contrario la regla. El árbol de la evolución de las teorías y disciplinas
sería similar al árbol de la vida propuesto por Darwin31.
El segundo aspecto en el cual se puede establecer un paralelo “(...) se refiere a la
unidad que sobreviene a la especiación”. Así como en la biología se trata de poblaciones
reproductivamente aisladas, en la ciencia se habla de comunidades de especialistas
intercomunicados entre sí, pero manteniendo su aislamiento como grupo respecto de
profesionales de otras especialidades. La analogía en este sentido permite establecer una
correlación entre los pares “individuo- especie” por un lado y “científico - comunidad científica”
por otro. En las especies biológicas los organismos individuales son los que perpetúan las
especies, las unidades cuyas prácticas permiten que la evolución ocurra. Pero para entender el
éxito del proceso uno debe ver la unidad evolutiva como la distribución e intercambio del
capital genético en el interior de la población. Del mismo modo, la evolución cognoscitiva opera
con el intercambio, a través del discurso, de informes en el interior de una comunidad. Si bien
las unidades que cambian estos discursos son científicos individuales, la comprensión del
avance del conocimiento, del éxito de sus prácticas, depende de concebirlos como átomos
constitutivos de un todo mayor, la comunidad de profesionales de alguna especialidad
científica. El marco en el que se desarrollan estas prácticas está compuesto por el lexicon: una
estructura abstracta de la cual "participan" los miembros con sus lenguajes individuales no
idénticos. La función del lexicon será la de realizar taxonomías sólo comprensibles plenamente
desde el interior de la comunidad que la usa, verdaderas “condiciones de posibilidad” de la
experiencia. Es en este sentido que califica su posición como “una suerte de kantismo post
darwiniano” 32 donde el lexicon actúa del mismo modo que las ‘categorías’:
“Como Las categorías kantianas, el léxico proporciona precondiciones para la
experiencia posible. Pero las categorías léxicas, a diferencia de sus antepasados
kantianos, pueden y de hecho cambian, tanto con el paso del tiempo como en el pasaje
de una comunidad a otra. (...) Subyacente a todos estos procesos de diferenciación y
cambio debe haber, desde luego, algo permanente, fijo y estable. Pero como la Dig an
sich kantiana, ello es inefable, indescriptible, indiscutible. Localizada fuera del tiempo y
del espacio, esta fuente kantiana de estabilidad es la totalidad desde la cual se han
producido tanto las criaturas como los nichos, tanto los mundos ‘externos’ como los
‘internos’.” (Kuhn, 1990, p. 11)
Es importante señalar que, aunque no sea más que un esbozo, este artículo de Kuhn
marca, a través de la metáfora evolutiva, cierta precisión en su pensamiento. La noción de
31
Nótese la diferencia con la metáfora popperiana: “Ahora bien, si comparamos ahora estos árboles
evolucionistas en desarrollo con la estructura de nuestro conocimiento en desarrollo, nos
encontramos con que el árbol del conocimiento humano en crecimiento posee una estructura
manifiestamente distinta. Está claro que el desarrollo del conocimiento aplicado es muy similar al
desarrollo de herramientas y otros instrumentos: siempre constituyen aplicaciones cada vez más
diversas y especializadas. Mas el conocimiento puro (o investigación fundamental como se la llama a
veces) se desarrolla de un modo muy distinto. Se desarrolla casi en sentido opuesto a esta
especialización y diferenciación progresiva. Como señaló H. Spencer, está dominado en gran medida
por la tendencia hacia una integración creciente, hacia teorías unificadas. (...) Cuando hablábamos
del árbol de la evolución, suponíamos, como es obvio, que la dirección del tiempo, señalaba hacia
arriba – la dirección en que crece el árbol-. Suponiendo la misma dirección del tiempo, habremos de
representar el árbol del conocimiento como surgiendo de incontables raíces que crecen en el aire,
más bien que bajo tierra, y que, finalmente tienden a unirse en un tronco común. En otras palabras, la
estructura evolucionista del desarrollo del conocimiento puro es casi la opuesta a la del árbol de la
evolución de los organismos vivos, los instrumentos humanos o el conocimiento aplicado”. (Popper,
1970 [1988,p. 241]).
32
Es importante señalar que las taxonomías no son conceptos puros (a priori), sino aprendidos (a
posteriori) en el proceso de resolver ejemplares; y que los científicos son sujetos evolutivos y no
trascendentales. Para una crítica a la autoevaluación de Kuhn respecto de su kantianismo
postdarwiniano ver Gómez, 1993.
‘inconmensurabilidad’ como intraducibilidad localizada, es decir reducida a una dimensión
exclusivamente lingüística, ya no determina el campo perceptivo de modo estricto (como
parecía ocurrir en La Estructura) y, a pesar de que las diferentes taxonomías determinan
mundos diferentes, la posibilidad de que pueda haber científicos bilingües deja abierta la
brecha para que estos mundos no sean excluyentes. Ya sea que se piense que hay en esto un
cambio de posición o una aclaración de malentendidos, se puede observar un esfuerzo de
Kuhn por desembarazarse de posiciones de tipo idealista (aquellas que dicen que el mundo es
una construcción de la mente), y, aunque Kuhn se declare kantiano en algún sentido, el hecho
de que sus ‘condiciones de posibilidad’ sean cambiantes diacrónica y sincrónicamente refuerza
un enfoque pragmatista en la elección de teorías. La idea de revolución científica parece haber
perdido sus connotaciones de ruptura brusca y excepcional para conformar el inicio de
procesos de especialización creciente, donde la metáfora evolutiva muestra una versión más
continuista y cotidiana del cambio científico entre dos períodos de ciencia normal.
Otro aspecto que no por quedar meramente enunciado deja de ser importante, es, a
pesar de que Kuhn se ocupa de ese tipo de conocimiento particular que es la ciencia, el que
marca una suerte de continuidad entre GE y EE:
(...) las clases de conocimiento de que trato vienen en formas simbólicas verbales o
conexas con éstas. Pero puede aclarar lo que tengo en mente sugerir que podría hablar,
más apropiadamente, de conceptos que de palabras. Lo que vengo denominando
‘taxonomía léxica’, mejor podría llamarse esquema conceptual, donde la noción misma
de esquema conceptual no es la de un conjunto de creencias, sino la de un modo
operativo particular que constituye un prerrequisito para tener creencias; modo que a la
vez provee y limita el conjunto de creencias que es posible concebir. Considero que
algunos de tales módulos taxonómicos son prelingüísticos y que los animales los
poseen. Presumiblemente evolucionaron originalmente para el sistema sensorial y, más
obviamente para el sistema visual. En el libro expondré las razones para suponer que se
desarrollaron a partir de un mecanismo aun más fundamental que capacita a los
organismos vivientes individuales para identificar otras sustancias escudriñando sus
trayectorias espacio temporales.” (Kuhn, 1990, p. 11)
4.3.3 un papel para las metáforas en la ciencia
El papel de las metáforas en la ciencia ha sido destacadao por Kuhn en varias
oportunidades. Ya a partir de La Estructura (1962, Cf. Cap. 5), subrayaba el papel de la
‘percepción de similitudes’ o parecidos de familia, en la iniciación del científico bajo un
paradigma. Aunque la percepción de similitudes parece estar estrechamente ligada, en
principio, a la ciencia normal exclusivamente, en la Posdata (1969) y en escritos posteriores,
también tenían un papel fundamental en las revoluciones científicas y se encuentra
atravesada por la noción de inconmensurabilidad:
"Un aspecto central de cualquier revolución es, entonces, aquello que cambia la
similaridad de las relaciones. Objetos que anteriormente estuvieron agrupados en el
mismo conjunto son después agrupados en otros diferentes, y viceversa." (Kuhn, 1962,
Posdata)
En su "Metaphor on science" (1979), adhiere a la ‘teoría causal de la referencia’33 y
otorga un papel central a las metáforas tanto para lo que la literatura estándar llama
términos teóricos como así también para los llamados términos de observación. Asimismo,
33
La teoría causal de la referencia de R. Boyd explica que los términos de clase natural refieren a la
estructura esencial (no nominal)de esas clases, de cómo el término ‘agua’, por ejemplo refiere de
manera no contextual a la sustancia definida como H2O y, en este sentido la metáfora es considerada
como un “modo no definicional de fijación de la referencia que se adecua a especialmente bien a la
introducción de términos que se refieren a clases cuyas esencias reales consisten en propiedades
relacionales complejas, más que a propiedades internas constituyentes” (citado en de Bustos, 2000,
p. 148). Cf. Kuhn, 2002, p. 235.
la metáfora cumpliría un papel central tanto en la introducción de un nuevo término en el
vocabulario de la ciencia como así también en la introducción de las nuevas generaciones
de científicos en los conocimientos ya establecidos. La metáfora constituye también un
medio que posibilita que una comunidad de hablantes (comunidad científica para el caso) se
refiera en forma regular y coordinada a un determinado fenómeno o sustancia. Considera a
la metáfora como una versión de nivel más alto del proceso por el cual la ostensión
interviene en el establecimiento de la referencia de los términos de clase natural.
Los procesos de ‘bautismo’ (dubbing) de familias naturales serían metafóricos en un
nivel elemental, por cuanto en ellos se da una yuxtaposición o interacción. Sobre la base de
estos procesos nuestro lenguaje se liga al mundo. Una vez que la interacción entre
ejemplares ha puesto de relieve ciertos rasgos y ha fijado ostensivamente la referencia de
un término de familia natural, el mundo queda para nosotros recortado de una manera
determinada, que consideramos natural. La metáfora sugiere un cambio de las
categorizaciones que nos resultan naturales por el uso y el cambio de teorías, para Kuhn,
siempre va acompañado de cambio en algunas de las metáforas relevantes y en las partes
correspondientes de la red de similaridades a través de las cuales los términos se adhieren
al mundo. Pero estas alteraciones no son puramente formales o puramente lingüísticas sino
más bien “sustantivas o cognitivas” (1979, p. 416), puesto que se producen como una
respuesta a presiones generadas por la observación o experimento y dan como resultado
modos más efectivos de tratar con algunos aspectos de los fenómenos naturales.
En “¿Qué son las revoluciones científicas?” sostiene Kuhn:
“(...) Pasemos ahora a la última de las tres características compartidas por mis tres
ejemplos [de revoluciones científicas]. Es la que más me ha costado ver de las tres, pero
ahora parece la más obvia y probablemente la que tiene más consecuencias. Asimismo,
es la que más valdría la pena explorar con profundidad. Todos mis ejemplos implican un
cambio esencial de modelo, metáfora o analogía: un cambio en la noción de qué es
semejante a qué, y qué es diferente.” (Kuhn, 1981 [1994, p. 89])
En el artículo de 1990, en el marco de su giro hacia un ‘kantianismo postdarwiniano’,
Kuhn expresa una concepción del significado y la relación lenguaje/ mundo, de resonancias
wittgensteinianas además de kantianas. Los significados de los términos de ‘familias
naturales’ no constituyen listas de propiedades compartidas únicamente por los miembros
de dicha familia, sino antes bien un conjunto abierto de ‘parecidos de familia’, o similitudes
percibidas entre algunos aspectos de los complejos implicativos asociados a los dominios
puestos en interacción. El significado surge de la yuxtaposición ostensiva de situaciones
ejemplares en situaciones de entrenamiento, en que el mostrar y nombrar el objeto va
acompañado generalmente de ciertas acciones con el objeto. A partir del bautismo de
ejemplares prototípicos, se produce una extensión metafórica de la referencia a otros
objetos del mundo que presentan "parecidos de familia" con los prototipos. Este tipo de
proceso de aprendizaje se extiende también al aprendizaje del lenguaje y categorías
científicas. Con posterioridad, el uso naturaliza las similitudes y diferencias, al punto de
hacer que supongamos un “pegamento metafísico” entre el lenguaje y el mundo, y hacernos
olvidar que nuestras categorías surgieron -en parte- de la interacción entre ciertos
ejemplares, y que otras interacciones habrían hecho surgir otras similitudes. Pero los
significados no son fijos, no están adheridos a las cosas desde una eternidad sin tiempo, no
están dados de una vez y para siempre a partir de un ‘bautismo’ originario; sino que en
ocasiones, en virtud de un proceso de renombramiento (redubbing) pueden ligarse al mundo
de otra manera. Los procesos revolucionarios, como las metáforas novedosas, transgreden
los usos corrientes, generando un léxico localmente diferente y este nuevo léxico abre
nuevas posibilidades que no podrían haberse estipulado por el uso del léxico anterior (Kuhn,
1990)
Las metáforas pueden conducirnos a una recategorización del mundo al crear
similitudes de un nuevo tipo y hacer surgir nuevos significados. Permiten así dar cuenta de
ese elemento dinámico o histórico que estaba ausente en Kant: Kuhn ofrece una ‘visión
evolutiva (developmental) del significado’, que hace lugar a esos cambios. Allí reside el valor
cognitivo de la metáfora: nos recuerda que el mundo podría haber sido recortado de otra
manera y de hecho históricamente lo ha sido, según nos muestran algunos historiadores de
la ciencia. Y, en la medida en que viola el principio de no-solapamiento, la metáfora puede
también abrir nuevos mundos, mundos recortados de otra manera, promoviendo el
desarrollo de la ciencia. Si la naturaleza tiene 'articulaciones' que los términos de familias
naturales tratan de localizar, entonces la metáfora nos recuerda que otro lenguaje podría
haber localizado articulaciones diferentes, haber recortado el mundo de otra manera (Kuhn,
1979).
4.4. D. Hull. El mecanismo universal de selección
Según el propio D. Hull dos elementos distinguen a su propuesta evolucionista. Por un
lado considera que es posible construir una buena analogía entre la evolución biológica y la
evolución de las ideas o teorías porque ambos procesos pueden ser explicados con una misma
teoría y, por otro lado, su propuesta se centra en proponer dicho mecanismo general,
diferenciándose de autores como Popper, Toulmin o Campbell entre otras cosas por ocuparse
no sólo de la supervivencia de las teorías, sino también por su reproducción. Con respecto al
primer aspecto señala:
“La mayoría de los autores que en el pasado han estudiado la evolución cultural en
general, y el cambio científico en particular, como procesos selectivos han tomado la
selección natural basada en los genes como modelo y lo han aplicado de manera
análoga al cambio conceptual. Sin embargo una estrategia más apropiada consiste en
presentar un análisis general de los procesos selectivos que sea aplicable por igual a
todos los tipos de procesos selectivos. Después de todo, la reacción del sistema inmune
a los antígenos es un ejemplo de un proceso selectivo que difiere de una manera tan
radical de la selección natural basada en los genes como el cambio conceptual en la
ciencia. Cualquier análisis de los procesos selectivos debe aplicarse a ella así como a la
selección natural. La generalidad de ese análisis debe ser la suficiente como para que no
esté predispuesto a favor de ningún tipo particular de proceso selectivo, pero no tanta
como para que todo y cualquier proceso natural resulte ser un ejemplo de selección. La
evolución biológica, la reacción del sistema inmune a los antígenos y el aprendizaje
cultural deben caer entre tales ejemplos, pero no así unas bolas de plomo que ruedan
sobre planos inclinados ni los planetas que giran alrededor del sol.” (Hull, 1997, p. 106)
El otro elemento, decíamos, consiste en poner el acento sobre la reproducción de las
teorías más que en las condiciones de adecuación de las mismas. Ello le da a la propuesta de
Hull un sesgo más cercano a la sociología de la ciencia que a la epistemología. Si bien para
Hull uno de los objetivos de la ciencia es arribar a la verdad, no se trata tan sólo de ello, sino
fundamentalmente del reconocimiento explícito de los pares. El sistema de premios y castigos
en la ciencia, y en esto se ubica en la línea de la sociología mertoniana, posibilita el logro de
sus objetivos.
“La característica más sorprendente de la ciencia es lo bien que lleva a cabo sus
objetivos explícitos, mucho mejor que cualquier otra institución social. En general, los
científicos realmente hacen lo que dicen que hacen. Todas las instituciones sociales se
rigen por normas, pero aun cuando estas normas sociales se traducen de su formulación
hipócrita usual para que concuerden mejor con las normas que realmente funcionan, las
infracciones individuales son comunes. Por el contrario, en la ciencia son bastante
raras.” (Hull, 1997, p. 107)
Los científicos se adhieren a las normas de la ciencia tan bien, porque frecuentemente
es en su mejor interés hacerlo. Tal como funciona la ciencia, en general lo que es bueno para
el científico es realmente bueno para el grupo.
Según el propio Hull, su aporte original consiste no tanto en el modelo biológico de
explicación, sino en que introduce para explicar el comportamiento de los científicos los
conceptos de ‘adecuación inclusiva conceptual’ y la ‘estructura démica34 de la ciencia’. Así
como los organismos desarrollan estrategias para lograr la replicación de sus propios genes, o
a la duplicación de estos genes en familiares cercanos y que se transmitan a generaciones
posteriores, los científicos se comportan de una manera calculada para lograr que las ideas
que se proponen sean aceptadas como suyas por otros investigadores, sobre todo por los que
trabajan en áreas afines. El enfoque de Hull no se refiere ya a la comunidad científica en
general -un complejo algo difuso y vago- sino a que los científicos también tienden a
organizarse en grupos de investigación bastante estrechos, y relativamente efímeros, para
desarrollar y propagar un conjunto particular de puntos de vista y apuesta a que el cambio
conceptual en la ciencia debería ser más rápido en relación directa con la división en grupos
de investigación rivales. Antes que ser un obstáculo, este faccionalismo que los científicos
frecuentemente deploran propicia el progreso de la ciencia. Como puede verse, aparecen, en
la posición de Hull, claras resonancias sociobiológicas. La ciencia sería entonces, un asunto
“tanto competitivo como cooperativo”. En la medida en que la ciencia es una actividad
eminentemente social, no puede operar sólo la adecuación inclusiva conceptual sin más, sino
que debe tomarse en cuenta los distintos tipos y niveles de alianzas. Los individuos pueden
aprender del mundo en el que viven mediante un contacto directo, pero si la ciencia ha de ser
acumulativa, es necesaria la transmisión social. Incluso el tipo de objetividad que da a la
ciencia su carácter peculiar es una propiedad de los grupos sociales, no de los investigadores
aislados.
Pero en este proceso de cooperación/competencia aún resta explicar cómo se produce
la selección de unidades conceptuales. La argumentación de Hull recoge la disputa biológica
acerca de las unidades de selección (genes, organismo, poblaciones, etc.) y en concordancia
con su propuesta de hallar un mecanismo general de selección:
“Debido a que algunas entidades tradicionales como los genes, los organismos y las
especies no cumplen consistentemente con los mismos papeles en la evolución
biológica, por no hablar del sistema inmune y del cambio conceptual, se requieren
unidades más generales, unidades que se definan en términos que sean lo
suficientemente generales para que puedan aplicarse a todo tipo de procesos selectivos.
Mi idea sobre estas unidades y su definición es la siguiente:
replicador: es la entidad que transmite su estructura en gran parte intacta a través de
replicaciones sucesivas.
Interactor: entidad que interactúa como un todo cohesionado con su ambiente, de
manera tal que la interacción causa que la replicación sea diferencial.
Con la ayuda de estos dos términos técnicos, la selección puede caracterizarse
sucintamente como sigue:
Selección: es el proceso en el que la extinción y la proliferación diferencial de los
interactores causa la perpetuación diferencial de los replicadores pertinentes.
Los replicadores y los interactores son las entidades que funcionan en los procesos
selectivos. También se necesita un término general para las entidades que se producen
como resultado de por lo menos la replicación y, posiblemente, de la interacción:
Linaje: entidad que persiste indefinidamente a través del tiempo en el mismo estado o en
un estado alterado como resultado de la replicación.” (Hull, 1997, p. 118)
Hull desarrolla un esfuerzo por lograr un paralelo con la evolución biológica, sobre
todo con respecto a la versión neodarwinista de S. Wright, y para diluir las diferencias con el
34
El término ‘demo’ aplicado a la biología se refiere a los casos en que una especie está subdividida
en muchas pequeñas poblaciones o razas locales. En esos casos, los individuos que pertenecen a
cada demo tienen mayor probabilidad de reproducirse con otro miembro de su propio demo que con
miembros de otro. Este término fue introducido por S. Wright.
objetivo ya explicitado de establecer un mecanismo más general que sirva para todo proceso
de selección pasa revista a las posibles objeciones a la analogía entre evolución biológica y
conceptual:
1. la evolución conceptual ocurre mucho más rápido que la biológica. Sostiene Hull que:
"(...) si nos remitimos al tiempo físico, la evolución conceptual ocurre a una velocidad
intermedia. Los virus evolucionan mucho más rápidamente que los sistemas
conceptuales aun en las áreas más activas de la investigación, mientras que los
organismo multicelulares evolucionan más despacio. Sin embargo, el tiempo físico sólo
es pertinente para la interacción. En lo que se refiere a la replicación, la métrica que
cuenta es el tiempo generacional. Con respecto a las generaciones, por definición la
evolución conceptual ocurre a la misma velocidad que la evolución biológica." (Hull,
1997, p. 129)
2. algunos sostienen que no es posible una comparación entre los dos tipos de evolución
porque mientras los genes son 'particulados'35, las unidades de la replicación conceptual
son altamente variables y están lejos de ser discretas. Hull sostiene que en realidad ni los
replicadores biológicos ni los conceptuales son 'particulados', dado que en ambos casos el:
“(...) tamaño relativo de las entidades que funcionan ya sea como replicadores o como
interactores es muy variable y sus límites algunas veces son bastante difusos. Si las
entidades que funcionan en los procesos de selección deben ser todas del mismo
tamaño, de formas distinguibles o ambos, entonces la selección no puede ocurrir en
contextos biológicos más que lo que ocurre en contextos conceptuales.” (Hull, 1997, p.
129)
3. otra objeción se refiere a que la evolución biológica siempre es biparental mientras que la
evolución conceptual suele ser multiparental:
“Una vez más esta objeción se basa en un simple error fáctico. Para un gran número de
organismos, la herencia es biparental; pero para la mayoría no lo es. En la evolución
conceptual, los agentes racionales a veces combinan ideas provenientes de sólo dos
fuentes; a veces de muchas.” (Hull, 1997, p. 129)
4. que el intercambio de linajes es más común en la evolución conceptual que en la
biológica:
“Independientemente de lo que el sentido común cree, el intercambio genético entre
grupos que se consideran especies diferentes sí ocurre y las cantidades de intercambio
genético necesarias para neutralizar cualesquiera diferencias genéticas entre dos linajes
muy separados resulta ser bastante pequeña. En resumen, en la evolución biológica, el
préstamo de cruce de linajes extensivo no puede ocurrir porque los linajes se generan
producidos precisamente mediante este proceso. Cuando se distinguen los linajes
conceptuales y sociales en la ciencia, el préstamo de cruce de linajes extensivo se
vuelve posible, es decir, los científicos que pertenecen a grupos diferentes socialmente
definidos pueden hacer uso del trabajo del otro y a veces de hecho lo hacen. En tales
situaciones, los grupos siguen siendo socialmente distintos, mientras que sus correlatos
conceptuales se mezclan. Sin embargo, en la ciencia este préstamo de cruce de linajes
no parece ser tan extensivo como sería de esperarse dadas las referencias a vanas
"síntesis". Rara vez los linajes conceptuales se funden sin que las comunidades
científicas que los produjeron también se fundan. Ambos tipos de mezclas tienen lugar
en la ciencia. También ocurren en biología, especialmente entre las plantas. Hasta ahora
nadie ha producido los dates necesarios para ver en qué contexto el préstamo de cruce
de linajes está más extendido.” (Hull, 1997, p. 130)
35
Ayala (1998) los llama 'atomísticos'.
5. que la evolución sociocultural es lamarckiana – las variaciones son dirigidas, los
científicos modifican sus teorías para mejorarlas – y en ese sentido se puede hablar de
progreso, mientras que la evolución biológica es darwiniana, o más bien weissmaniana –
las variaciones surgen al azar- y obviamente no encaja la noción de progreso. Es
interesante la argumentacion de Hull en este punto:
“La diferencia más comúnmente citada entre la evolución biológica y la conceptual es
que la evolución biológica es darwiniana mientras que la evolución conceptual es, en
gran parte, lamarckiana. Ningún organismo es capaz de transmitir ninguno de los
caracteres fenotípicos ordinarios que adquirió durante el curso de su existencia a su
progenie, pero algunos organismos pueden transmitir lo que han aprendido del medio
ambiente mediante el aprendizaje social. Estas observaciones se han repetido muchas
veces, sin embargo, nadie ha podido explicar detalladamente lo que significan. Nadie
sostiene que la evolución conceptual en la ciencia sea literalmente lamarckiana, como si
los axiomas básicos de la teoría cuántica fueran a encontrar de alguna manera su
camino hasta nuestra estructura genética. Si se considera que las entidades
conceptuales son características fenotípicas, entonces la evolución conceptual no es
literalmente lamarckiana porque los cambios en estos caracteres dejan intactos los
genes. Las ideas se transmiten, no se heredan. Si la transmisión simple es suficiente
para la herencia lamarckiana, entonces una pulga que pare a sus crías se puede
considerar herencia lamarckiana. Si se toma metafóricamente, la evolución conceptual
tampoco es lamarckiana porque se sostiene que las ideas (o memes) son análogos de
los genes, no de los caracteres. Si algo puede decirse es que la evolución conceptual es
un ejemplo de la herencia de memes adquiridos, no de los caracteres. Aprendemos a
partir de la experiencia y transmitimos socialmente este conocimiento, pero no puedo
entender por qué estos procesos debieran ser considerados "lamarckianos", ya sea en
sentido literal o metafórico. En la interpretación literal, las ideas se consideran caracteres
adquiridos, pero la transmisión no es genética. En el uso metafórico, las ideas se
consideran análogos de los genes, no de los caracteres. Aunque la distinción entre
genotipo y fenotipo puede hacerse en el contexto del cambio conceptual, el efecto neto
es que los análogos de los fenotipos no son heredados. En ausencia de algo semejante
a la herencia de caracteres adquiridos, pienso que caracterizar el cambio conceptual
como "lamarckiano" no Ileva más que a la confusión.
Hasta donde puedo ver, el único sentido en que la evolución conceptual es lamarckiana
es en el sentido más caricaturizado de este término del que tanto se ha abusado, es
decir, en que es intencional. Así como las jirafas incrementaron la longitud de sus cuellos
al esforzarse por alcanzar las hojas de las copas de los árboles, los científicos resuelven
problemas al tratar de resolverlos. La ciencia es intencional, de hecho es tan intencional
como cualquier otra actividad humana. Aprendemos del mundo natural al tratar de
interactuar con él. Para algunos, la brecha que separa los actos intencionales del resto
de la naturaleza es tan ancha y profunda que hace imposibles las comparaciones. Yo no
comparto esta convicción, pero no tengo argumentos de principio capaces de convencer
a quienes desean aislar el comportamiento de los agentes intencionales respecto del tipo
de principios que se aplican al resto del mundo natural. (...)
Tampoco creo que el papel de la intencionalidad en los contextos científicos se
encuentre realmente en la raíz de lo que molesta a los críticos de cualquier intento por
proveer un análisis único de la "selección" que se aplique igualmente a la evolución
biológica y a la conceptual. Los científicos se afanan en resolver problemas; generan
ideas novedosas y seleccionan entre ellas. En estos momentos, las mutaciones
genéticas ocurren al "azar". Sin embargo, en un futuro muy próximo, los biólogos serán
capaces de generar cualquier mutación genética que consideren adecuada. Cuando esto
ocurra, la intencionalidad desempeñara el mismo papel en el cambio biológico y en el
conceptual. Pero dudo que aun en ese caso los críticos se convenzan instantáneamente.
Si mi conjetura es correcta, entonces el papel de la intencionalidad en la generación de
novedad no debe haber sido una objeción tan importante en un principio.” (Hull, 1997, p.
131)
4.5. R. Richards. Un modelo historiográfico evolucionista
R. Richards desarrolla un modelo de selección natural para la historiografía de la
ciencia, en la consideración de que se trata del más idóneo para tal fin a despecho de otros,
tales como los modelos 'estático', 'de crecimiento', 'revolucionario', 'guestáltico' o
sociopsicológico'36. A su vez el modelo de SN propuesto es presentado como superador de
otras propuestas evolucionistas como las de Popper y Toulmin y de los programas de
investigación científica de Lakatos.
Richards se monta en la estrategia habitual en la EE consistente en tratar de
identificar la 'unidad de selección' en la historia de la ciencia y adoptar luego, en función de
ella, un criterio de producción y selección de ideas. Criticando la noción de 'disciplina
intelectual' propuesta por Toulmin como unidad de selección:
"Las disciplinas intelectuales están, después de todo, compuestas de las teorías
heterogéneas, los métodos y las técnicas, mientras que una especie es una población de
individuos que se cruzan entre sí y que tienen una similitud genética y fenotípica. Las
disciplinas, además, están organizadas formalmente en subdisciplinas y en
especialidades que se traslapan y compiten entre sí, y que a su vez están entrelazadas
por redes invisibles de comunicación. Las disciplinas se parecen más a los nichos
ecológicos en evolución, constituidos por especies parásitas, simbióticas y en
competencia. Creo yo que la analogía correcta es entre especie y sistema conceptual,
que puede ser un sistema de conceptos teóricos, prescripciones metodológicas o fines
generales. El acervo genético que constituye tal especie, por así decirlo, es el conjunto
de ideas individuales que están unidas en genotipos o individuos genómicos por medio
de la compatibilidad lógica y de implicación y de nexos de pertinencia empírica. Estos
principios conectores pueden ser por supuesto, funciones de ideas regulatorias de un
orden más alto. Los genotipos varían debido a sus componentes, los genes, y las
relaciones específicas de ligamiento que los organizan; estos genotipos despliegan
diferentes fenotipos, dependiendo de las ligeras diferencias de sus componentes, y de
las relaciones entre componentes, y dependiendo de su reacción entre ambientes
modificados. Análogamente, la representación cognoscitiva de una teoría científica- su
expresión fenotípica en términos del modelo aquí propuesto- variará de un científico a
otro en razón de las ideas ligeramente diferentes que la constituyan, sus relaciones y el
cambiante ambiente intelectual y social que la apoye. (...) al igual que las fronteras entre
especies, las fronteras que separan las teorías pueden ser indefinidas y cambiantes."
(Richards, 1997, p. 169)
El segundo paso se funda en establecer algunas modificaciones o precisiones a la
propuesta de Campbell del mecanismo de 'variación ciega y retención selectiva'. El
mecanismo propuesto por Campbell supone que la ciencia genera ciegamente soluciones
posibles a los problemas intelectuales, seleccionando los ensayos mejor adaptados y
reproduciendo consecuentemente el conocimiento adquirido en las ocasiones apropiadas.
La producción de variaciones de pensamiento es análoga en este esquema a las
mutaciones casuales y a las recombinaciones de la evolución orgánica. Richards propone
una serie de postulados adicionales que vendrían a completar el modelo de Campbell:
1. la generación y selección de ideas científicas, deben entenderse como el resultado de un
mecanismo de retroalimentación a través del cual hay una suerte de límite a una
infinidad de ideas que no tienen prácticamente ninguna chance de ser aceptada. Así
como las mutaciones y recombinaciones de genes no ocurren de una manera totalmente
casual:
"Las restricciones para la producción de ideas están determinadas por los caprichos de
la educación y las conexiones intelectuales, el medio social, las disposiciones
psicológicas, la teoría previamente establecida y las ideas recientemente seleccionadas.
36
Cf. Richards, 1997, p. 148 y ss. Cabe consignar el carácter no excluyente de los distintos tipos de
modelos analizados y propuestos.
Este postulado sugiere, por lo tanto, si bien las ideas pueden aparecer como por arte de
magia, su generación no está libre de reglas, sino que puede ser comprendida por el
historiador." (Richards, 1997, p. 171)
Se trata en suma de ajustar la enorme cantidad de variaciones que se dan en el
mundo orgánico de manera desacoplada del medio ambiente y de las prácticamente infinitas
estrategias de supervivencia que se dan en la naturaleza, con el reducidísimo número de
candidatos a buenas teorías que se da en la investigación científica.
2. El pensamiento científico está dirigido a la solución de problemas que plantea el medio
ambiente intelectual cambiante.
3. Las ideas y, en última instancia las teorías se generan originalmente y se seleccionan
dentro del dominio conceptual del científico individual y recién en una etapa posterior es
sometida al debate, control y escrutinio intersubjetivo. Según Richards, entonces, si el
historiador no atiende a los procesos de la generación y evaluación de ideas en el nivel
individual, entonces parecerá como si las ideas científicas hubieran llegado
misteriosamente preadaptadas a su ambiente público.
4. Finalmente:
"Se debe suponer que los componentes de la selección actúan de acuerdo a ciertos
criterios esenciales: consistencia lógica, coherencia semántica, normas de verificabilidad
y falsabilidad, y pertinencia observacional (...) Sin tales normas no estaríamos tratando
con la selección de ideas científicas (...) El conjunto completo de los criterios de
selección define lo que en un periodo histórico dado constituye la norma de aceptabilidad
científica." (Richards 1997, p. 172)
Según Richards, su modelo de selección natural (MSN) historiográfico “convierte en
norma lo que los historiadores sensibles hacen instintivamente” y, según su criterio supera al
modelo de los Programas de Investigación Científica (PIC) propuestos por Lakatos. Es
necesario señalar, no tanto en defensa de la propuesta de Lakatos sino más bien contra al
análisis de Richards, que, en verdad, compite contra una versión algo estereotipada,
esclerosada y rígida de los PIC. En efecto, aunque puede darse una versión de los mismos
que ponga el acento sobre el carácter de ‘reconstrucción racional’ de la historia de la
ciencia, también puede, en una versión algo más condescendiente con la historia empírica,
poner el acento en esos elementos contextuales que Lakatos sugiere irónicamente ubicar en
‘una nota al pie’. Como quiera que sea, Richards considera que el MSN tiene una serie de
ventajas con respecto a los PIC:
• la relación entre un sistema conceptual y su medio ambiente es de reciprocidad, más
que de alteración unilateral, es decir, que la introducción de ideas fundamentales altera
los principios más remotos de un sistema en desarrollo y los cambios en estos últimos
afectan a su vez, los principios centrales.
• El MSN considera un programa como progresivo porque continua resolviendo problemas
de su medio ambiente y no solo, según la interpretación que hace Richards de los PIC,
cuando continúa haciendo nuevas predicciones que se confirman empíricamente
• el MSN reconoce que los sistemas conceptuales en pugna, pueden ocupar espacios
problemáticos parcialmente coincidentes pero no necesariamente idénticos, a diferencia
de los PIC- siempre en la versión de Richards- cuyo trasfondo ontológico y explicativo es
el mismo, en cuyo caso que un PIC adelante a otro refiere a 'algunas predicciones más'.
• Según Richards el concepto de PIC no permite dar cuenta de procesos históricos en los
cuales los sistemas conceptuales pueden desarrollarse en diferentes sistemas, o
desprenderse de un sistema matriz, o mezclarse con parientes cercanos para formar un
híbrido o existir como parte del ambiente intelectual de otros sistemas. Considera que el
PIC es un modelo esencialista que oscurece estas relaciones posibles.
• Richards considera que los PIC tienen como objetivo ofrecer una norma de evaluación,
mientras que el MSN funcionaría tanto para evaluar como para guiar la reconstrucción
histórica del medio ambiente del descubrimiento, considerando la evaluación de los
sistemas conceptuales desde tres perspectivas: “los problemas del científico individual;
los problemas de la comunidad científica; y los problemas de las comunidades
subsiguientes”.
Los méritos historiográficos del MSN según Richards consisten en su carácter
flexible- similar a “su contrapartida biológica”- para servir como modelo de un orden más
alto para teorías más especializadas, del mismo modo en que la teoría darwiniana subsume
teorías particulares; conserva la distinción entre contextos de descubrimiento y de
justificación –generación y selección en la biología-; propicia el examen de los ambientes
intelectuales en los cuales las ideas han sido generadas y seleccionadas- al modo de los
nichos ecológicos con sus interrelaciones; el MSN desconoce la existencia de normas
ahistóricas y, por el contrario considera que las ideas y teorías, pero también las normas
mismas evolucionan; “hace inteligible el carácter no progresivo de algunos sistemas
conceptuales de la historia de la ciencia”; por último permite alcanzar una perspectiva tanto
diacrónica como sincrónica del objeto de estudios.
4.6 acerca de la metáfora evolucionista
Para cerrar esta sección en la cual se han mostrado algunas de las versiones de EE,
es necesario hacer algunos señalamientos con relación a la metáfora evolucionista utilizada
en particular pero que puede ser extendido al uso de metáforas en general.
El mecanismo para construir una EE consiste en tratar de encontrar análogos para
los tres elementos básicos ya señalados por Campbell: a) los mecanismos para introducir la
variación; (b) los procesos consistentes de selección; y (c) los mecanismos para preservar
y/o propagar las variaciones seleccionadas. Los debates que se han dado acerca de uno de
los tópicos de las EE – las cuestiones acerca del ajuste/desajuste, alcance y construcción de
la analogía biológica- pueden considerarse incluso como formas típicas que adquieren las
discusiones acerca de la relación entre ciencia y metáforas. Como la formulación de una EE
se basa en, y depende de, cierta semejanza mínima (si es más que esto mejor) entre la
Teoría de la Evolución biológica y la obtención y desarrollo del conocimiento, los
argumentos de los críticos apuntan a demoler esa analogía. Se establecen habitualmente
dos estrategias típicas: por un lado los debates entre los epistemólogos evolucionistas
tendientes a desarrollar una analogía más ajustada; y por otro lado los debates externos
entre los críticos de la EE, quienes insisten en mostrar los devastadores desajustes con la
teoría biológica (Cf. entre otros, Thagard, P., 1997 y Bradie, 1994, 1997), mientras que los
defensores intentan o bien poner el acento sólo en las similitudes o bien sencillamente
ignorar tales desajustes. Se trata en principio de establecer de la manera más ajustada
posible un análogo cognoscitivo para los principales conceptos de la Teoría de la Evolución.
Pero surgen apreciables diferencias entre los autores a la hora de darle contenido a los tres
requerimientos básicos de Campbell, sobre todo al equivalente epistemológico de lo que en
biología serían las ‘unidades de selección’. Los elementos que varían pueden ser, por
ejemplo las teorías científicas, (Popper, 1970, 1985); los ‘memes’ (Dawkins, 1976), las
distintas versiones teóricas (Hull, 1997), las conjeturas libres (Toulmin, 1961,1970), etc.37.
Ahora bien, puede hallarse que estas estrategias argumentales son interesantes e
incluso ingeniosas, pero, a mi juicio atacan el problema equivocado y tienden a tornarse
irrelevantes, cuando menos por dos cuestiones fundamentales. Una objeción importante
resulta del hecho de que la Teoría de la Evolución está lejos de ser un modelo explicativo
sobre el que haya un consenso cerrado en la comunidad científica. Aún se suscitan en su seno
controversias importantes alrededor de cuestiones centrales, como por ejemplo, los
37
Cf. el cuadro comparativo que hace Bradie (1997, p. 264) entre las distintas
versiones de la EE teniendo en cuenta los tres elementos fundamentales que
deben poseer.
mecanismos y la secuencia de la evolución (gradual o ‘a los saltos’), sobre el ‘sujeto’ de la
evolución (genes, individuos, especies, etc.), sobre la existencia o no de direccionalidad en la
evolución, etc. (Cf. Sober, 1994, Wagensberg, J. Y Agustí, J., 1998 y Ruse, M., 1973). De
modo que cualquier esfuerzo por señalar los desajustes choca contra la imprecisión que surge
del hecho de no haber un original contra el cual contrastar. Por otro lado, y esto es lo que me
interesa rescatar aquí, si la EE apunta a explicar el desarrollo de la ciencia, no tiene mayor
relevancia denunciar los desajustes con el modelo biológico original. En el peor de los casos
el hecho de encontrar un desajuste fundamental con la teoría biológica tan sólo mostraría que
las EE no son evolucionistas en el mismo sentido en que lo es aquélla. La plausibilidad y
bondades de la EE deberán ser contrastadas, en todo caso, en la historia o en las prácticas
científicas como son contrastadas a través de la historia las metáforas disponibles. En este
sentido las EE pueden resultar un caso testigo del uso de ME.
5. LA PRODUCCIÓN DE METÁFORAS COMO MECANISMO
COGNOSCITIVO BÁSICO
5.1 metáforas en la adquisición del lenguaje y el conocimiento del mundo
Las distintas versiones de las EE pueden aportar elementos útiles para la
reconstrucción historiográfico-epistemológica de la ciencia, haciendo cumplir la reconocida
fórmula en la que Lakatos parafrasea a Kant: “la filosofía de la ciencia sin la historia de la
ciencia es vacía; la historia de la ciencia sin la filosofía de la ciencia es ciega”; y para los
objetivos mínimos de este trabajo sería suficiente con desarrollar una EE que tome a las
metáforas epistémicas como unidades de selección. Sin embargo, y aunque esto no sea
necesario para mostrar que la historia de la ciencia resulta de la evolución de ME, aún
puede especularse con la idea según la cual las metáforas serían emergentes de
mecanismos profundos de produccion de conocimiento.
En los últimos años el análisis del lenguaje ‘figurado’, sobre todo de las metáforas ha
dejado de ser prerrogativa de la retórica y comenzó a interesar a otras disciplinas, desde la
lingüística a las ciencias cognitivas y a la pedagogía, de la mano de la reivindicación de su
papel en el pensamiento y en el aprendizaje. Se destacan entre ellos los trabajos de G.
Lakoff y M. Johnson, si no los primeros, pioneros en muchos sentidos, y han provocado una
importante cadena de estudios sobre el papel de las metáforas en la constitución misma del
lenguaje y el pensamiento. No menos importantes, aunque más específicas, son las
consideraciones de Th. Kuhn sobre el papel de las metáforas en el desarrollo y constitución
de los conceptos científicos (cf. supra).
Lakoff y Johnson no consideran a la metáfora una astucia lingüística usada
exclusivamente para embellecer, un giro especial o un uso extraño del lenguaje, sino un
modo fundamental de aprender y estructurar sistemas conceptuales, una herramienta básica
de cognición, a la vez que una parte central de nuestro lenguaje cotidiano. Su posición
puede resumirse como sigue:
• A diferencia de la consideración clásica de la metáfora como parte de una función
extraordinaria o periférica del lenguaje, ellos la consideran antes bien como un
mecanismo rector de "nuestro funcionamiento cotidiano, hasta los detalles más
mundanos".
• La metáfora está muy lejos de ser meramente una cuestión de palabras. Se trata más
bien de que nuestro sistema conceptual ordinario, en términos del cual pensamos y
actuamos, es fundamentalmente de naturaleza metafórica. De modo que pensar
metafóricamente significa, en sentido estricto, realizar movimientos conceptuales
(mappings) desde un determinado dominio de origen a uno de destino, como ‘por
ejemplo cuando se considera una discusión en términos de una guerra. El resultado de
dichas proyecciones metafóricas, las expresiones concretas, son concebidas como
manifestaciones de superficie de los mapeos entre distintos dominios.
• "La esencia de la metáfora es comprender y experimentar una clase de cosas en
términos de otra" (...). Los conceptos que rigen nuestro pensamiento no son
simplemente asunto del intelecto (...) Nuestros conceptos estructuran lo que percibimos,
cómo nos movemos en el mundo, la manera en que nos relacionamos con otras
personas. Así que nuestro sistema conceptual desempeña un papel central en la
definición de nuestras realidades cotidianas. Si estamos en lo cierto al sugerir que
nuestro sistema conceptual es en gran medida metafórico, la manera en que pensamos,
lo que experimentamos y lo que hacemos cada día también es en gran medida cosa de
metáforas". (Lakoff y Johnson, 1980 [1998, p. 39])
• Lakoff y Johnson refuerzan la apuesta al negar que la metáfora sea una propiedad de
enunciados individuales, sino que se trata de un sistema subyacente. Aunque aquí
propiciamos la sospecha de que efectivamente haya mecanismos cognoscitivos básicos
que operan metafóricamente debe llamarse a prudencia en tal sentido. Si bien Lakoff y
Johnson detectan una aplicación sistemática y extendida de las metáforas, y ese ha sido
uno de sus principales logros, aun podría sostenerse que esta pretendida
"sistematicidad" podría ser, en realidad, el resultado de una cierta convención -de
carácter no consciente y automático-, y no el producto superficial de ciertas estructuras
subyacentes. Parece perfectamente posible explicar cómo nuestra cultura conceptualiza
el tiempo en términos de espacio sin la necesidad de apelar a la idea de un componente
mental subyacente tal como una metáfora generativa. De cualquier manera aquí resulta
suficiente manifestar la compatibilidad entre metáforas en uso y mecanismos
filogenéticamente constituidos.
• Una tesis bastante corriente entre los autores que rescatan la esencia metafórica del
lenguaje sostiene que el sistema conceptual normal tiende a conceptualizar la
experiencia no-física en términos de la experiencia física. De hecho, es bastante
corriente en la divulgación y la enseñanza de la ciencia la utilización de modelos físicos o
imágenes visuales familiares para suplantar conceptualizaciones abstractas, complejas o
teóricas.
• En la vida cotidiana el hablante percibe como 'expresión literal' lo que es la forma
humana de experimentar la situación metafóricamente estructurada.
• "La metáfora en virtud de dar una estructura coherente a una esfera de nuestra
experiencia, crea similaridades de un nuevo tipo" y si bien las experiencias
multiculturales pueden introducir un elemento de inconmensurabilidad, la comprensión
es posible a través de cierta negociación del significado y además es posible "un
proceso infinito de ver la vida a través de nuevas metáforas"
Indudablemente, la tesis de que la mayor parte de nuestro sistema conceptual es de
naturaleza metafórica involucra algo más que un cierto descubrimiento en la esfera de la
lingüística: se trata de una afirmación que desafía la imagen tradicional según la cual la
metáfora es un componente desviado, ornamental, y periférico del pensamiento humano. Al
abrir el campo teórico de la "metáfora conceptual", al indagar el lenguaje cotidiano de los
hablantes y la forma en que las metáforas determinan su visión del mundo, Lakoff y Johnson
pretenden haber operado un giro fundamental sobre la noción clásica de metáfora, ubicando
el proceder metafórico como condición de posibilidad del conocimiento. La cuestión,
entonces, se torna importante para la filosofía del lenguaje, la teoría del conocimiento, y
también para consideraciones empíricas sobre el aprendizaje. La metáfora -en tanto que
operación cognitiva fundamental- se encuentra estrechamente relacionada con el modo en
que los humanos categorizan el mundo. Las palabras que se utilizan reflejan distinciones
conceptuales hechas por una cultura particular. Sin embargo, nuestro mundo conceptual no
está limitado a las categorías provistas por nuestra cultura: las habilidades cognitivas nos
permiten extender los significados "literales" de las categorías y usarlos en nuevos sentidos
transferidos. Ésta es, precisamente, la manera en que operan los mapeos entre distintos
dominios de la experiencia.
En un trabajo posterior, Lakoff y Johnson (1999), apoyándose en los resultados de la
Ciencia Cognitiva que llaman de segunda generación y en las teorías neurales del lenguaje,
sostienen que no hay una razón descarnada, trascendente, consciente por completo. En
consecuencia, la filosofía no es el resultado de una razón pura que reflexiona sobre sí
misma. Desde la metafísica presocrática hasta la teoría de la acción racional, pasando por
Platón, Aristóteles, Descartes, Kant, la Filosofía Analítica o la lingüística de Chomsky, se
usan los mismos recursos cognitivos que cualquier persona, operan con las mismas
metáforas y metonimias generales que definen las diversas teorías populares sobre los
conceptos filosóficos y participan de las tradiciones de las culturas a las que pertenecieron.
Las principales consecuencias de la ciencia cognitiva de segunda generación hacen
necesario, según Lakoff y Johnson producir una filosofía empíricamente responsable,
enfoque que obligaría a reconsiderar los principales conceptos filosóficos:
• La razón surge de la naturaleza de nuestro cerebro, del cuerpo y de la experiencia
corporal.
• Los mismos mecanismos neurales y cognitivos que nos permiten percibir y movernos
también crean nuestro sistema conceptual y nuestros métodos racionales.
• La razón, pues, no es un rasgo trascendental del universo o de una mente descarnada,
sino una producto evolutivo, en el sentido de que la razón abstracta se construye sobre,
y hace uso de, las formas de la percepción y de la inferencia motora que están presentes
también en los animales inferiores. Así, la razón no es una esencia que nos separa del
resto de los seres vivos, sino, al contrario, nos sitúa en un continuum con ellos.
• La razón no es universal en el sentido trascendente, no es parte de la estructura del
universo. Es universal, a lo sumo, en tanto que es una capacidad que compartan todos
los seres humanos, quienes tienen, por lo tanto, afinidades fundamentales entre sí.
• La razón no es completamente consciente, sino principalmente inconsciente, aunque no
en el sentido freudiano, sino porque opera detrás del nivel consciente, inaccesible a él y
tan rápido que no podemos contemplarlo de un modo directo. Lakoff y Johnson ponen en
escena el concepto de inconciencia cognitiva..
• La razón no es literal, sino metafórica e imaginativa.
• La razón no es desapasionada sino enlazada emocionalmente.
Por otra parte, continúan mostrando los sistemas metafóricos que dan contenido a
los grandes conceptos filosóficos, analizando los conceptos de tiempo, eventos y causas, la
mente, el yo y la moralidad. El objetivo es, una vez desentrañados, ver el sistema metafórico
que permite a los grandes filósofos reunir en un cuerpo organizado e imaginativo toda una
teoría filosófica. Esta exposición que abarca toda la tercera parte del libro es lo que los
autores denominan la Ciencia Cognitiva de la filosofía.
“Los filósofos no son simplemente trabajadores lógicos que reúnen lo que forma el
esqueleto de sus culturas. Al contrario, son los poetas del pensamiento sistemático. La
mejor filosofía es creativa y sintética. Ayuda a reunir nuestro mundo de un modo que
tenga sentido para nosotros y nos ayuda a tratar con los problemas que conforman
nuestra vida. Cuando los filósofos hacen esto bien están usando nuestros recursos
conceptuales cotidianos de manera extraordinaria. Ven modos de poner ideas juntas
para revelar nuevas conexiones sistemáticas entre diferentes aspectos de nuestra
experiencia. A veces, nos dan los medios para cuestionar incluso los conceptos
enraizados más profundamente. Nos muestran formas de extender nuestras metáforas y
otras estructuras imaginativas para abordar nuevos problemas y situaciones
emergentes.” (Lakoff y Johnson, 1999, p. 542)
Otros autores han avanzado en la línea iniciada por Lakoff y Johnson, como es el
caso de M. Danesi (1990, 1993, 1998, 2000), quien desarrolla un modelo de construcción de
los conceptos abstractos en los humanos, considerando que las investigaciones sobre la
metáfora llevan hoy a concluir que hay una continuidad etiológica entre los dos dominios del
pensamiento correspondientes a lo concreto y lo abstracto, y que, antes que una
organización jerárquica de los conceptos hay una interconexión noética entre los diversos
conceptos que produce nuestra mente. Parece existir, según Danesi (2000, p. 195), un
vínculo metafórico entre pensamiento concreto y pensamiento abstracto con el principio de
continuidad (en contraposición a la noción clásica de autonomía de los conceptos), y
designa el hecho de que los conceptos están correlacionados entre sí de manera
interconectiva con el principio de interconexión (también éste en contraposición a la noción
clásica de la organización jerárquica de los conceptos). Como corolario al principio de la
continuidad propone, además, el principio de la estratificación, según el cual los conceptos
abstractos producidos metafóricamente y a continuación introducidos en un lenguaje llegan
a ser, en un segundo momento de reflexión abstractiva, ellos mismos eventuales fuentes (o
estratos) para la formación de ulteriores conceptos.
5.2 la gnoseologia evolucionista
No resulta fácil justificar el salto conceptual que va de constatar la profusión de
metáforas en las conductas lingüísticas de los humanos a afirmar que ello obedece a la
existencia de mecanismos básicos profundos del sistema cognitivo humano, aunque sí debe
admitirse que se trata de afirmaciones compatibles. Pero yendo un poco más lejos en la
especulación puede suponerse que el desarrollo filogenético peculiar de la especie humana
ha determinado la configuración del sistema cognitivo -de ello habla la GE- y que la
producción de metáforas resulta un emergente de la evolución.
La GE pretende haber corregido a Kant y haber realizado una verdadera 'revolución
copernicana', jugando con el argumento según el cual Kant habría realizado, en verdad, una
suerte de 'revolución ptolemaica' (Vollmer, 1987) al ubicar al sujeto en el centro de la
relación cognoscitiva. Vollmer (1975) señalaba que la teoría evolutiva del conocimiento
desplazaría al hombre de su posición central y lo convertiría en observador del acontecer
cósmico. Se atribuye entonces al mundo de los objetos reales la función de determinante
fundamental de las condiciones de posibilidad del sujeto epistémico, de modo tal que el
sujeto cognoscitivo que luego instrumentalizan las teorías del conocimiento resulta
subsidiario de aquél.
La GE se apoya en la idea según la cual las actividades cognitivas son un producto
de la evolución y de la selección y que, también, la evolución misma es un proceso cognitivo
y de conocimiento. Las premisas básicas para la GE en su versión actual habían sido
establecidas por Lorenz en un trabajo de 1941 (Lorenz, 1984):
1. Los seres vivientes están dotados de determinadas estructuras o disposiciones innatas
que les permiten establecer relaciones cognitivas con el mundo.
2. Estas estructuras innatas son fruto de la evolución, es decir el resultado de la aplicación
de la selección natural, por lo cual, además de la experiencia individual, existe también
esa experiencia filogenética que constituye para el individuo un saber innato o una
capacidad innata de percepción y de reacción.
3. También se acepta como existente una concordancia, parcial, entre las estructuras
objetivas y las subjetivas. Las formas del juicio e incluso las categorías con las cuales se
hacen taxonomías del mundo se “ajustan a lo realmente existente del mismo modo que
nuestro pie se ajusta al suelo; o la aleta de un pez al agua” (Lorenz, 1984, p. 92). Al
igual que en la adaptación biológica, el ajuste entre el mundo real y las estructuras
cognoscitivas no es ‘ideal’, pero ‘tampoco puede ser demasiado malo’. El ajuste ha de
ser al menos tan bueno como para que puedan ser satisfechas las necesidades
existenciales de un organismo, en general, y del hombre, en particular. Ha de ser
adecuado a la supervivencia (Vollmer, 1984):
“Nuestro aparato cognoscitivo es un resultado de la evolución. Las estructuras
cognoscitivas subjetivas se encuentran adaptadas al mundo porque se ha desarrollado,
en el curso de la evolución, como adaptación a ese mundo. Y esas estructuras
reproducen (parcialmente) las estructuras reales, porque sólo una reproducción
semejante pudo haber hecho posible la supervivencia.” (Vollmer, 1984, p. 30)
4. hay continuidad entre conocimiento animal y conocimiento humano, sobre la convicción
de que:
“Todos los fenómenos psíquicos del mundo subhumano, así como las habilidades
mentales, propias de los sistemas humanos (autoconciencia), se basan en estructuras y
funciones biológicas, la evolución biológica ha sido la precondición para la evolución
psicológica, mental o intelectual.” (Wuketits, 1984a, p. 8).
Todas las capacidades cognitivas humanas, incluso lo que suele denominarse
“mente” son productos de la evolución biológica. La emergencia de los fenómenos psíquicos
y de las habilidades mentales constituye uno de los mayores eventos de la evolución, pues
ha dado lugar a nuevos patrones de complejidad y de orden, tales como el arte, el lenguaje,
la ciencia y hasta los sistemas éticos.
El saber o el conocimiento en un sentido amplio, para la GE (Vollmer, 1984) es un
‘hecho empírico’, tanto como la existencia del hombre y del mundo. En todo caso lo que
habría que explicar es cómo es posible ese conocimiento y cuáles son sus características.
El ajuste de las estructuras cognoscitivas se considera resultado de un proceso de
adaptación regido por la mutación y la selección, para el cual se ha conformado un órgano,
de modo tal que la GE debería poder responder (Lorenz, 1984) sobre el papel que tiene en
la conservación de la especie, la secuencia y los pasos del desarrollo filogenético -el amplio
espectro de rasgos genéticamente determinados, es decir, las diferencias cognoscitivas
entre los individuos, los grupos y las especies-, y las causas naturales de su manifestación
fenomenológica38.
Uno de los tópicos para toda GE, entonces, es la necesidad de identificar las
estructuras que posibilitan y delimitan el conocimiento, estructuras a priori, en suma. Desde
hace ya más de dos siglos, cuando se habla de estructuras a priori del conocimiento no es
posible eludir la invocación de Kant y, de hecho los epistemólogos evolucionistas se
reconocen deudores del filósofo alemán. Sin embargo, a poco que se indague en esas
estructuras a priori cuyo papel en la conformación del conocimiento es un postulado para
cualquier GE, no se puede menos que notar sustanciales diferencias.
La filosofía había desarrollado, ya desde la antigüedad, consideraciones sobre la
existencia de verdades constituidas con independencia y aún a espaldas de la experiencia
sensorial corriente pero que, en medida variable, regulaban el conocimiento del mundo: las
ideas de Platón, la lógica de Aristóteles, en alguna medida negativa los idola de Bacon.
Otros planteos prekantianos, pero modernos al fin, en general consideraban que las
verdades válidas a priori eran innatas: los primeros principios de Descartes, las verdades
necesarias y algunos principios prácticos de Leibniz, por ejemplo. En el empirismo de la
tabula rasa, obviamente no se reconoce la existencia de contenidos a priori, pero- y esto
interesa a la GE- los sentidos operan en un rango limitado de posibilidades que delimita y
conforma toda experiencia posible.
Sin duda, el planteo kantiano, acerca de de la existencia de estructuras a priori que
hacen posible el conocimiento es el más eminentemente reconocible e importante. Una de
las consecuencias del mismo es la disociación de los conceptos de ‘a priori’ e ‘innato’, contra
el racionalismo (que apuesta a meras formas a priori) y contra el empirismo (que muestra
que no se puede reconstruir genéticamente la razón a partir de la mera observación). La
razón, por el contrario, para Kant tiene un carácter regulador y constitutivo de la experiencia
misma. Puede decirse que el planteo kantiano, al sustraer toda consideración temporal y por
tanto genética de la razón y ubicar las estructuras a priori en el ámbito de la formalidad,
elimina la superposición entre el carácter innato y el carácter a priori de algunas verdades.
En este, y en otros sentidos, el planteo trascendental kantiano supera tanto al racionalismo
como al empirismo. Básicamente, Kant sostiene que:
• todo nuestro conocimiento comienza con la experiencia, pero no todo conocimiento
surge de la experiencia. Hay un tipo de conocimiento llamado a priori que es
independiente de la experiencia, de todas las impresiones de los sentidos, pero
38
Sobre estas premisas se basa la idea de Lorenz de la etología comparada.
independientes en un sentido absoluto, es decir que no incluye las reglas generales del
tipo 'todo cambio tiene su causa', que es a priori pero no puro porque 'cambio' deriva de
la experiencia
• estas estructuras a priori son las intuiciones puras propias de la sensibilidad, categorías
del entendimiento y analogías de la experiencia39
• los conocimientos a priori tienen necesidad y validez universales
Una consideración básica es que el planteo kantiano no es una hipótesis realista,
psicológica o biológica sobre el origen, naturaleza y estructura del sistema cognoscitivo de
los humanos, sino que establece las condiciones formales de posibilidad de la experiencia y
el conocimiento. Sin embargo, las GE reconociéndose en su filiación kantiana toman como
desafío primordial resolver el problema lanzado por Lorenz en 1941: entender a Kant de un
modo naturalista, la ‘biologización de Kant’ en suma. En este sentido, las funciones del
sistema cognoscitivo son válidas a priori para la experiencia individual pero son el producto
a posteriori del desarrollo filogenético y de lo que se trata entonces es de establecer cuáles
son esas estructuras a priori del conocimiento.
Cabe una breve digresión sobre las pretensiones kantianas de la GE, en las cuales
encuentro cuando menos dos tipos de limitaciones: la primera con relación a la confusión
entre sujeto trascendental y sujeto psicológico o biológico y, la segunda con relación a la
concepción de la cosa en sí. El a priori trascendental forma parte de una teoría sobre las
condiciones formales de posibilidad de la experiencia o conocimiento, mientras que el a
priori de la GE es elemento de una teoría sobre las condiciones reales de dicha posibilidad.
La filosofía trascendental realiza una suerte de reconstrucción conceptual, no una
descripción o explicación causal, de las condiciones formales de posibilidad de la
experiencia o conocimiento en general; es decir la detección de lo que debe necesariamente
suponerse para que el conocimiento en su forma más acabada pueda ser posible. Los a
priori kantianos son universales y necesarios, mientras que los propuestos por la GE son
resultado de una filogénesis particular única entre muchas posibles. El a priori trascendental
no puede ser pensado como coextensivo del a priori biológico o psicológico, es decir innato.
Pero, además de estas diferencias que parecen conducir a condiciones de
inconmensurabilidad, es necesario agregar algunas cuestiones que parecen ser, con más
fuerza que las anteriores – o quizá derivadas de las anteriores- interpretaciones cuando
menos muy llamativas de la filosofía kantiana. La cuestión de la cosa en sí ha dado lugar a
muchas interpretaciones y herejías protokantianas, que van desde el idealismo al realismo,
pero, como quiera que sea, en la argumentación kantiana queda establecida la
inaccesibilidad definitiva a la misma. Sin embargo algunos epistemólogos evolucionistas
como Lorenz, Vollmer y Riedl entre otros, curiosamente consideran que esa inaccesibilidad
es relativa a las condiciones técnicas de investigación, porque asimilan la cosa en sí
kantiana con la estructura más fina de la realidad que está referida, fundamentalmente a lo
sumamente pequeño (física atómica o subatómica). Si bien es cierto que se puede coincidir
en que, “aunque tengamos un gran desconocimiento, hay que señalar que no existe ningún
‘buen motivo’ para postular tras ese mundo real, tal como lo investiga la ciencia empírica y
se reconstruye teóricamente, una realidad en sí desconocida” (Ursúa, 1993, p. 78), en tal
caso, ese no es el problema que pretende solucionar Kant al postular la cosa en sí. Como
quiera que sea, los postulados de la GE requieren la aceptación de un ‘residuo’
incognoscible. En todo caso, este ‘error’ exegético no invalida per se a la GE, aunque las
pone de lleno frente a algunos problemas filosóficos insoslayables. Entre ellos y
39
Kant llama ‘analogías de la experiencia’ a los principios puros del entendimiento que corresponden
a la categoría de la relación. Su fórmula general es: “la experiencia es sólo posible por la
representación de un enlace necesario de percepciones”. Las analogías de la experiencia
demuestran: 1° la sustancia es permanente en todos los cambios de los fenómenos y su cantidad no
aumenta ni disminuye en la naturaleza (principio de permanencia de la sustancia); 2° todos los
cambios acontecen según la ley del enlace de causa y efecto (principio de la sucesión en el tiempo
según la ley de la causalidad); 3° todas las sustancias en tanto que pueden ser percibidas como
simultáneas en el espacio, están en una acción recíproca general (principio de simultaneidad según la
ley de acción y reacción o reciprocidad).
principalmente: cómo explicar el conocimiento científico desde un punto de vista
evolucionista cuando cada vez se encuentra más alejado de las condiciones y necesidades
de la supervivencia biológica, más alejado en suma del ‘mesocosmos’; la cuestión del ajuste
entre el mundo real y la representación, el problema de la verdad y el error y la cuestión del
realismo.
Como quiera que sea, las GE pueden considerarse un marco teórico general desde
el cual plantearse el siguiente interrogante: ¿es posible considerar la existencia de cierta
inclinación a la detección de lo semejante y lo distinto como un mecanismo básico de
producción de conocimiento?. Evidentemente los desarrollos de la GE no van de manera
inequívoca en auxilio del carácter constitutivo de las metáforas, pero, y dado el carácter
ubicuo de éstas, bien puede sospecharse y a modo de hipótesis de trabajo que la detección/
construcción/ invención de analogías o semejanzas como un mecanismo básico –no
necesariamente único o principal- de relación con el mundo, cuyos resultados más
elaborados llamamos conocimiento. Incluso puede pensarse sin forzar demasiado las cosas
que algunos principios lógicos elementales como el de identidad o el del tercero excluido
surgen de disposiciones innatas surgidas de la particular filogenia exitosa de los humanos.
La inclinación a agrupar/separar lo semejante/desemejante o a establecer analogías
(metáforas) puede considerarse como una versión elaborada, aproximada, provisoria y
práctica de esos principios. Una hipótesis semejante permite inferir que las metáforas
literarias –también las malas- no son más que el resultado mediado y elaborado por el
lenguaje y la cultura, sobre la base de aquellos mecanismos simples. También puede
inferirse que el conocimiento científico, tan tardío en la historia de la especie, obtiene
esplendorosos resultados de un uso cuidado y meticuloso de ese mecanismo elemental. Las
metáforas en sus distintos usos no serían, entonces, más que epifenómenos emergentes. El
carácter subsidiario de la lógica con relación a la supervivencia de los individuos y la especie
ha sido subrayado por muchos autores que creen que la manera humana de pensar
depende en buena medida del hecho de ser una especie animal que para sobrevivir ha
debido incorporar y perfeccionar una serie de instrumentos que, tradición filosófica
mediante, se han constituido en ‘principios lógicos’.
El problema de la inducción que parece conducir según una lógica implacable al
incómodo escepticismo humeano adquiere una nueva dimensión pensado en estos
términos. Dando por descontado que hay regularidades en la naturaleza, y desechando la
pregunta acerca de por qué hay tales regularidades por ser una cuestión oscura acerca de
la cual es difícil ver “qué podría contar como una respuesta adecuada”, Quine ha planteado
la cuestión con lucidez estableciendo las preguntas más fructíferas:
“(...) por qué nuestra innata discriminación subjetiva de cualidades es acorde con las
agrupaciones naturales de propiedades de tal modo que nuestras inducciones tienden a
tener éxito? ¿Cómo es posible que nuestra discriminación subjetiva aprese la naturaleza
y tenga vínculo alguno con el futuro?. Hay un rayo de esperanza en Darwin. Si la
discriminación innata es un rasgo vinculado a la estructura genética, la discriminación
asociada con las inducciones que han tenido éxito tendrá a predominar por selección
natural.” (Quine, 1969 [1986, p. 161])
5.2.2. la cuestión del realismo
A la hora de abordar ciertos problemas filosóficos los defensores de la GE suelen
tener una serie de problemas algunos de los cuales ya he abordado más arriba y, si bien no
es este el lugar ni la ocasión para abordarlos con detalle, quisiera decir algo sobre una
cuestión muy importante para la filosofía general de la ciencia: el problema del realismo. El
realismo filosófico- cuando menos en el sentido que aquí interesa y en líneas generales- se
opone al idealismo, y puede adoptar tanto versiones epistemológicas como ontológicas y,
aunque en general suelen ir en bloque, no necesariamente una implica a las otras. Según el
realismo ontológico el mundo, al menos en algunas de sus características, es
ontológicamente independiente de cualquier acto de conocimiento. Según el realismo
epistemológico el mundo es cognoscible en muchos aspectos en forma adecuada, aunque
perfectible y parcial. Ese conocimiento se refiere al mundo y no es algo que el sujeto ponga
en él. Algunos (Diéguez, 2002) diferencian este tipo de realismo del ‘realismo semántico’
según el cual “nuestras teorías sobre el mundo serán verdaderas o falsas en función de su
correspondencia o falta de correspondencia con la realidad independiente”. Las distintas
versiones de la GE defienden un realismo ontoepistémico, pero, y dado que ‘realismo’ no es
un término unívoco, cabe preguntarse qué tipo de realismo puede defenderse
consistentemente desde una GE40.
La afirmación de que las cosas existen fuera e independientemente de la conciencia
y del sujeto, resulta implicada por la teoría evolucionista, dramáticamente cuando lo que se
juega es ni más ni menos que la muerte y la extinción. Está claro que en general los que
defienden el realismo epistemológico también aceptan el realismo ontológico, aunque no
necesariamente a la inversa. También queda claro que apostar por el realismo ontológico
solamente resulta poco interesante, ya que es una tesis que podría ser “aceptable para
instrumentalistas, neopragmatistas moderados, realistas internos, empiristas constructivos,
relativistas, e incluso idealistas trascendentales, y constructivistas sociales” (Dieguez, 2002,
p. 13).
Sin embargo la cuestión adquiere dimensiones diferentes cuando de lo que se trata
es de fundamentar el realismo epistemológico. Probablemente la identificación entre
conocimiento y vida que hace la GE genere la fantasía de que el problema está resuelto. El
realismo epistemológico41 presupone que dado que las capacidades cognoscitivas son el
resultado de la evolución por selección natural, es decir que han sido seleccionadas por su
eficacia biológica en cuanto favorecieron la supervivencia, nuestras creencias sobre el
mundo deben ser aproximadamente verdaderas en muchos casos. En este sentido diría
Quine que “las criaturas que yerran inveteradamente en sus inducciones tiene la tendencia
patética, pero encomiable, a morir antes de reproducir su clase” (Quine, 1969 [1986, p. 161])
La versión más habitual es la del ‘realismo hipotético’ expresión que aparece por
primera vez en un trabajo de Campbell (Campbell, 1987, 1997; cf. también Riedl, 1984;
Vollmer, 1984, 1987). El realismo hipotético sostiene que toda teoría acerca del mundo
empírico, es decir no formal, es hipotética, inclusive la afirmación acerca de la existencia del
mundo externo. Esta forma rechaza por igual el realismo metafísico o ingenuo según el cual el
mundo es tal como aparece, y el idealismo según el cual el mundo es mi representación.
El realismo hipotético afirma que es plausible aceptar un cierto grado de objetividad
del conocimiento, aunque ésta no sea ni absoluta en términos del fundacionalismo clásico, ni
demostrable en sentido formal. La plausibilidad viene dada por las premisas de la teoría
evolucionista, en el sentido de que la supervivencia de las especies (individuos) es más
plausible bajo el supuesto que sus sistemas cognoscitivos no sean totalmente erróneos. Podría
agregarse (Cf. Pacho, 1995, p. 89) que otras ciencias como la física o la neurofisiología
permiten descubrir los mecanismos que determinan los límites y alcances de la experiencia
corriente y confirmarían el carácter adaptativo del sistema filogenéticamente conformado42.
La GE no fundamenta, ni en sentido prekantiano ni en sentido trascendental, ni la posibilidad
ni los contenidos de conocimiento porque no se ubica en una instancia metateórica
privilegiada sino a la par de las ciencias naturales.
Sin embargo, cabe preguntarse antes de analizar el realismo hipotético mismo si en
verdad la “astucia del realismo hipotético consiste en no saber lo ingenuo que es” (Low, 1984,
p. 316). Lorenz sostenía en 1941 que “toda investigación de la naturaleza requiere
imprescindiblemente y del modo más necesario un concepto de lo absolutamente verdadero.”
40
Castrodeza (1999) señala que se trata de una cuestión ociosa y sin sentido preguntarse por el
realismo desde el evolucionismo
41
Algunos epistemólogos evolucionistas, como por ejemplo Ruse (1986), rechazan el realismo
epistemológico.
42
Sobre el carácter circular de la argumentación expuesta cf. Pacho, 1990 y 1995; Vollmer 1987a.
En la GE no aparece la hipótesis de que el mundo podría ser de otro modo a no ser como
referencia a las limitaciones del intelecto humano y, por el contrario aparece constantemente
una optimista ingenuidad sobre el acceso a una sui generis ‘cosa en sí’. La argumentación
de la GE parecería conducir directamente a un relativismo interespecífico, y la admisión de
una posición protokantiana refuerza ese derrotero, pero, el giro producido a partir de su
interpretación de las categorías de Kant- entendida no como condiciones formales de
posibilidad del conocimiento sino como limitaciones materiales perfectamente superables-, y
la defensa de la verdad como correspondencia, lleva por el contrario a plantear una posición
muy cercana al realismo ingenuo o metafísico. En este sentido se expresa E. M. Engels
(1985, 1987, 1989), quien partiendo del concepto de conocimiento sustentado por la GE
sostiene que ésta es inconsistente, pues su pretensión de explicación, entendida como
ventaja selectiva por medio de la reconstrucción adecuada, es incompatible con el realismo
hipotético y con la escala jerárquica de posibilidades cognitivas. Engels sostiene que si se
presupone una realidad autosubsistente por sí misma, y una cierta jerarquía de logros
cognoscitivos por parte de los seres vivos y de las especies, cómo habría de explicarse la
supervivencia de especies cuyos logros cognitivos están muy por debajo de la
reconstrucción humana de ese mundo. Incluso creencias definitivamente falsas pueden
otorgar ventajas de supervivencia (Cf. Dieguez, 2002).
Queda claro entonces que la GE, si bien no puede aportar argumentos concluyentes
a favor del realismo ontoepistémico (¿por qué habría de hacerlo después de todo?), es
compatible con él, aunque algunos de sus exponentes se extralimitan en cuanto a su
apuesta por las características y alcances de ese realismo. Sin embargo es mucho más
problemática la defensa del realismo semántico. Podríamos decir claramente que la verdad
no necesariamente es más adaptativa que la falsedad. Sin embargo esta consecuencia de la
GE no debería conducir a ninguna posición escéptica, sino más bien una suerte de
relativismo interespecífico, o para ser más preciso un perspectivismo interespecífico. En
efecto, las consecuencias de la particular filogenia de la humanidad es algo que ya había
vislumbrado W. James:
“Si fuéramos langostas o abejas, podría ser que nuestra organización nos condujera a
usar modos de aprender nuestras experiencias completamente distinto de los que
poseemos. Podría ser asimismo (no podemos negar esto dogmáticamente) que tales
categorías, hoy inimaginables para nosotros, hubieran resultado tan útiles en general
para el manejo mental de nuestras experiencias como las que realmente usamos.”
(James, 1907 [1984, p. 145])
Una constitución biológica diferente y, por tanto una relación con el mundo exterior
mediada por una estructura nerviosa surgida en la historia filogenética diferente deberían
dar lugar a distintas estrategias de supervivencia y también modos inconmensurables de
aprehensión de la realidad. El conocimiento humano incluida la ciencia no es, entonces, más
que un producto provinciano y local. Y este perspectivismo antropomórfico es anterior a
cualquier análisis de los relativismos subjetivo o cultural: es fundacional. Sobre esta cuestión
se basa el ejercicio mental que realiza Rescher (1994) preguntándose por las características
que tendrían la ciencia y el conocimiento de una hipotética civilización extraterrestre. Y
llegados aquí no parece haberse avanzado demasiado: el problema filosófico del
conocimiento sigue allí, intacto. Probablemente, y más allá de sus verdaderos aportes, las
GE deban renunciar a la intención de dar cuenta de las condiciones y características más
finas del conocimiento humano y de los problemas filosóficos involucrados en términos
exclusivamente biológicos.
Resumiendo: una GE es compatible con el realismo ontoepistémico y con un
perspectivismo interespecífico, aunque no con el escepticismo ni con el realismo semántico
6. METÁFORAS EPISTÉMICAS EN LA EVOLUCIÓN DE LA CIENCIA.
Antes de pasar a la segunda parte de este libro conviene hacer una recapitulación de
lo dicho hasta aquí para precisar algo más en qué consiste este artefacto que he
denominado ‘metáfora epistémica’ y algunas pautas para que sea considerada como unidad
de selección en una EE .
En el primer capítulo se ha avanzado en la consideración de las posibilidades y
dimensión cognoscitivo/epistémica de muchas metáforas. Se trata de una concepción
amplia de las metáforas, dado que extiende su ámbito de incumbencia, en contraposición al
uso tradicional, restringido a propósitos estéticos. Según esta forma de ver las metáforas,
ellas son portadoras de información sobre el mundo y tendrían un papel en la ciencia que va
más allá de las funciones heurístico/didácticas. Además, se ha argumentado a favor de la
necesidad de considerarlas según sus aspectos pragmáticos y semánticos en conjunto, ya
que las metáforas dependen del uso y las circunstancias de los hablantes, y además, hay en
ellas aspectos relacionados claramente con la transferencia/modificación de significados.
También se ha mostrado que la frontera entre muchos de los modelos científicos y las
metáforas se hace difusa; ya sea por el sorprendente parecido que muchos modelos
científicos tienen con las metáforas en cuanto a la relación con el mundo empírico o ya sea
con relación al hecho de que tanto los modelos científicos como las metáforas pueden
funcionar como expresión literal u original de una expresión metafórica cuando se traslada a
un ámbito diferente.
A los conceptos, teorías, estructuras, nociones, etc. que sufren este traslado entre
ámbitos científicos o bien que ingresan a la ciencia desde el lenguaje y las concepciones
corrientes o bien desde el trasfondo mismo de la cultura se los ha denominado ‘metáforas
epistémicas’, a las que es ha definido como la operación en la cual una expresión (término o
grupo de términos) y las prácticas con ellos asociadas habituales y corrientes en un ámbito
de discurso determinado socio-históricamente, sustituye o viene a agregarse (modificándolo)
con aspiraciones cognoscitivo- epistémicas, a otra expresión (término o grupo de términos) y
las prácticas con ellos asociadas en otro ámbito de discurso determinado sociohistóricamente; este proceso se desarrolla en dos etapas, a saber: bisociación
sincrónica/literalización diacrónica.
En el segundo capítulo se ha desarrollado un rápido repaso por los estudios sobre la
ciencia del siglo XX, que muestra como resultado en las últimas décadas, una configuración
peculiar del estado de la cuestión que propicia un clima permeable a la revalorización del
papel de las metáforas en la ciencia. Pero este rescate de la dimensión metafórica de la
ciencia tiene, como ya se ha señalado, un límite más o menos preciso: repensar la ciencia
desde la relevancia epistémica de las metáforas supone la superación del dilema principal
que se le plantea a la epistemología actual, en el convencimiento, como ya se adelantó, de
que son tan indefendibles las tesis fuertes de la CH como las impugnaciones extremas de la
misma. En ese sentido puede decirse que de la aceptación de que es necesario atender a
los elementos contextuales y prácticos de la actividad científica (a la dimensión sociológica y
diacrónica en suma), habida cuenta de su relevancia epistémica y de que en la ciencia
habitual y cotidianamente se utilizan recursos discursivos y retóricos varios, no se sigue que
se deba desdibujar la especificidad epistémica de la misma. Los estudios sociales de la
ciencia, cuando menos en sus versiones más extremas, han caído en las aporías que
generaron; por otro lado se impone reevaluar el valor cognoscitivo de las metáforas. La
utilización del concepto de ME puede contribuir a rescatar las viejas aspiraciones de
reconstrucción del proceso científico sin caer en las exigencias desmesuradas de la CH y al
tiempo dar cuenta de los procesos diacrónicos sin caer en las versiones relativistas. Vale
decir, abordar los genuinos problemas de la filosofía general de la ciencia acerca de la
reconstrucción (relación entre teoría y experiencia; estructura de las teorías; papel heurístico
y representacional de los modelos en ciencia; supuestos ontologicos, semánticos y
pragmáticos de la ciencia) en el contexto de las condiciones social de producción y
evolución del conocimiento.
Ya se han señalado líneas de pensamiento que consideran el carácter
eminentemente metafórico del lenguaje mismo y del lenguaje científico, pero, además de
estos desarrollos teóricos, un indicio de la importancia de las metáforas en la ciencia surge
de la constatación, a poco que se comience a indagar en la historia de la ciencia. Allí puede
encontrarse que los procedimientos metafóricos no son excepcionales, sino más bien la
regla. Se produce entonces un curioso y ostensible desfasaje entre la normativa canónica
respecto del uso de metáforas y lo que muestra la historia y las prácticas efectivas de la
comunidad científica. Esta disparidad notoria entre el precepto metodológico sobre lo que
debería haber y lo que muestra efectivamente el recorrido a través de varios siglos de
ciencia debe cuando menos llamar la atención.
El objetivo principal del presente Capítulo ha sido trazar un panorama más o menos
amplio de las EE, es decir intentos por dar cuenta de los desarrollos históricos de la ciencia
utilizando la metáfora evolucionista mostrando algunas de las deficiencias de esos planteos
pero rescatando la idea evolucionista básica en el convencimiento de que es posible lograr
una formulación de EE que pueda eludir las objeciones más importantes echando mano del
concepto de metáfora epistémica como unidad de selección, dado que es lo suficientemente
amplio y flexible como permitir explicar la continuidad ciencia/sociedad y la relación entre
ciencias. Si esta empresa tuviera éxito, permitiría tener una perspectiva nueva,
probablemente no excluyente de otras, para dar cuenta de la dimensión diacrónica de la
ciencia y del conocimiento en el marco de una epistemología evolucionista amplia que
incluyera los problemas del desarrollo ontogenético, filogenético e histórico del
conocimiento. Además, he especulado sobre la posibilidad de considerar la producción de
metáforas como uno de los mecanismos básicos del conocimiento y la producción del
lenguaje; que las metáforas, en suma, pueden ser consideradas como una regla
epigenética.
6.1 epistemología evolucionista y metáforas epistémicas
Pero no se trata tan sólo de engrosar un catálogo de metáforas a través de la historia
de la ciencia y algunas de sus prácticas habituales, sino de establecer algunas categorías o
criterios metacientíficos. Resumiré lo dicho bajo la forma de unas pocas afirmaciones
básicas:
1. La constitución del sistema cognitivo es a priori de la experiencia individual, pero se ha
desarrollado filogenéticamente, es decir que su adquisición ha tenido lugar a posteriori
de la experiencia evolutiva de la especie merced al éxito adaptativo de la misma. Por
tanto, lo que llamamos ‘razón humana’ es un producto evolutivo, directa o indirectamente
-incluye aspectos culturales relevantes per se o que podrían eventualmente influir en la
evolución biológica- originado por el proceso evolutivo. Todos los elementos que
componen el aparato cognoscitivo son parte del mundo real pero no a la inversa. La
naturaleza es temporal y estructuralmente primera, determinante con respecto a la razón
con sus órganos y funciones específicos.
2. como derivación de lo anterior puede afirmarse que hay umbrales de continuidad entre el
conocimiento animal y el conocimiento humano. Se trata de un aspecto parcial de las
consecuencias generales de la teoría de la evolución con respecto a la relación de la
especie humana con el resto del mundo viviente.
3. El órgano cognitivo- o si se quiere en un sentido más general, las estructuras cognitivas no son tan sólo receptoras ni vacías o neutrales, sino portadoras de información o
esquemas de interpretación del mundo exterior (desde rangos de la percepción, hasta
prejuicios constitutivos, hipótesis, previsiones, persuasiones, etc.); esta información es
inherente a las funciones del sistema cognitivo. Los niveles de conocimiento más
elaborados, por ejemplo el conocimiento científico, supervienen a partir de las
estructuras cognitivas más simples, por lo cual puede explicarse no sólo la continuidad,
sino también la ruptura y discontinuidad con el conocimiento animal. La superveniencia
explica – contra algunas versiones de la GE (REFERENCIA????)- que las formas más
elaboradas de conocimiento no pueden reducirse a algunas funciones básicas
primordiales
4. Existe un mundo real e independiente del sujeto y de sus representaciones, parcialmente
cognoscible y explicable, de modo hipotético, provisional y falible. Las estructuras
cognitivas concuerdan tan sólo parcialmente con las del mundo real, ya que la
concordancia no es en el proceso de adaptación un fin en sí mismo, sino que está al
servicio de la supervivencia. Como consecuencia de ello, es posible sostener que la
función primordial de las estructuras cognitivas no es el conocimiento objetivo de la
realidad, sino el éxito en la supervivencia. Como una consecuencia posible de esto
puede pensarse que el error no debe ser concebido como un defecto circunstancial del
sistema cognitivo sino que se le debe asignar un status diferente, como elemento
consustancial con el funcionamiento del mismo, en la medida en que no es la verdad su
objetivo, sino la apropiación interna del mundo exterior con fines utilitarios.
5. una buena parte de los procesos humanos de conceptualización y de aumento de
conocimiento –aunque probablemente no todos- se desarrollan según un procedimiento
de tipo metafórico. A su vez, la configuración de los procesos cognoscitivos se ha dado a
lo largo de la historia evolutiva de la especie y son el resultado único y particular de esa
filogénesis entre otras posibles que no han tenido lugar. Puede suponerse que los
procesos metafóricos sean parte del resultado de esa evolución filogenética.
6. hipótesis de continuidad: las primeras metáforas que podríamos, según algún criterio
reconocido, considerar científicas, pueden haberse introducido desde ámbitos no
científicos o de conocimiento vulgar, o bien provenir de otros campos científicos
consolidados.
7. hipótesis de discontinuidad: dado que la ciencia constituye un tipo de actividad y
producto específico la hipótesis de continuidad debe ser completada con una hipótesis
de discontinuidad. La discontinuidad puede ser expresada desde dos puntos de vista:
por un lado está dada por el alejamiento constante entre conocimiento como ventaja de
supervivencia y conocimiento científico teórico (esto es, desvinculado del mesocosmos);
por otro lado, en el hecho de que una epistemología que se redujera a una GE sería
epistemológicamente vacía, ya que el modelo de variación/selección/replicación, podría
ser aplicado tanto a la ciencia como a la moda, la historia de las sectas, e infinidad de
otros procesos. Puede leerse la historia de la ciencia o el funcionamiento de la
comunidad científica desde un punto de vista epistemológico y sociológico como fundado
en el tráfico metafórico de modelos de un ámbito a otro sin que necesariamente ello
implique la indagación sobre el funcionamiento profundo y específico del aparato
cognoscitivo de los humanos. Pero afirmar que la historia de la ciencia puede leerse
según un modelo evolucionista en el cual los elementos de intercambio son las
metáforas, requiere una serie de precisiones.
6.2 la evolución de la ciencia
Sostener que la historia de la ciencia puede ser comprendida según un modelo EE
implica bastante más que mostrar un catálogo más o menos exhaustivo de ejemplos
adecuados elegidos estratégicamente. Se trata de una apuesta más fuerte: entender la
historia de la ciencia desde un punto de vista evolucionista, considerándola como un
proceso que en buena medida se constituye a partir de la apropiación, legitimación,
abandono, descarte y recuperación de las potenciales metáforas disponibles. Esta
disponibilidad no es lógica sino histórica; vale decir que en cualquier momento dado, no está
disponible un universo infinito de metáforas posibles, sino que, por el contrario, hay en cada
época un escaso número de candidatos a imágenes de la sociedad y el mundo
suficientemente legitimados. Estos conceptos, teorías, nociones, etc., susceptibles de ser
utilizados como ME conforman, utilizando una terminología popperiana, una especie de
mundo3, pero si bien Popper tiene razón cuando sostiene que hay un mundo objetivo de las
producciones humanas y de los argumentos y teorías científicas, se equivoca en dos
aspectos sustanciales: cuando afirma que es un mundo lógico y cuando afirma que hay un
método universal, las conjeturas y refutaciones. El mundo3 propuesto aquí, al igual que el
popperiano es objetivo, pero, a diferencia de aquél, no se trata de un mundo lógico, sino del
mundo de las explicaciones disponibles, es decir es un mundo3 delimitado histórica y
socialmente43. Es objetivo porque la ciencia no es una actividad arbitraria sujeta sólo a
reglas que puedan fijarse por intereses circunstanciales del tipo que sea (sociales,
culturales, históricos, económicos, etc); además, puede decirse que se autonomiza de los
autores o creadores y sus consecuencias son, en principio, imprevisibles. Es decir que
genera un universo de nuevas preguntas e indagaciones científicas cuyo éxito o fracaso
explicativo y derivaciones hacia otros campos y preguntas no es posible prever a priori.
También se diferencia del mundo3 popperiano en que no hay ningún algoritmo que pueda
propiamente denominarse ‘método científico’, único para todo tiempo y lugar (las conjeturas
y refutaciones) como regla de oro a seguir, sino que las reglas y pautas metodológicas
específicas son generadas al interior de la comunidad científica; no hay en este sentido –
más allá de los principios lógicos- pautas que se prescriban a priori de la actividad científica.
Pensar la historia de la ciencia desde un punto de vista evolucionista implica que
debe haber una cantidad de variantes intelectuales y un proceso de selección que determine
qué variantes sobreviven y cuáles se abandonan y, completando el proceso, algún
mecanismo de transmisión de las variantes sobrevivientes. Respecto al primer aspecto no
es necesario pensar aquí que se trata únicamente de teorías científicas reconocidas y
consolidadas, aunque pueden serlo, sino que en este mundo3 operan todo tipo de
estructuras conceptuales, modelos de distinto tipo, concepciones metafísicas, taxonomías
filosóficas, científicas o de sentido común, prejuicios, etc., y todos ellos pueden cumplir el
papel de original para unas metáforas que puedan convertirse en epistémicas. El modelo de
EE que defiendo, y esto representa una ventaja con relación a las otras EE, no requiere que
las variantes en disputa sean logros científicos consolidados, sino que el origen y
genealogía de las metáforas que se convertirán a la postre en partes sustanciales de las
teorías y/o modelos científicos puede ser sumamente variado y heterogéneo. No es
necesario pensar, con Popper, que se trata exclusivamente de ‘teorías científicas’ en lucha
por la supervivencia –aunque de hecho pueda ocurrir-, sino de unidades de bordes más
difusos; mucho menos engendros teóricos como los memes de Dawkins (1993) o los
culturgenes de Lumsden y Wilson (1981). Estoy más cerca de pensar, con Toulmin, que se
trata de variantes intelectuales que merced a ciertos requisitos de evaluación, éxito en la
solución o explicación de ciertos problemas y condiciones contextuales propicias, pueden
llegar a convertirse en candidatos a teorías o modelos científicos genuinos. Las discusiones
entre los epistemólogos evolucionistas acerca de cuál es la unidad que se selecciona queda
diluida: es mejor y más plausible considerar que hay una multitud de clases de variantes en
disputa. En este sentido se comprende por qué es irrelevante en principio que la unidad que
se selecciona sea tan inasible. De cualquier manera, traspasar el umbral de requerimientos
de la comunidad científica ocurrirá en la medida en que respete sus pautas de evaluación y
aceptabilidad. Una mala metáfora científica no podrá responder a los estándares de
evaluación requeridos, por lo menos no por mucho tiempo. Pero los mecanismos de
selección entre todas las metáforas disponibles son internos a la comunidad científica, y aún
el status mismo de comunidad científica y la demarcación entre ciencia y lo que se
considera no-ciencia, resulta acotada a las condiciones histórico/sociales de producción,
43
Aunque a los efectos de la presente argumentación no resulte relevante, es necesario destacar que
planteado en estos términos el mundo3 debería probablemente incluir el mundo2 popperiano. En todo
caso me aprovecho de la terminología popperiana para señalar el carácter autónomo y objetivo de los
contenidos del mundo 3.
circulación y disputas entre los distintos saberes. De modo tal que tampoco es preciso
pensar unos procedimientos canónicos que permitan establecer estas distinciones a priori,
sino que los procedimientos de selección y los criterios también están sujetos a evolución.
Probablemente alguna de las insuficiencias de las distintas EE radique en que o bien
están pensadas dentro de las acciones de la comunidad científica o bien postulando
unidades de selección tan vagas que no hay manera de establecer la especificidad de la
ciencia. Pero puede pensarse en unas metáforas epistémicas que, provenientes desde el
fondo mismo de la cultura, diacrónicamente vayan creciendo en especificidad, formalidad y
precisión a través de instancias de selección previas que no corresponden a las
comunidades científicas, sino a mecanismos sociales o culturales en sentido amplio. De
hecho, estos procesos e instancias de ‘selección previa’ son primordiales en toda actividad
cognoscitiva y para cualquier abordaje epistemológico no estándar.
El tercer elemento requerido, el mecanismo de transmisión de la variación, es en su
aspecto relacionado con los canales de obtención de información e intercambio de la
comunidad científica el menos sujeto a problemas y controversias. Resulta primordial no
obstante, y a propósito de las metáforas epistémicas, los aspectos relacionados con la
formación de los científicos, en la cual como ya se ha mostrado más arriba siguiendo en
esto a Th. Kuhn, desempeñan un papel central. Probablemente los estudios de retórica de la
ciencia sean útiles para dar cuenta de esta parte de los procesos.
A esta altura, hablando de metáforas, podríamos ensayar una caracterización
preliminar de la ciencia desde este punto de vista evolucionista: consistiría en un conjunto
de decisiones cognoscitivo/epistémicas de aceptación/rechazo de metáforas epistémicas
que toma la comunidad científica sobre la base de las metáforas disponibles como
respuesta a un conjunto de preguntas vigentes, para dar cuenta de un conjunto amplio, pero
limitado y abierto, de experiencia disponible. Son decisiones que toma la comunidad
científica en un lugar y tiempo determinado, vale decir con un cierto margen de
convencionalidad como toda decisión, pero son racionales y objetivas porque responden a
pautas que esa comunidad científica ha ido elaborando a través del tiempo e
intersubjetivamente, aunque de hecho tales pautas no sean ni universales ni a priori. Son
decsisiones que comprometen cognoscitiva y epistémicamente, es decir, que con ellas se
pretende describir/explicar/predecir el mundo por un lado, y además, están en línea con las
pautas aceptabilidad y legitimidad de la comunidad científica. Estos últimos aspectos
confieren la especificidad al conocimiento científico en particular respecto a otros discursos.
Lo que se elige o selecciona son metáforas epistémicas que a través del proceso que se ha
denominado de bisociación sincrónica/literalización diacrónica confieren a la experiencia
disponible nuevas configuraciones. La ‘experiencia disponible’, incluye lo que en un
momento determinado se considera evidencia empírica que es un conjunto cuyos límites no
son definitivos ni claros; se trata en suma de la base empírica relevante que se enriquece y
reconfigura mediante nuevas metáforas epistémicas. Es muy importante el calificativo –
‘disponible’- usado en este concepto. Tal disponibilidad está expresando un límite que está
dado no sólo por las capacidades humanas –lo cual es una trivialidad-, y ni siquiera
primordialmente por las capacidades técnicas –que, si limitadas, también son superables
imprevisiblemente- sino principalmente por la configuración, inmanente a la comunidad y
discursos científicos vigentes de lo que se considera un ‘hecho científico’ y sus condiciones.
En suma mi propuesta de EE parece tener algunas ventajas con respecto a otras
conocidas porque:
• considerar que las unidades de selección son las ME convierte en irrelevante la
discusión en torno al ajuste/desajuste de la metáfora
•
permite establecer un juego de continuidad/discontinuidad entre conocimiento animal/
conocimiento vulgar/ conocimiento científico sin recurrir a criterios de demarcación
estrictos pero indefendibles o laxos pero irrelevantes. En todo caso, si se quiere seguir
hablando de criterios de demarcación que expresen la discontinuidad, éstos serán
criterios internos a las comunidades científicas en su conjunto y situados
sociohistóricamente
•
•
•
Se encuentra a tono con el estado de la cuestión en los estudios sobre la ciencia con
relación a la relevancia de los análisis diacrónicos pero además provee de una
herramienta de análisis para los abordajes sincrónicos
Permite vislumbrar una explicación de la introducción de la novedad en la ciencia, al
tiempo que una relación osmótica (hablando de metáforas) entre ciencia y sociedad
dado que en cualquier momento hay una cantidad de metáforas disponibles circulando
socialmente. Las novedades en ciencia hay que buscarlas en ámbitos extra o si se
prefiere pre-científicos. En ese sentido, las habituales disputas acerca de la necesidad
de delimitar entre historia interna/ historia externa, adquieren otra dimensión y permite
establecer un puente plausible para las relaciones entre ciencia y sociedad.
El análisis evolucionista de las metáforas epistémicas resulta compatible con distintos
tipos de secuencias historicas para la ciencia, resultando ocioso cualquier intento de
establecer a priori si la ciencia resulta de un proceso principalmente revolucionario o de
acumulación lineal.
SEGUNDA PARTE
LAS METÁFORAS EN LA HISTORIA DE LA CIENCIA
CAPITULO 4
LAS GRANDES METÁFORAS
Imágenes del universo
Lo que calificamos de evolución en el pensamiento
es muchas veces tan sólo la sustitución transformadora,
en ciertos puntos críticos de la historia,
de una metáfora-base por otra,
en la contemplación por el hombre del universo,
de la sociedad y de sí mismo
(Nisbet, Cambio social e historia)
Un repaso por la historia de la ciencia muestra que la transferencia de metáforas
epistémicas es uno de los procedimientos más importantes de producción y desarrollo del
conocimiento. Sin embargo, las ME no son una suerte de ‘módulo’ estándar, identificable
claramente, sino que adquiere variadas formas, niveles y alcances. Como, además, el
rastreo de la génesis de las principales metáforas científicas llevaría muy probablemente al
trasfondo semioculto de la cultura –ese saber ventrílocuo, en palabras de P. Thuillier
(1990a)-, resulta muy difícil establecer clasificaciones o taxonomías exhaustivas. Sin
embargo, pueden señalarse algunas formas principales o típicas según las cuales se
producen entre áreas del conocimiento interacciones tales como apropiaciones,
extrapolaciones o transferencias de conceptos, o teorías completas o parciales.
1. En primer lugar la utilización de metáforas muy generales, muchas veces
asunciones metafísicas sobre la naturaleza o la sociedad, aplicadas en distintas disciplinas o
áreas de conocimiento como por ejemplo el finalismo de raigambre aristotélica basado en el
concepto de physis griega y que predominó en muchos sentidos hasta el siglo XVII, o el
mecanicismo que signó las explicaciones desde el siglo XVII hasta, por lo menos en física,
fines del XIX. En la medida en que se trata de puntos de vista muy amplios suelen ir en
paralelo con fuertes componentes metodológicos, o cuando menos inaugurar verdaderos
‘estilos’, tales como la matematización y cuantificación de la naturaleza a partir de la
Revolución Científicas. Estas grandes metáforas operan en la configuración de la
experiencia disponible en un momento dado, de modo tal que constituyen el elemento
primordial que posibilita la producción de conocimiento; antes que ser un emergente
secundario, ellas delimitan el campo de lo posible cognoscitivamente (cf. Jacob, 1981) en un
momento dado.
2. En segundo lugar, la utilización de cuerpos teóricos completos - o casi completos- originales de un ámbito
científico particular que se exportan o extrapolan a otros ámbitos diferentes. Podría citarse una gran diversidad de casos,
aunque existen, en la modernidad, básicamente tres ejemplos paradigmáticos: la física newtoniana y la biología en general y la
biología evolucionista darwiniana en particular. La física newtoniana además de constituirse en modelo de cientificidad durante
más de dos siglos, sus conceptos y fórmulas fueron extrapoladas, con mayor o menor rigurosidad, meticulosidad y felicidad a
ámbitos ajenos como la economía y la sociología. Por citar tan sólo algunos ejemplos: a mediados del siglo XIX los
economistas L. Walras y H. C. Carey propusieron leyes que pueden ser consideradas análogas a las de Newton en la medida
en que pudieran servir a la misma función básica en sociología o economía que tiene la ley de Newton en física. Autores como
G. Berkeley, Ch. Fourier, D. Hume, E. Durkheim, por ejemplo, tampoco pudieron sustraerse a la ‘tentación’ newtoniana. Figuras
como S. Jevons, Walras, F. Edgeworth, I. Fisher y W. Pareto- todos arquitectos de la revolución marginalista en economíabasaron sus teorías o al menos las asociaron con la matemática de un subconjunto específico de la física: la mecánica racional
post newtoniana (o sea incorporando los principios de Lagrange y Laplace más los métodos de Hamilton) combinada con las
doctrinas de la energía. La otra gran línea de campos proveedores de modelos utilizados en otras áreas procede de las
ciencias biológicas sobre todo a partir de sus espectaculares desarrollos de los siglos XIX y XX. En esta línea, además de la
teoría celular de gran influencia en la sociología del siglo XIX, la teoría darwiniana de la evolución es la que más ha
desbordado los límites originales de la biología, sirviendo de marco teórico para la antropología evolucionista de la segunda
mitad del siglo XIX, la antropología criminal de Lombroso y otros, cierto apoyo a lo que ha dado en llamarse ‘darwinismo social’,
teorías sociológicas de corte organicista evolucionista como la de Spencer y Durkheim, la eugenesia, que apoyada sobre la
teoría de la evolución, sirve de legitimación para diversas tecnologías sociales, las economías evolucionistas de las últimas
décadas (como teoría económica general, como teoría de la empresa o economía de la innovación tecnológica) y también
epistemologías evolucionistas. Algunas versiones reduccionistas del conocimiento pueden ser consideradas una suerte de uso
metafórico, tales como la sociobiología humana; distintas formas y niveles de reduccionismo en medicina, etc. El análisis de
mente como una computadora, o de la computadora como una mente. Probablemente una de las metáforas vigentes más
fuertes sea la que une algunos conceptos de la teoría de la información y la idea de ‘programa’ con la biología molecular.
3. En tercer lugar, un uso algo más restringido de metáforas, surge de una infinidad
de casos al interior mismo de los cuerpos teóricos de disciplinas particulares. Se tratano ya
de metáforas que se obtienen de la exportación de teorías y/o conceptos provenientes de
disciplinas consolidadas hacia otras, sino simplemente de analogías y metáforas obtenidas
del conocimiento común o del imaginario cultural. La lista de metáforas usadas por los
científicos podría ser casi interminable: el árbol de la vida, la lucha por la supervivencia, la
enorme cantidad de metáforas usadas por Freud, la ‘mano invisible’, el mercado en
economía, etc.
4. Finalmente se encuentran los usos metafóricos propios de los propósitos
didácticos, tanto en la enseñanza de la ciencia como en la divulgación científica. Se trata de
un caso muy especial en dos sentidos: por un lado porque parece resolverse aquí la
posibilidad misma de enseñanza y divulgación para no especialistas y, por otro también
tienen un papel fundamental en la educación de científicos y la divulgación especializada, es
decir en la formación académica y profesional, tal como mostrara claramente Th. Kuhn. En
ambos casos, diferentes en muchos otros respectos, el uso de metáforas corrientes y
establecidas contribuye a construir y a reforzar imágenes culturales sobre el mundo y la
ciencia. De hecho es necesario destacar una vez más, que en oposición a la imagen
tradicional de la ciencia, no sólo no es este el único uso relevante y pertinente de metáforas
como meras estrategias instrumentales de aprendizaje, sino que además este nivel resulta
fundamental en la constitución de marcos teóricos y conceptuales sustantivos.
En este capítulo se abordarán las grandes metáforas, muy generales y básicas, que
funcionan muchas veces como supuestos metafísicos sobre el mundo y atraviesan distintas
disciplinas o áreas de conocimiento; funcionan en general como verdaderas imágenes del
mundo. Estas metáforas básicas conllevan también, además de contenidos sustantivos teorías, conceptos, taxonomías, clasificaciones, etc.- determinados criterios de cientificidad y
ciertos estilos o modos generales de hacer ciencia, compuestos muchas veces no tanto por
reglas o pautas metodológicas establecidas claras y explícitamente, sino más bien por la
transferencia de sistemas de valores. Estos valores, aunque pueden tener diversa génesis y
origen, siempre adoptan la forma de valores epistémicos, es decir que importan a la hora de
tomar decisiones sobre justificación y aceptación de las afirmaciones científicas.
Quizá no sea demasiado aventurado pensar que los ejemplos de estas metáforas muy amplias, que, por otra parte,
han atravesado todo el conocimiento de sus épocas y han perdurado durante siglos, tengan su origen en las principales y más
simples fuentes de inspiración de la experiencia humana cotidiana, las que están más a la mano: en lo viviente en general o en
algunas de sus funciones o características, muchas veces en versiones estrictamente antropomorfizadas y por otro lado en
alguna creación humana siendo el ejemplo más ostensible, aunque no el único, las máquinas creadas por el hombre en
distintas versiones y relaciones con el mundo de lo viviente y de lo no viviente. Probablemente el ejemplo más influyente del
primer caso aparezca en la herencia del mundo griego clásico, originada en su concepto de physis, y que ha perdurado y
adquirido variadas formas a lo largo de siglos.
Antes de proceder al tratamiento de los ejemplos de la historia de la ciencia es necesaria una breve digresión sobre
el estatus de estos ejemplos en general- es decir sobre la relación entre historia y filosofía de la ciencia- y en particular en este
trabajo. El campo interdisciplinario de los estudios sobre la ciencia incluye tanto las perspectivas estrictamente filosóficas como
así también las históricas, además de otras como la sociología o la retórica. Este nuevo orden de la distribución de
incumbencias intelectuales- tanto en le tándem filosofía/historia de la ciencia como en cualquier otro- a veces parece un
solapamiento de disciplinas, es decir que, sin que ninguna dependa de la otra, algunas de las conclusiones alcanzadas en una
de las disciplinas coinciden con las alcanzadas en la otra; otras veces la relación parece de interdependencia, de modo que
cada una necesita de la otra para desarrollarse. La ya clásica expresión de Lakatos señala este aspecto: “La filosofía de la
ciencia sin la historia de la ciencia es vacía; la historia de la ciencia sin la filosofía de la ciencia es ciega” (Lakatos, 1970 [1982,
p. 11]). Tanto el solapamiento como la interdependencia son resultado de la creciente conciencia de la necesidad de abordar
los aspectos diacrónicos de la ciencia (cf. Capítulo 2) registrada en las últimas décadas. Estos puntos de vista son superadores
tanto de aquellos en los cuales la historia y la filosofía de la ciencia eran perspectivas excluyentes o completamente
independientes, como de aquellos que pudieran considerar que una perspectiva fuera subsidiaria de la otra (cf. Kuhn, 1977,
Lakatos, 1968, 1970, Losee 1987).
Como quiera que sea, apostar por la idea según la cual hay un solapamiento o interdependencia entre filosofía e
historia de la ciencia, implica el desarrollo de un tratamiento particular de los episodios científicos. En este sentido, pretender
que la historia de la ciencia puede ser leída en clave de metáforas epistémicas en evolución, implica llevar adelante el trabajo
artesanal de analizar exhaustivamente cada uno de esos episodios. Esa tarea es algo que está por hacerse y la propuesta que
se expone en la primera parte de este trabajo debe considerarse como un complejo conjunto de hipótesis de trabajo cuya
utilidad y riqueza deberá confirmarse.
En los estudios sobre la ciencia estándar se echa mano de ejemplos a través de una selección estratégica que
contribuye siempre a ‘probar’ algún punto de vista particular. Pero también es cierto que es posible encontrar una enorme
cantidad de contraejemplos; la historia de la ciencia falsea cualquier metodologia señalaba Lakatos (1970, [1982, p. 46]). Por
ello, insisto una vez más, el objetivo perseguido no es que los ejemplos que se desarrollarán en este Capítulo y en el siguiente
justifiquen de algún modo los desarrollos teóricos o técnicos de la primera parte, sino más bien exponer un abanico amplio de
casos en los cuales puede sospecharse fuertemente el uso epistémico de metáforas. Tales sospechas pueden manifestarse en
algunos casos más intuitivamente, en otros de manera mucho más clara. En todo caso, el análisis exhaustivo de cada uno de
los episodios señalados, o de otros que puedan agregarse, puede indicarse como tarea a desarrollar.
1. LAS METÁFORAS DEL MUNDO CLÁSICO
1.1 la esfera y el círculo: el problema de Platón
“El sueño se hace a mano y sin permiso,
arando el porvenir con viejos bueyes...”
S. Rodríguez
Uno de los grandes problemas de los hombres ha sido, desde la antigüedad, dar cuenta del movimiento de los
objetos del cielo. En la versión platónica – y en general del mundo clásico-, esta explicación debía tener como resguardo para
la verdad, su respeto por el mundo inteligible según el principio: “los verdaderos movimientos son perceptibles para la razón y
el pensamiento, pero no para la vista”. La impronta del mundo inteligible en lo sensible regida por los principios de orden,
armonía, simplicidad, proporción y simetría, sólo podía expresarse en términos matemáticos –geométricos- y las formas más
caras a esos ideales eran la circunferencia (círculo) y la esfera.
El problema de hallar los movimientos circulares uniformes y regulares que puedan explicar la evidencia empírica
disponible –las apariencias de los movimientos de los objetos del espacio-, es conocido como el problema de Platón y estos
criterios de tipo matemático- estético van a traer consigo la adopción de compromisos muy precisos, que influirán
decisivamente en el desarrollo de la astronomía desde el siglo VI a.C. hasta el siglo XVII. Esta marca tan persistente podría
resumirse como sigue:
1. Tanto los cuerpos celestes como la Tierra tienen forma de esfera
2. El cosmos tiene forma de esfera (es finito)
3. La Tierra se halla en el centro de la esfera cósmica
4. Todos los movimientos celestes son circulares y en el mismo sentido
La idea de que el movimiento circular era perfecto estaba muy arraigada en la
mentalidad griega y Aristóteles la justificaba señalando que dicho movimiento es el único
simple y completo. En efecto, si el movimiento rectilíneo tiene una dirección simple (hacia
abajo por ejemplo), no es completo puesto que no contempla el movimiento en la dirección
inversa y si fuera completo no sería simple ya que el móvil debería seguir consecutivamente
direcciones diferentes. En el movimiento circular en cambio, el punto final también es el
punto inicial, es decir que cada punto del recorrido se puede considerar un punto medio,
final o inicial.
1.2 La noción griega de physis
A. O. Lovejoy en su obra La gran cadena del ser, en la cual sigue las pautas de su programa de historia de las ideas,
señala diversas formas que adquiere un conjunto de presupuestos teóricos en diversos autores y en diversas épocas. La idea
(o complejo de ideas) de la gran cadena del ser fue la más utilizada en todos los intentos teológicos para explicar el origen del
mal y para demostrar el orden e inteligibilidad del mundo y Lovejoy señala a Platón como su iniciador. Básicamente este
complejo de ideas sostiene:
la existencia de una continuidad de todo lo existente, sin huecos ni fisuras de ninguna clase, expresada metafóricamente
con la imagen de una gran cadena regida por los principios de plenitud, de continuidad y de completitud;
•
expresión de un orden constitutivo del universo y de la racionalidad e inteligibilidad de éste;
•
posibilidad (o necesidad) de acceso a la existencia de todas las formas de existencia posibles: todo lo que es posible
puede llegar a ser (y será) real.
Pero comprender las exigencias platónicas presupone una noción mucho más básica – la physis - que le sirve de
marco y a la vez impregna la filosofía aristotélica, interlocutora del mundo moderno. Es por ello que resulta indispensable
detenerse un poco en ella. Significa ‘nacer’, ‘producirse algo’, ‘brotar’, o como sustantivo: ‘lugar’, ‘estado’. En este sentido ha
sido traducida a menudo por ‘naturaleza’ -del latín nascor- que también significa ‘nacer’, ‘generar’. En su primera acepción,
pues, la physis designa tanto el origen como el desarrollo de cualquier cosa o proceso. Especialmente éste es el sentido que
adquiere en la primera filosofía presocrática, razón por la que Aristóteles llama ‘físicos’ a los filósofos jónicos, Empédocles,
Anaxágoras y los atomistas, aunque excluyendo a los eleatas y los pitagóricos (Física, 184b 17). En la medida en que para los
milesios la physis es la causa de todo movimiento y de toda vida, esta noción va unida a su hilozoísmo. En el período sofista la
physis, aquello que tiene su razón de ser en sí mismo, se contrapone al nomos, es decir aquello que es ley pero también fruto
de un convenio, acuerdo o convención. De ahí que Antifonte afirme que mientras las leyes humanas pueden ser transgredidas,
las leyes de la physis no pueden serlo. Posteriormente los estoicos relacionarán la physis, en cuanto principio activo, con el
•
logos. La ética, según ellos, deriva de las leyes de la misma physis, y el sabio es quien sigue los designios de la naturaleza.
Por su parte los neoplatónicos conciben la physis como la parte más inferior del alma, en contacto con lo que ya casi
propiamente no es, razón por la que Plotino define la physis como el alma fuera de sí. En el cristianismo, fuertemente
influenciado por el estoicismo y el neoplatonismo, se tiene en cuenta, no obstante, la necesaria separación entre Dios creador y
naturaleza creada, puesto que se trata de una teología de la pura trascendencia, no de la inmanencia, propia del pensamiento
pagano. De ahí la famosa división entre natura naturans y natura naturata.
Como se ve, el concepto de physis, se encuentra profundamente imbricado en el
pensamiento griego, pero aquí nos detendremos fundamentalmente en la versión
aristotélica, quien en su Metafísica, ubica los tres primeros significados de physis en
términos de crecimiento o generación: “la generacion de objetos que crecen”, “el primer
componente del que crece un objeto en fase de crecimiento” y “la fuente de la que el
movimiento empieza primero en cada cosa natural y que pertenece a esa cosa en cuanto tal
cosa”. Incluso el Estado es explicado a través del mismo concepto:
“Si las formas primitivas de la sociedad son naturales, también lo es el Estado, pues es
el fin de las mismas, y la naturaleza completada es el fin. Pues lo que es cada cosa al
llegar a su completo desarrollo, lo denominamos su naturaleza, ya hablemos de un
hombre, de un caballo o de una familia” (Aristóteles, Política)
Este punto de vista, entonces, concibe al ser haciéndose. Las nociones de materia y forma por un lado, y potencia y
acto por otro, de la metafísica aristotélica se encuentran en línea con este punto de vista. Asimismo, las denominadas cuatro
causas44 de Aristóteles pueden considerarse en suma, puntos de referencia para conocer la physis de algo y debería buscarse
su origen, en primer lugar en una concepción de la realidad en la que el desarrollo y el devenir eran propiedades primarias.
Como apreciación general puede decirse que la filosofía aristotélica posee dos
rasgos fundamentales. En primer lugar el carácter jerárquico de todo lo que sucede o está
en el universo. Así como hay objetos superiores y más perfectos (los objetos celestes), y
objetos inferiores (los objetos del mundo sublunar), el conjunto de lo viviente conforma un
ordenamiento de lo menos imperfecto hasta lo más perfecto- el hombre- y aun en las
sociedades humanas habrá hombres mejores que ocuparán por su propia naturaleza un
lugar de privilegio y hombres inferiores que se ubicarán en los estratos inferiores: el rey nace
rey y el esclavo nace esclavo. El hombre libre es un zoón politikón es decir un animal social
por naturaleza. Es por ello que la realización de su finalidad esencial consistirá,
básicamente, en conformar sociedades y actuar políticamente. En segundo lugar el carácter
teleológico de este universo: todos los objetos del mismo, desde los hombres hasta las
piedras, tienden a ocupar el lugar que les corresponde según una jerarquía natural y en
cumplimiento de una finalidad que les es propia y esencial. El desarrollo (y el cambio) de lo
real se explica a través de los conceptos de potencia y acto. Cada cosa contiene en
potencia la capacidad de desarrollar sus características esenciales, es decir aquellas que le
hacen ser lo que es y no otra cosa y la puesta en acto de esas potencialidades es el
desarrollo de su finalidad esencial. Por detrás del modelo teleológico se esconde un
pensamiento de origen animista aunque no asimilable a otros modelos animistas primitivos
pero sí deudor de la mentalidad griega.
“Los griegos permanecieron muy vinculados al cosmos como consecuencia de
considerarlo un organismo viviente un cuerpo que puede ser comprendido y aprehendido
en su totalidad. Los griegos poseían un profundo sentido de conciencia, que se
caracterizaba por un enfoque biológico hacia el mundo de la materia. El principio
teleológico es esencialmente biológico y antropomórfico, de forma que la primera base
para la concepción del orden en el universo fue hallada en el sistema del mundo de los
seres vivientes" (Sambursky, 1990, p. 34)
44
Se trata de la causa material- la sustancia en bruto y sin desarrollar del ente que experimenta el
desarrollo-; la causa formal – o esquema del desarrollo revelado desde el principio al fin; la causa
eficiente o causa motriz – mecanismo mediante el cual se mantiene en marcha el proceso de
desarrollo; y por último y tal vez la más importante, la causa final aquella que hace que cada ente, sin
no interfiere nada se desarrollará tal cual está previsto en su propia naturaleza.
Los dos caracteres básicos señalados dirigen toda la filosofía aristotélica atravesada
por el concepto de physis, una verdadera cosmología en la cual la totalidad de los entes del
cosmos cobran sentido. Ella trata de alzarse, entonces, no sólo como una explicación física,
sino que también pretende establecer los fundamentos filosóficos, metafísicos, últimos de
toda realidad. Cada perspectiva de abordaje de la realidad – física, astronómica y biológica,
pero también política, ética y metafísica- cobra sentido en función de la explicación en
conjunto de la totalidad.
Comencemos con la astronomía y física aristotélicas que pueden dar cuenta de
manera relativamente adecuada de las observaciones astronómicas conocidas en la Grecia
antigua y de la experiencia cotidiana. El Universo estaba dividido en dos zonas o sectores
claramente diferenciados, tanto cualitativa como cuantitativamente: el mundo sublunar (es
decir la Tierra que ocupa el centro, más el espacio que va entre ésta y la Luna) y el mundo
supralunar, es decir el espacio que incluye la Luna y todo lo que se encuentra más lejos: el
Sol, los planetas y las estrellas.
El mundo sublunar es el mundo de lo corruptible, de lo cambiante, el mundo de la
mutación constante: en él hay nacimiento, decadencia y muerte; los seres vivos así como
las sociedades y las culturas, nacen, se desarrollan y mueren. En cuanto a la composición
físico/química –utilizando una terminología actual- de los objetos de este mundo sublunar,
Aristóteles seguirá la teoría de los cuatro elementos, según la cual todos los objetos, por
más complejos que sean, estarían formados por diferentes combinaciones de cuatro
elementos básicos: aire, tierra, fuego y agua. La tierra es naturalmente pesada y el fuego
liviano, mientras que el agua y el aire ocupan posiciones intermedias. De tal modo que las
diferencias en el peso de los objetos obedecen a la proporción en que intervienen los
distintos elementos en la formación de cada cuerpo. Esta teoría, en lo fundamental, se
mantuvo por casi veinte siglos.
En la cosmología aristotélica todos los objetos tienden a ocupar su lugar natural, es
decir aquel lugar que les corresponde por su propia constitución y su finalidad. Así, por
ejemplo, los objetos pesados tienden a ocupar su lugar natural que es abajo, mientras que a
los objetos livianos (como por ejemplo el fuego) les corresponden los lugares más altos. Por
eso puede observarse que el fuego y lo caliente sube en el aire y el aire en el agua, así
como la tierra en el agua se hunde. El movimiento en la Tierra y sus alrededores (el mundo
sublunar) se desarrolla, entonces, en el sentido de una línea que pasa por el centro de la
tierra y en la dirección que su mayor o menor peso determine. Los movimientos de los
objetos tales como arrojar una piedra hacia arriba o hacia adelante, son considerados por
Aristóteles como violentos o antinaturales, es decir contrarios a la naturaleza de los cuerpos.
Tales movimientos tienen lugar sólo cuando alguna fuerza actúa para iniciarlos o para
mantener el cuerpo en un movimiento o posición antinatural. Es necesario aclarar que este
concepto de movimiento resulta extraño para una mentalidad moderna, ya que el mismo no
corresponde a un mero cambio posicional45; el movimiento de los objetos en el mundo
aristotélico obedece al cumplimiento de la naturaleza que le es inherente a cada uno de
ellos. La teoría aristotélica de materia y forma como constitutivas de toda realidad que se
despliega en el tiempo a través de un interminable pasaje de la potencia al acto subyace a la
idea de los ‘lugares naturales’.
El mundo supralunar tiene características completamente diferentes. Los cuerpos
celestes, incluida la Luna, no se componen de ninguno de los ‘cuatro elementos’, sino de un
‘quinto elemento’ o ‘éter’, y su movimiento ‘natural’ es circular alrededor de la Tierra. Estos
cuerpos, además, son esferas perfectas, y así como en el mundo sublunar todo está sujeto
a cambio y corrupción, en los cielos nada cambia, más allá del movimiento circular
descripto. Este modelo astronómico, conocido como aristotélico-ptolemaico perduró, más
allá de algunos cambios no sustanciales durante veinte siglos. Es interesante notar que los
45
Th. Kuhn llama la atención justamente sobre la física y la astronomía aristotélicas, señalando que
los aparentes errores groseros cometidos por el estagirita, pueden evaluarse de manera diferente si
se considera otro modo de concebir la historia de la ciencia y las revoluciones científicas (Cf. Kuhn,
1981)
cometas, por su comportamiento aparentemente caótico e irregular, fueron considerados
durante siglos como fenómenos atmosféricos, es decir que se desarrollaban en el mundo
sublunar46. Pero, así como hay ‘lugares naturales’ para todos los entes del universo, también
los hay para los hombres. Cada uno de ellos ocupa el suyo en una estructura social que no
es artificial, en el sentido de que no es una creación voluntaria de los humanos, sino que
responde al movimiento y conformación natural de lo real, de la physis, aunque sí sean
diversos los tipos de organización existentes.
“La naturaleza, teniendo en cuenta la necesidad de la conservación, ha creado a unos
seres para mandar y a otros para obedecer. Ha querido, que el ser dotado de razón y de
previsión mande como dueño, así como también que el ser capaz por sus facultades
corporales de ejecutar las órdenes, obedezca como esclavo, y de esta suerte el interés
del señor y el del esclavo se confunden.
La naturaleza ha fijado, por consiguiente la condición especial de la mujer y la del
esclavo. (...) En la naturaleza un ser no tiene más que un solo destino, porque los
instrumentos son más perfectos cuando sirven, no para muchos, sino para uno sólo. Los
bárbaros la mujer y el esclavo están en una misma línea, y la razón es muy clara; la
naturaleza no ha creado entre ellos un ser destinado a mandar, y realmente no cabe
entre los mismos otra unión que la de esclavo con esclava (...)” (Aristóteles, Política)
La realización de la finalidad esencial del zoón politikón consistirá, básicamente, en
conformar sociedades:
“Así el Estado procede siempre de la naturaleza, lo mismo que las primeras
asociaciones, cuyo fin último es aquél; porque la naturaleza de una cosa es
precisamente su fin, y lo que es cada uno de los seres cuando ha alcanzado su completo
desenvolvimiento, se dice que es su naturaleza propia, ya se trate de un hombre, de un
caballo, o de una familia. Puede añadirse, que este destino y este fin de los seres es
para los mismos el primero de los bienes, y bastarse a sí mismo es a la vez un fin y una
felicidad. De donde se concluye evidentemente que el Estado es un hecho natural, que
el hombre es un ser naturalmente sociable, y que el que vive fuera de la sociedad por
organización y no por efecto del azar, es ciertamente, o un ser degradado, o un ser
superior a la especie humana(...)
La naturaleza arrastra pues instintivamente a todos los hombres a la asociación política.
El primero que la instituyó hizo un inmenso servicio, porque el hombre, que cuando ha
alcanzado toda la perfección posible es le primero de los animales, es el último cuando
vive sin leyes y sin justicia. En efecto, nada hay más monstruoso que la injusticia
armada. El hombre ha recibido de la naturaleza las armas de la sabiduría y de la virtud,
que debe emplear sobre todo para combatir las malas pasiones. Sin la virtud es el ser
más perverso y más feroz, porque sólo siente los arrebatos del amor y del hambre. La
justicia es una necesidad social, porque el derecho es la regla de vida para la asociación
política, y la decisión de lo justo es lo que constituye el derecho”. (Aristóteles, Política)
Para los griegos en general y para Aristóteles en especial, resulta inconcebible un
hombre en estado de aislamiento, un hombre no social; por eso el punto de partida de
conformación de las sociedades no puede ser un hombre en un estado previo, prepolítico,
sino una forma específica, concreta e históricamente determinada (aunque de esa historia
‘imaginaria’) de sociedad humana. Para todo el mundo griego la sociedad no resulta lo
opuesto de lo individual o privado, sino muy por el contrario el individuo libre sólo puede
realizar su esencia en la medida en que participe de lo público, es decir de la vida y
conducción de la polis. Por ello, el estado político antes que antitético u opuesto a los
intereses individuales, es más bien su realización y su finalidad, de modo que entre aquella
sociedad originaria y primitiva, y la sociedad última y perfecta –el Estado o polis- hay más
46
Para un análisis detallado de las distintas variantes y astrónomos, así como también para la
relación entre atomismo, heliocentrismo y mecanicismo, todos temas en los cuales la historia empírica
es bastante más compleja que lo señalado en estas pocas páginas puede consultarse Ordóñez y
Rioja, (1999.)
que oposición o ruptura una relación de continuidad o progresión. El Estado no es más que
el desarrollo de etapas necesarias a través de una serie pasos intermedios. Por el mismo
hecho de que el paso de la familia a la polis se produce por un desarrollo gradual y continuo,
y no por una ruptura, la conformación de los distintos estadios de desarrollo no aparece
como resultado de un acto de voluntad racional, sino que tiene lugar por efecto de causas
naturales, es decir, a través de la actuación de causas objetivas. Es decir, que la
constricción que impone lo real, la realización de las potencialidades inherentes a lo humano
obligan a la conformación de grupos sociales. En este marco el principio de la legitimación
de la sociedad política no es el consentimiento o contrato (como será en los modernos), sino
el estado de necesidad o, en términos más sencillos, la misma naturaleza social del hombre.
En el ámbito de lo viviente se revela con más evidencia según Aristóteles- y como no
podía ser de otra manera- el carácter finalista y jerárquico del universo. Se trata, a diferencia
de los cuerpos de los seres no vivientes, de cuerpos cuyas partes se hallan conformadas y
coordinadas entre sí de tal modo que el movimiento de cada una de ellas se dirige a un fin
dado y todas cooperan en la consecución de un fin superior, en el que consiste la naturaleza
propia de ese cuerpo. Los elementos naturales existen en la conformación de los tejidos,
éstos existen en vista a la formación de órganos y éstos en vista de las funciones vitales que
deben cumplir en la unidad del organismo. Todo lo cual conforma un organismo viviente en
potencia que se pone en acto a través del principio sustancial del alma. Y es a través de los
tres tipos de almas que se establece la jerarquía de lo viviente: la vida vegetativa propia de
las plantas, capaz de cumplir las funciones de nutrición y generación, la vida sensitiva, que
en los animales se agrega a la vegetativa, y que les permite experimentar sensaciones de
placer y dolor y, finalmente la vida intelectiva que en el hombre viene a agregarse a las dos
anteriores y que permite el acceso al conocimiento. Hay una jerarquía entre los distintos
ordenes y cierta continuidad aunque ésta no debe entenderse en un sentido evolucionista.
La ruina de la impronta teleológica aristotélica se acentúa con el advenimiento de la
modernidad y la expansión del modelo mecanicista aunque habría que esperar aún algunos
siglos más para la erradicación casi general de la teleología del mundo de lo viviente. Este
será uno de los tópicos de la revolución darwiniana de mediados del siglo XIX.
2. EL MUNDO MODERNO
2.1. La Revolución Científica
“los viejos ruidos ya no sirven para hablar”
(S. Rodríguez)
Por ‘revolución científica’47 se entiende, en sentido histórico, el período de renovación
del saber ocurrido entre los siglos XVI y XVIII, aunque en un sentido más estricto puede
decirse que se desarrolla básicamente en el siglo XVII. Se inicia con la publicación de la
obra de N. Copérnico, De revolutionibus orbium coelestium, en 1543, y de A. Vesalio, De
fabrica corporis humani, del mismo año, y culmina con los Philosophiae Naturalis Principia
Mathematica de Newton, en 1687. Durante este período y, por obra sobre todo de Galileo, J.
Kepler, R. Descartes e I. Newton, tiene lugar la aparición y constitución de la denominada
‘ciencia natural moderna’, que se caracteriza sustancialmente por el interés centrado en el
conocimiento de la naturaleza, la matematización del conocimiento no sólo como
herramienta para generarlo, sino también como uno de los criterios de cientificidad, y la
afanosa búsqueda de un método científico. Se ha señalado como una de las características
más esenciales de la revolución científica la aparición, durante esta época, de una
verdadera comunidad científica, de la que es un ejemplo concreto la Royal Society, de
47
Sobre la evolución del concepto de ‘revolución’ en general y en la historia de la ciencia en
particular, cf. Cohen, 1985. Sobre el tratamiento epistemológico del concepto de ‘revolución’’, cf. la
compilación que realizan Lakatos y Musgrave, 1970 y Hacking, 1981.
Londres, y la Académie Royale des Sciences de París, así como el establecimiento de redes
de información entre los científicos, configuradas por las visitas que los científicos se hacían
unos a otros, pero sobre todo por el recurso a periódicos, informes científicos y cartas. Los
historiadores supusieron que la nueva manera de hacer ciencia era absolutamente distinta, y
aun contrapuesta a la de la Edad Media, pese a la existencia de algunos indicios
renovadores en la ciencia medieval, sobre todo en la Universidad de Oxford. P. Duhem
sostuvo en su Le système du monde: histoire des doctrines cosmologiques de Platon à
Copernic, que la idea de que muchos de los conceptos de mecánica y física, que se creían
aportaciones originales y revolucionarias de la ciencia moderna, no eran más que la lenta y
gradual maduración de conceptos que tuvieron su origen en escuelas medievales: la
denominada “revolución científica” sería, pues, más bien una evolución científica; en esta
opinión le siguen autores como A.C. Crombie (1952), M. Clagett (1959) y otros. A. Koyré
(1939) sostuvo exactamente la postura contraria, dando a la revolución científica el carácter
de una verdadera mutación48, la más importante ocurrida desde el pensamiento cosmológico
griego; la esencia de la ciencia moderna consiste, según él, en la aplicación de las
matemáticas al estudio de la naturaleza, tal como ejemplifican los trabajos de Galileo. Son
de la misma opinión respecto al carácter innovador y revolucionario de la ciencia moderna
autores como A. R. Hall (1954), I.B. Cohen (1960, 1985), G. Holton (1973), R. Westfall
(1971) y otros. Las nuevas historiografias de la ciencia no han cesado de producir estudios
acerca de la cuestión y así, Shapin (2000) entre otros, cuestiona la versión tradicional o
estándar: "La revolución científica nunca existió, y este libro trata de ella" comienza el
trabajo. Se opone a la idea de que hubo una Revolución Científica entendida como cambio
radical, coherente y homogéneo de la historia cultural. Reconoce no obstante la lucidez de
algunos de sus protagonistas al haber estado convencidos de estar planteando importantes
cambios en el conocimiento de la naturaleza y en la forma misma de obtener ese
conocimiento, al tiempo que considera que la revolución se ha dado en niveles diferentes de
aquellos en que la ubica la historiografía clásica.
Puede decirse, en líneas generales, que el modelo de cientificidad que inaugura la
Revolución Científica, haciendo abstracción de los desarrollos de las disciplinas particulares,
pero que al mismo tiempo los posibilita en la medida en que permite realizar nuevas
preguntas a la naturaleza, contiene básicamente el ya señalado recurso a la matemática y la
idea fundante de que la naturaleza es similar a un mecanismo, es decir lo que se ha
denominado ‘mecanicismo’.
2.2. la metáfora de la máquina
Uno de los rasgos fundamentales de la Revolución Científica, es, entonces pensar el
Universo en términos mecanicistas. Si bien se trata de una condición que se va
generalizando aceleradamente, pueden considerarse como protagonistas principales de la
idea del mundo-máquina a Descartes y Newton.
El mecanicismo, de modo general, es la doctrina según la cual toda realidad natural
tiene una estructura comparable a la de una máquina, de modo que puede explicarse
basándose en modelos de máquinas. Es esta una metáfora radical, porque constituye no
sólo un modo de entender la física de los cuerpos -la mecánica moderna-, sino una
verdadera filosofía, es decir una concepción del mundo en su conjunto. No obstante el
mecanicismo ha generado varias versiones (cf. Boido 1996, Ordóñez y Rioja, 1991), como
se verá luego.
El término mecánica es de origen griego y solía estar ligado al arte. Por arte
mecánica se entendía el arte o la técnica que proporciona el modo de construir y usar
ingenios, artificios mecánicos o máquinas. Dichas máquinas eran capaces de ejecutar
48
El concepto de ‘mutación’ como sinónimo de cambio importante y significativo proviene del sentido
que le da De Vries más que del sentido más moderno proveniente de Morgan, para quien ‘mutación‘
resulta cualquier cambio –importante o insignificante- en la dotacion genética.
ciertas operaciones que sustituyen a las que espontáneamente realiza la Naturaleza,
aprovechando o incrementando la acción de una fuerza. Un ejemplo clásico es el de la
palanca. Las artes mecánicas (a diferencia de las artes liberales, entre las que se incluyen la
matemática y la astronomía) suponían siempre una forma de intervención o manipulación de
la Naturaleza por parte del hombre. De ahí que a lo natural (esto es, a lo que se produce por
las solas fuerzas de la Naturaleza sin mezcla de artificio) se contrapusiera lo artificial o
hecho por el arte (en el sentido de técnica) del hombre. Artífice es el que realiza una obra
mecánica o artefacto. Es por ello que Aristóteles ha denominado mecánica al tratamiento de
los movimientos violentos, en oposición a los movimientos naturales, de los que se ocupa la
física. “Movimiento violento” se produce cuando un cuerpo se ve forzado a hacer algo
diferente a lo que tiende por naturaleza, como por ejemplo que una piedra ascienda, y una
manera de violentar la naturaleza de los cuerpos es emplear instrumentos mecánicos o
máquinas, de modo que ya desde la antigüedad la mecánica guarda relación con el
movimiento. Tras la desaparición de la distinción aristotélica entre movimientos naturales y
violentos pasará a describir el estudio de los movimientos de los cuerpos en general y sin
mas adjetivos.
En el siglo XVII, muchos filósofos y científicos se preguntarán si no sería posible
comprender mejor los movimientos y cambios de los seres naturales estudiándolos por
analogía con los que realizan las máquinas. De hecho se disponía ya de unas máquinas
muy especiales, los relojes mecánicos que, más allá de las especificidades técnicas, reúnen
las siguientes características:
1. Su movimiento nunca se inicia espontáneamente, pues carecen de todo principio interno
de actividad. El origen del movimiento es siempre externo. La ley de inercia consagrará
esta idea al plantear que todo cambio de estado de un cuerpo se debe a una fuerza
extrínseca al cuerpo.
2. La transmisión del movimiento de unas partes a otras se realiza siempre por contacto y
nunca a distancia49. Es decir, una parte empuja a otra, que a su vez empuja a otra, y así
sucesivamente.
3. Ninguna máquina se mueve para alcanzar ciertos fines, de modo que el mundo de lo
mecánico está presidido por una causalidad ciega desprovista de propósito alguno. Así
en un reloj las agujas no avanzan para dar las horas; la finalidad está en quien lo diseña
y no en el artilugio mismo.
Se dispone, en suma, de un ser artificial desprovisto de toda suerte de elementos
animistas y finalistas que, sin embargo, es capaz de ejecutar ciertos movimientos. Elevar
estas consideraciones a modelo de aproximación a la naturaleza permitió cambiar el arsenal
de preguntas de los científicos.
Según A. Pyle (1995) la mejor manera de caracterizar la filosofía mecánica es
negativa, dado que encierra cuatro tipos de prohibiciones (estrechamente ligadas a las tres
condiciones anteriores que ha de cumplir toda máquina): la acción a distancia, la iniciación
espontánea del movimiento, la intervención de agentes causales incorpóreos y las causas
finales. Todo ello tiene que ver con la necesidad absoluta de purificar la materia de toda
suerte de almas, espíritus o cualquier otro tipo de agentes inmateriales, lo que se traduce en
lo siguiente.
1. Un cuerpo sólo puede recibir movimiento de otro por contacto o choque. En
consecuencia, las influencias astrales de los astrólogos, las atracciones magnéticas, las
simpatías y antipatías de neoplatónicos, herméticos y alquimistas, y demás tipos de
acción a distancia han de ser rechazados. El principio supremo que gobierna los
intercambios de movimiento (mejor sería decir cantidad de movimiento) establece que
nada actúa allí donde no está.
2. Ningún cuerpo puede empezar a moverse por sí mismo de modo espontáneo. No es
potestad de la materia generar movimiento (ni tampoco destruirlo, tal como afirmara un
principio de conservación de la cantidad de movimiento). Todo movimiento tiene así
como causa inmediata uno anterior en otro cuerpo comunicado por impulso.
49
Algunos autores, como por ejemplo W. Gilbert, no reconocían este principio.
3. Cuando se trata de estudiar el comportamiento de los cuerpos, la idea de producción de
movimiento por supuestas entidades espirituales que se hallan presentes en ellos
mismos (en forma de almas u otras semejantes) es enteramente rechazable. La única
forma inteligible de acción física es el impulso.
4. En un mundo mecánico todo sucede de modo similar a un reloj, en el que el movimiento
de descenso de un peso, previamente elevado a cierta altura, se transmite a unas
ruedas dentadas que a su vez lo comunican a las manecillas. El acontecer se reduce a
una serie causal sucesiva según la cual, cada hecho esta determinado por los anteriores
y determina los siguientes en una cadena ininterrumpida de causas y efectos.
No corresponde pues, en este contexto hablar de intención, finalidad, designio o
providencia. Sin embargo, aunque el mecanicismo resulta el inicio de una nueva física del
movimiento no se reduce tan sólo a eso. Como concepción filosófica reduccionista, el
mecanicismo sostiene que toda realidad debe ser entendida sobre la base de los modelos
proporcionados por la mecánica, e interpretada solamente sobre la base de las nociones de
materia y movimiento local. Pero no se trata de un término unívoco. El mecanicismo adopta
una modalidad materialista y determinista en la filosofía de Hobbes, mientras Descartes
ofrece también un modelo acabado de mecanicismo pero no adhiere al materialismo ya que
sostiene la irreductible diferencia entre la sustancia pensante, no sometida a las leyes de la
mecánica, y la sustancia extensa, totalmente regida por éstas. En este sentido considera
que toda la realidad física puede y debe explicarse a partir de la mecánica. Así, considera a
los animales como meros autómatas, como simples máquinas, reduciendo la biología –
incluyendo al cuerpo humano- a mecánica. Una versión materialista de este punto de vista,
es decir, negando la especificidad de la sustancia pensante como distinta de la materia, será
sustentada por La Mettrie, con su teoría del hombre-máquina, y la mayoría de los filósofos
materialistas del siglo XVIII que unen materialismo y mecanicismo (especialmente D'Holbach
y Helvetius).
Hacia fines del siglo XVII la mecánica cartesiana fue desplazada por la mecánica
newtoniana, a partir de lo cual ésta se convirtió en el modelo de las teorías mecanicistas,
que tienen en Pierre Simon, marqués de Laplace (1749-1827) a su ejemplo más
representativo y más depurado. El punto de vista de Laplace integra el mecanicismo, el
materialismo, la superfluidad de considerar la necesidad de Dios (“Sire, no tengo necesidad
de esta hipótesis” contestó Laplace a Napoleón cuando éste le preguntó por el lugar de Dios
en la cosmología), y el determinismo más absoluto (el ideal del llamado demonio de
Laplace) basado en una rígida concepción de la causalidad. En su Essai Philosophique sur
les Probabilités sostiene que el presente estado del universo es el efecto de sus estados
anteriores y la causa de los estados posteriores. Una inteligencia que en un momento
conociera todas las fuerzas que animan la naturaleza y la situación respectiva de los seres
que la componen y que, además fuese lo bastante grande como para someter todos estos
datos al análisis, abarcaría en la misma fórmula los movimientos de todos los cuerpos del
Universo y de sus estados pasados, presentes y futuros. Es el desconocimiento de todas
estas condiciones el que, según Laplace, nos obliga a recurrir al cálculo de probabilidades,
brillantemente desarrollado por él.
El mecanicismo del siglo XVII no necesariamente es ateo pero, en todo caso,
contribuye a la secularización de las explicaciones sobre el mundo. Para el objetivo de la
ciencia, el recurso a dios es prescindible y si bien, sostiene R. Boyle (1627-1691), “de todas
estas cosas [las partes del universo] será difícil dar una explicación satisfactoria si no se
reconoce a un autor inteligente u ordenador de las cosas” al mismo tiempo:
(...) suponiendo que el mundo haya sido creado y que es continuamente conservado por
el poder y la sabiduría de Dios; y suponiendo el concurso general de Dios para mantener
las leyes que ha establecido, los fenómenos que me esfuerzo en explicar pueden
resolverse mecánicamente, esto es, por las propiedades mecánicas de la materia sin
recurrir al odio que la naturaleza tiene por el vacío, a las formas sustanciales o a otras
criaturas incorpóreas. Y por esto, si he mostrado que los fenómenos que he tratado de
explicar se explican por el movimiento, tamaño, gravedad, forma y otras propiedades
mecánicas (...), he hecho lo que pretendía hacer”. (citado en Burtt, 1925 [1960, p. 195])
En el ámbito estrictamente físico, y sin pronunciarse sobre el carácter mecánico o no
de los seres vivos, la mayoría de los filósofos y científicos de los siglos XVII y XVIII
adoptaron tesis mecanicistas como reacción contra la escolástica, contra el animismo y las
concepciones mágicas de muchos filósofos del Renacimiento. En cambio, el idealismo
alemán y el romanticismo del s. XIX favorecieron una visión opuesta y organicista de la vida,
el hombre y la sociedad. La imagen mecanicista del mundo se apoyaba fundamentalmente
en el principio de causalidad por el que se consideraban regidos todos los fenómenos que
describe la física clásica. Pero el problema del determinismo mecanicista que ponía en
entredicho la libertad humana, junto con los desarrollos de la biología y de otras ramas de la
física difícilmente reducibles a la mecánica newtoniana, condujeron a considerar que toda
máquina pertenece inevitablemente al mundo inorgánico y, por tanto, toda analogía con los
seres vivos era ficticia. Así, la filosofía romántica, en nombre de la humanidad, de la libertad
y de la vida, menospreciaba la máquina y el mecanicismo.
No obstante, aunque Newton considera que toda la ciencia es reductible a la
mecánica, dado que en su concepción de ésta se considera lo real desde el punto de vista
de modelos matemáticos (tales como masas puntuales o puntos inextensos), el
mecanicismo tendió a abandonar el carácter ontológico para adoptar la forma
epistemológica. Es decir, no se trataba tanto de afirmar que el mundo es una máquina, ni
tan sólo una máquina extremadamente compleja, sino que se trataba simplemente de
concebirlo y explicarlo como si lo fuera, es decir, explicarlo a partir de las leyes de la
mecánica sin presuponer por ello el carácter mecánico de lo real. Ello dio lugar a un
mecanicismo metodológico y al ideal de poder constituir una única ciencia basada en los
principios de la mecánica. Mientras que el mecanicismo ontológico se opone al vitalismo, al
organicismo y al finalismo, el mecanicismo epistemológico tiende a oponerse al
fenomenismo y al instrumentalismo, y acostumbra a ser una forma de reduccionismo ya que
considera que toda ciencia puede reducirse a la mecánica y explicarse por ella. Incluso la
oposición del mecanicismo ontológico al finalismo debe matizarse, puesto que podrían
sostenerse ambas concepciones si se considerase a Dios como el supremo artífice
constructor o ingeniero del mundo. De la misma manera que una máquina sofisticada
supone la intervención de un constructor y diseñador experto, el mundo con su maravillosa
complejidad era concebido como una exaltación de la infinita sabiduría del dios concebido
como Gran Ingeniero. De esta manera, y siguiendo esta concepción antropomorfa, la
finalidad estaría dada por la divinidad. Sin embargo, la concepción mecanicista resultó
fundamental en el proceso de secularización a todo nivel que comienza a producirse en los
albores de la modernidad. Otra vez, si bien dios y la máquina no son incompatibles, dios
resulta para algunos superfluo para explicar el funcionamiento de la máquina, aunque otros
como Newton no lo consideran así.
A partir de la consolidación de la mecánica, especialmente con Galileo, Descartes y
Newton, esta ciencia apareció como paradigmática. Además, en la medida en que el reloj
fue durante mucho tiempo el prototipo de máquina (que por otra parte liga el tiempo con el
espacio que debe recorrer el péndulo o las agujas de su esfera), apareció como el modelo
de las concepciones mecanicistas de los siglos XVII hasta mediados del siglo XIX. Por ello
es corriente encontrar muchas explicaciones filosóficas y científicas en las que se recurre al
reloj como metáfora (por ejemplo, en la armonía preestablecida de Leibniz).
El otro representante clave del mecanicismo del siglo XVII fue Descartes, quien no
obstante, le imprimió un sesgo particular y más ambicioso a favor del mundo-máquina. La
realidad natural, para Descartes, tiene un modo de funcionamiento que puede estudiarse
íntegramente desde el modelo que proporcionan las máquinas automáticas o autómatas, es
decir ciertos objetos fabricados por el hombre que incluyen el mecanismo gracias al cual
tienen movimiento. Ello implica que la combinación de sus elementos constitutivos o
estructura debe dar cuenta de la función que realizan. A funciones más complicadas
corresponde un mayor número de elementos debidamente dispuestos (así, por ejemplo,
diríamos que el sistema nervioso de un organismo es tanto más complejo cuanto mayor es
el número de tareas que tiene encomendadas). El todo (ya sea un cuerpo vivo o inerte) es la
suma de sus partes, y no hay nada en él que no esté comprendido en dichas partes. Carece
del menor sentido identificar la causa de su movimiento con un principio formal irreductible,
tal como hace Aristóteles en su teoría hilemórfica (materia-forma). Servirse de alma o
conceptos similares para estudiar cuerpos en física, biología o medicina es introducir
confusión allí donde debiera reinar la claridad, si es que aspiramos a obtener conocimientos
verdaderos. Dicha confusión nace precisamente de la mezcla indebida de cosas de distinta
naturaleza, provocando con ello un desorden que impide conocer con distinción qué es una
cosa y qué es otra. Para Descartes, es preciso trazar una nítida línea divisoria entre alma y
cuerpo. Sólo los seres humanos poseen alma porque sólo ellos piensan y pensar es la única
función de la que no es posible dar cuenta sumando o agregando partes (lo que quiere decir
que Descartes no tiene una concepción mecanicista de la mente). El pensamiento es
precisamente aquello que define el alma, de manera que ser animado es sinónimo de ser
racional. Ahora bien, puesto que el pensamiento es atributo exclusive de los seres humanos,
resulta entonces que el resto de los seres vivos (animales y plantas) y, por supuesto la
materia inerte, carecen de alma. Llegamos así a una naturaleza desalmada o privada de
alma, única que puede ser estudiada desde lo que en sí misma es, y no desde lo que los
humanos proyectan sobre ella.
Toda física animista es una física antropomórfica, que da cuenta de la naturaleza de
los cuerpos incorporando en ellos algo que no les pertenece. Pero si allí donde se pretende
conocer la materia, terrestre y celeste, se introducen subrepticiamente propiedades que son
de la mente, formularemos proposiciones no sobre el objeto físico propiamente dicho, sino
sobre una confusa y oscura mezcla de objeto físico y psicológico. Consecuentemente, la
teoría de la materia y de los movimientos se verá profundamente trastocada. No es de
extrañar, por tanto, que se hable de elementos materiales, definidos por sus cualidades y
tendencias, y de movimientos naturales concebidos teleológicamente, como si el agua, la
tierra, el aire y el fuego fueran capaces de proponerse fin alguno.
En la Naturaleza hay movimiento y hay cambio, pero no cualidades, tendencias, fines
o principios intrínsecos de movimiento (llámeseles alma o de cualquier otra manera). Luego,
el animismo había de ser radicalmente desterrado. El modo de comportamiento de lo
material no es similar al de los seres animados (que son los seres racionales), sino al de las
máquinas. Dicho breve y tajantemente, la disyuntiva sería esta: o todo piensa (porque todo
está animado), o únicamente los hombres piensan (porque sólo ellos tienen anima). En este
segundo caso, lo que no es humano se reduce a cuerpo sin alma. Pero justamente eso son
las máquinas. En consecuencia, lo natural es mecánico. Descartes afirma esto mismo en
sus Principios de la filosofía en los siguientes términos:
“Para acceder al conocimiento de los cuerpos que percibimos por nuestros sentidos me
ha sido de gran utilidad el ejemplo de cuerpos varios, hechos gracias al artificio de los
hombres: pues no reconozco ninguna diferencia entre las máquinas que hacen los
artesanos y los diversos cuerpos que la naturaleza ha formado por sus propios medios.
(...) además es cierto que todas las reglas de la mecánica pertenecen a la física. de
modo que todas las cosas que son artificiales, son por ello mismo naturales. Así. Por
ejemplo, cuando un reloj marca las horas sirviéndose de las ruedas de las que está
hecho, esto no es menos natural que lo que es a un árbol dar sus frutos" (Descartes,
[1967, p. 307])
En 1640 escribía:
"Vemos que (...) las fuentes artificiales (...) así como las demás máquinas de este tipo,
no por razón de haber sido construidas por los hombres pierden la facultad de moverse
por sí mismas (...) incluso supongo que la máquina (humana) puede perfectamente ser
comparada con las tuberías de estas fuentes, sus músculos y tendones con los distintos
artilugios y muelles que sirven para ponerlas en movimiento; sus humores animales con
el agua que las mueve, y (...) el corazón con la fuente y las concavidades del cerebro
con los depósitos. Además, la respiración (...) puede ser comparada con el movimiento
de (...) un molino, que es continuo gracias al flujo de agua" (citado en Mazlish, 1993
[1995, p. 31])
La distinción aristotélica entre ser natural (la materia y sus cinco elementos, las
plantas y los animales) y ser fabricado se ha diluido hasta el punto de que lo mecánico es
natural y lo natural es mecánico. Las mismas reglas rigen uno y otro ámbito; por eso afirma
Descartes que la mecánica pertenece a la física. Más aún, la física es mecánica. Ello pone
de manifiesto el completo cambio de enfoque respecto del modelo clásico. En las antípodas
de lo que ha representado la obra de Aristóteles, una concepción mecanicista de la
naturaleza se abre paso.
La fuerza del mecanicismo perduró por lo menos hasta mediados del siglo XIX,
momento en que se irían desarrollando otras ramas de la física, especialmente la
termodinámica y el electromagnetismo, así como otras ciencias, especialmente la biología
evolucionista, que no podían ser simplemente reducidas a la mecánica. Por otra parte, la
misma mecánica empezaba a experimentar notables cambios, que dieron lugar a la teoría
de la relatividad y la mecánica cuántica, incompatibles en muchos aspectos con la mecánica
clásica o newtoniana. Por ello, en lugar del antiguo mecanicismo irán apareciendo otros
distintos modelos teóricos que actuarán como sustitutos de aquél: el energetismo, por
ejemplo, basado en la termodinámica, así como diversas concepciones filosóficas que
tomarán la teoría de la evolución, la teoría de la relatividad, la mecánica cuántica, la
genética, la cibernética, etc. como modelos alternativos al mecanicismo clásico. La aparición
de máquinas generales, cuyo primer ejemplo lo constituye la teórica máquina de Turing,
junto con el cuestionamiento de la noción clásica de causalidad (por el que se sustituye el
determinismo causal por un determinismo más general que ha de incluir estados futuros sólo
estadísticamente predecibles), así como otras direcciones actuales que permiten construir
máquinas con tejidos orgánicos vivos, ha provocado que surja una nueva posibilidad de
seguir tomando las máquinas como modelos. Así, para Chomsky, las máquinas generales
pueden actuar como modelos para comprender el lenguaje, y Turing consideraba la
posibilidad de una máquina capaz de pensar. En este sentido, algunos de los teóricos de la
inteligencia artificial siguen considerando las máquinas generales como modelos de la
inteligencia humana. En cualquier caso, la existencia de máquinas que efectúan
operaciones intelectuales abre una nueva perspectiva. En lugar de transformar energía, son
máquinas que transforman símbolos y que procesan información, y que en determinados
casos son capaces de procesos de autoorganización y aprendizaje. En este sentido la
definición misma de máquina queda transformada, y pasa a ser considerada como un
sistema material abierto, o una organización jerárquica de sistemas, en los que circulan
energía e información. Basándose en las similitudes entre ciertos procesos descritos por las
teorías computacionales y los descritos en la biología molecular, se ha cuestionado la
oposición entre lo inorgánico y lo orgánico, y algunos autores que han renovado el
mecanicismo hablan de solamente dos tipos de máquinas: las máquinas naturales -los seres
vivos, por ejemplo- y las máquinas artificiales.
2.3. La nueva ciencia. La matematizacion de la naturaleza y la extensión del
mecanicismo
En las primeras décadas de la Revolución Científica, los más grandes y ostensibles
desarrollos se dieron en matemática (Descartes, Fermat y también Galileo)50, las ciencias
50
En 1623 aparece Il Saggiatore de Galileo, en 1637 el tratado cartesiano de Geometría precedido
por su quizá más famoso Discurso del Método y en 1679 la obra de Fermat Ad locos planos et solidos
isagoge. Estas dos últimas obras ampliaron la geometría tradicional con la geometría analítica,
obteniendo una nueva variedad de objetos y recursos geométricos para construir modelos de los
fenómenos naturales. Al identificar figuras geométricas con ecuaciones, éstas se transforman en
símbolos nuevos para interpretar el libro de la naturaleza de Galileo. La intuición visual de la
geometría propiamente dicha se ampliaba con la intuición, más abstracta, del álgebra y sus
ecuaciones.
naturales como la astronomía (Galileo, Kepler), la física del movimiento (Galileo, Descartes y
también Kepler), y los trabajos de W. Harvey sobre la circulación de la sangre (en anatomía
y fisiología podrían agregarse los precursores trabajos de Vesalio en el siglo XVI). Los
desarrollos matemáticos y sobre todo la idea de que los mismos podrían ser fundamentales
para la comprensión del Universo representaron una gran revolución conceptual: un nuevo
modo de pensamiento basado sobre el álgebra y el análisis antes que en la tradicional
geometría sintética51. Las innovaciones de la nueva astronomía fueron tanto conceptuales
como referidas a la creciente precisión de las observaciones. El uso que hizo Galileo del
telescopio alteró completamente la base observacional del conocimiento del universo,
mientras Kepler introdujo órbitas no circulares y el concepto de fuerzas en la relación solplanetas52 en parte para conciliar el sistema geométrico del universo con las observaciones
cada vez más precisas de T. Brahe. Asimismo fue perdiendo fuerza la tradición geométrica
en astronomía y comenzó a prevalecer una astronomía asociada a una nueva física, que
culminaría con la aparición de teoría newtoniana.53 La mayoría de las alteraciones básicas
en física ocurrieron en el estudio del movimiento, que vincularon los nuevos fundamentos
conceptuales y una matematización de la naturaleza, en mucha mayor medida que el
cuestionamiento directo de la naturaleza por los experimentos. Desde el punto de vista
actual el mayor cambio conceptual hacia principios del s. XVII parece haber sido la
destrucción del cosmos aristotélico, el rechazo del concepto tradicional de la naturaleza
jerárquica del espacio, y la introducción de la nueva idea de espacio isotrópico, física
inercial, y un espacio infinito - o al menos ilimitado. La mayor innovación en las ciencias de
la vida se centró sobre el importante descubrimiento de la circulación de la sangre, basada
sobre cambios conceptuales fundamentales: la introducción de consideraciones
cuantitativas y el presupuesto mecanicista. Así, los cambios revolucionarios en ciencia no
consistieron primariamente en la introducción de experimentos y ampliación importante de la
base empírica (aunque también lo fue en algún sentido), como durante mucho tiempo
creyeron los historiadores, sino que más bien se basó en un cambio básico del marco
conceptual desde el cual surgían las preguntas que debían hacérsele a la naturaleza y la
introducción de nuevos métodos matemáticos54.
Uno de los principales impulsores de la Revolución Científica fue Galileo, quien
concebía la naturaleza, aun más que Kepler, como un sistema sencillo y ordenado, en el
que cada acción es totalmente regular e inexorablemente necesaria. "La naturaleza (...) no
hace por medio de muchas cosas lo que puede hacer con pocas." Muestra el contraste entre
la ciencia natural y el derecho y las humanidades: las conclusiones de la primera son
absolutamente verdaderas; necesarias; no dependen de ninguna manera del juicio humano.
La naturaleza es "inexorable, sólo actúa "por leyes inmutables que nunca infringe", y no se
preocupa "si sus razones o métodos de actuar son o no comprensibles por parte de los
hombres". Esta rigurosa necesidad de la naturaleza resulta de su carácter
fundamentalmente matemático, expresado en la famosa metáfora del libro de la naturaleza
en Il Saggiatore:
"La filosofía se halla escrita en el gran libro que está siempre abierto ante nuestros ojos quiero decir, el universo-; pero no podemos entenderlo si antes no aprendemos la lengua
y los signos en que está escrito. Este libro está escrito en lenguaje matemático, y los
símbolos son triángulos, círculos u otras figuras geométricas, sin cuya ayuda es
imposible comprender una sola palabra de él y se anda perdido por un oscuro
55
laberinto."(Galileo Galilei, 1981, p. 62)
51
De hecho la idea según la cual la comprensión del mundo requiere de conocimientos matemáticos
es muy antigua y puede remontarse a los pitagóricos quienes intentaban explicar los fenómenos
naturales a partir de relaciones numéricas, o por la armonía y disposición de las partes .
52
Sobre el ‘error’ de Kepler se puede consultar Cohen, 1960 y Burtt, 1925.
53
Cf. Cohen, 1960 y Ordoñez y Rioja, 1999.
54
Esta línea interpretativa es desarrollada por A. Koyré, 1939.
55
Es necesario señalar que esta famosa cita de Il Saggiatore, como toda la obra, tiene como fin
impugnar la obra del padre Grassi titulada Libra Astronomica et filosofica. Esta cita debe entenderse
Galileo se asombra continuamente de la maravillosa manera en que los sucesos
naturales siguen los principios de la geometría y su respuesta favorita a la objeción de que
las demostraciones matemáticas son abstractas y no poseen necesaria aplicación al mundo
físico consistía en presentar nuevas demostraciones geométricas, en la esperanza de que
se conviertan en pruebas de sí mismas ante los espíritus sin prejuicios. Por tanto, las
demostraciones matemáticas, más que la lógica escolástica, proveerían, según Galileo, la
llave que permitiría penetrar en los secretos del mundo. La lógica es instrumento de crítica
pero la matemática, de descubrimiento.
"Es claro que la lógica nos enseña a conocer si las conclusiones o demostraciones que
ya se han descubierto y que se posee son válidas; pero no puede decirse que nos
enseñe cómo hallar demostraciones y conclusiones válidas. (...) No aprendemos a
demostrar con los manuales de lógica sino con los libros que están llenos de
demostraciones, que son los libros de matemáticas y no de lógica." (Galileo, Obras,
citado en Burtt, 1925 [1960, p. 81]).
Este método de la demostración matemática, al basarse en la estructura misma de la
naturaleza, se presenta ocasionalmente en Galileo como independiente, en gran parte, de
verificación sensible: se trata de un método exclusivamente a priori de alcanzar la verdad. J.
J. Fahie cita estas palabras de Galileo:
"La ignorancia ha sido el mejor maestro que jamás había tenido, pues a fin de demostrar
a los opositores la verdad de las conclusiones, me fue necesario probarlas mediante
gran número de experimentos, aunque para satisfacer mi propio espíritu no sentía
necesidad de realizar ninguno." (citado en Burtt, 1925 [1960, p. 82])
En otros pasajes de su obra, Galilei muestra que su confiada creencia en la
estructura matemática del mundo lo emancipaba de la necesidad de depender
estrechamente del experimento. Insiste en que a partir de unos pocos experimentos pueden
extraerse conclusiones válidas que llegan mucho más allá de la experiencia porque el
conocimiento de un solo hecho logrado mediante el descubrimiento de sus causas prepara
al espíritu a comprender y descubrir otros hechos sin necesidad de recurrir al experimento.
Da un ejemplo de este principio en su estudio de los proyectiles. Una vez que se sabe que
su trayectoria describe una parábola podemos demostrar por pura matemática, sin
necesidad de experimento, que su alcance máximo se logra con una inclinación de 45°. En
realidad, sólo se necesita la confirmación experimental en el caso de conclusiones cuyo
fundamento racional y necesario no se alcanza por medio de la intuición.
El caso de Kepler resulta paradigmático si se trata de mostrar esta suerte de tráfico
metafórico de unas áreas a otras. Rápidamente adopta el modelo astronómico copernicano,
basado al igual que Copérnico, en la convicción de la unidad y sencillez de la naturaleza.
Pero el factor quizá más poderoso que motivó su precoz entusiasmo por el nuevo sistema
puede hallarse en su exaltación de la dignidad e importancia del Sol. A los veintidós años
tuvo que defender la nueva astronomía en una disputa en Tubinga, haciéndolo únicamente
sobre la base de la posición eminente del Sol:
“En primer lugar- que por ventura no lo vaya a negar un ciego- el cuerpo más excelente
del universo es el Sol, cuya esencia toda no es otra cosa que la luz más pura, a la que
ninguna estrella puede compararse. Sólo él y él solo es el productor, conservador y
calentador de todas las cosas; es fuente de luz, rica en fructuoso calor, la más bella,
límpida y hermosa a la vista, fuente de visión, pintora de todos los colores, aunque en sí
misma libre de color. Se lo llama rey de los planetas por su movimiento, corazón del
universo por su poder, ojo del mundo por su belleza. Sólo a él deberíamos juzgar digno
como enfrentando el modo no matemático de argumentación de Grassi, sobre todo en cuanto a
geometria; pero no es compatible con muchos otros pasajes de Galileo donde habla del carácter
insatisfactorio de las “meras descripciones matemáticas”.
del Altísimo Dios, si Dios quisiera un domicilio material donde morar con los santos
ángeles... Porque si los alemanes lo eligieron como el César que tiene más poder en
todo el imperio, ¿quién dudaría en otorgarle los votos de los movimientos celestes a
quien ya ha estado administrando todos los demás movimientos y cambios mediante el
beneficio de la luz que es enteramente suya?... Por tanto, puesto que no corresponde al
primer motor difundirse a través de una órbita, sino más bien proceder desde un cierto
principio, y, por así decirlo, se considera digna de tan grande honor. Con el mayor
derecho volvemos, pues, al Sol, que es el único que, en virtud de su dignidad y poder,
parece adecuado y debido para ser el hogar de Dios mismo, por no decir el primer
motor” (citado en Burtt, 1925 [1960, p.61])
Por esos años el más grande observador de la época –Ticho Brahe- a quien Kepler
se unió, completaba la obra de toda una vida en la cual había compilado una inmensa
cantidad de datos mucho más grande e incomparablemente más precisos que los
disponibles hasta entonces. Esto le sirvió para llevar adelante otra de sus pasiones
derivadas de su adhesión a la tradición pitagórico- platónica: si el nuevo sistema es
verdadero debe de contener muchas otras armonías matemáticas que pueden descubrirse
mediante el estudio intenso de los datos. La búsqueda de armonías, simetrías,
regularidades que se esconden tras los fenómenos lleva a dirigir la mirada a las relaciones
invariantes que subyacen a los puros datos de observación. Escribe Kepler en 1599:
“Para Dios hay en el mundo material entero leyes materiales, números y relaciones de
especial excelencia y del mayor orden apropiado (...) No intentemos, pus, descubrir más
del mundo inmaterial y celeste que lo que Dios nos ha revelado. Esas leyes están dentro
del ámbito de la comprensión humana; Dios quiso que las reconociéramos al crearnos
según su propia imagen, de manera que pudiéramos participar en sus mismos
pensamientos. Porque ¿qué hay en la mente humana, aparte de números y magnitudes?
Es solamente esto lo que podemos aprehender de manera adecuada”. (citado en
Crombie, 1952, Vol. II, p. 170)
Kepler se había propuesto explícitamente probar con nuevos argumentos la verdad
del sistema copernicano. Los frutos de su trabajo han sido evaluados de modo dispar por la
posteridad, de modo que mientras algunos han pasado a formar parte de la nueva
astronomía otros han pasado como pintorescas anécdotas. Sin embargo la opinión de
Kepler era distinta de la de su posteridad, ya que él se sentía particularmente complacido y
orgulloso de aquellos elementos que, justamente, serían olvidados.
En 1596 publicó su Mysterium cosmographicum, en el cual anunciaba un gran
descubrimiento sobre las distancias de los planetas al Sol. Utilizando la idea de los
geómetras griegos según la cual existen cinco sólidos regulares (cubo, tetraedro,
dodecaedro, icosaedro, y el octaedro y a la búsqueda de regularidades matemáticas, Kepler
pensó que dado que los planetas (conocidos) eran seis, sus órbitas deberían estar
separadas cada una por uno de estos sólidos.
Como se sabe, Kepler solucionó uno de los problemas del modelo copernicano –
algunas diferencias en cuanto a las posiciones, fundamentalmente de Marte, respecto de los
cálculos previos que el modelo permitía- proponiendo órbitas elípticas y según tres leyes,
que publicó en Harmonice mundi, de 1619. La primera de esas leyes sostiene que la órbita
de cada planeta es una elipse, uno de cuyos focos está ocupado por el Sol; la segunda –
expresada en un lenguaje moderno- que las áreas barridas por el radio vector (línea que se
tira desde el foco a cualquier punto de una curva) que une un planeta con el Sol barre áreas
iguales en tiempos iguales. Claramente estas dos leyes contribuyen a simplificar el modelo
de Copérnico. Pera la tercera, conocida también como ley armónica porque su descubridor
creyó ver en ella la demostración de las verdaderas armonías celestiales enuncia una
relación entre los periodos con que los planetas describen sus órbitas alrededor del Sol y
sus distancias medias al mismo56.
56
Las leyes de Kepler parecían dar por tierra con la idea de las órbitas circulares, suplantándolas por
movimientos ligeramente elípticos. Esto es parte de la historia de la ciencia, pero, puede preguntarse
El espíritu mecanicista y matemático atravesaba los nuevos desarrollos excediendo
los límites de la astronomía y la física hacia las investigaciones sobre lo viviente. Los
trabajos de Vesalio en el Renacimiento comenzaron a mostrar algunas falencias en la
tradición galénica y, posteriormente, el descubrimiento de Harvey (1578-1657) de la
circulación de la sangre57 fue posible por, a la vez que congruente con, el espíritu
matemático de la época y merced al uso de un modelo mecanicista de lo viviente.
Respecto al primer aspecto, Harvey, utilizó mediciones directas de la capacidad del
corazón en hombres, perros y ovejas, que multiplicadas por la frecuencia cardiaca le dieron
cantidades totalmente incompatibles con la teoría de Galeno de la producción continua de
sangre. Harvey encontró que “el jugo contenido en el alimento que había estado comiendo”
simplemente no sería suficiente al hígado para suministrar “la abundancia de sangre que
pasaba a través” del corazón. Y por eso, escribió, “comencé a pensar si la sangre no podría
tener una clase de movimiento, como si fuera un círculo (...) “y mucho tiempo después
encontré que era verdad”. Así, resultó fundamental el hecho de poner en juego una visión
cuantitativa - matemática- de lo viviente, que le dio a Harvey una rápida comprensión de la
necesidad de una nueva fisiología y proveyó un argumento poderoso para sus ideas sobre
la circulación. El trabajo de Harvey, tal como está presentado en Exercitatio anatomica de
Motu Cordis et sanguinis in animalibus de 1628, se encontraba sólidamente apoyado en
investigaciones anatómicas- incluyendo una gran variedad de observaciones directas y
experimentos-, en especial el descubrimiento de la función de las válvulas en las venas y la
estructura y acción del corazón.
La concepción de Harvey de la circulación de la sangre fue un tremendo avance en
las ciencias de la vida. Mostró que el corazón con sus válvulas actúa a la manera de una
bomba de agua, forzando a la sangre a fluir en un circuito continuo a través del cuerpo del
animal y de los humanos. Fue esta una ruptura directa con la doctrina de Galeno, que había
dominado el pensamiento médico y biológico durante quince siglos, creyendo que el hígado
era el órgano que continuamente manufactura sangre para enviarla a través del cuerpo para
ser consumida por las diferentes partes para sus funciones vitales. Pero Harvey cambio la
primacía fisiológica de los órganos del hígado por el corazón cuya función, dijo, era en gran
medida mecánica, obligando a la sangre a salir a través de las arterias y volver por las
venas.
En lo concerniente al status de la concepción mecánica y, sobre todo a la relación
que estas ideas fundamentales tienen con la producción de conocimientos o teorías
particulares, es importante la reflexión epistemológica de F. Jacob:
“Se suele decir que Harvey ha contribuido a la instauración del mecanicismo en el
mundo viviente al mostrar la analogía del corazón con una bomba y la de la circulación
con un sistema hidráulico. Pero se invierte así el orden de los factores. En realidad, es
porque el corazón funciona como una bomba que es accesible al estudio. Es porque la
circulación se analiza en términos de volúmenes, de flujo, de velocidad, que Harvey
puede hacer con la sangre experiencias similares a las que realiza Galileo con las
piedras. Ya que el mismo Harvey, cuando se plantea el problema de la generación que
con toda legitimidad por qué Galileo no aceptaba este nuevo modo de ver la trayectoria de los
planetas si él contribuía con toda exactitud para ajustar los datos de la observación con el modelo
geométrico. Resulta interesante el análisis que realiza el crítico E. Panofsky, para quien el rechazo
galileano a las órbitas elípticas se relaciona con su rechazo a cierta forma estética hoy denominada
manierismo y que surgió como una tendencia anticlásica en oposición a los ideales de racionalidad,
simplicidad y equilibrio que Galileo adoraba. La elipse constituía, en ese contexto, un elemento que
era tan enfáticamente rechazado por el arte del alto Renacimiento como aceptado por el manierismo
(que Galileo aborrecía). Para Galileo, era una especie de deber sagrado, tanto en el terreno de la
música como en el de la pintura o la poesía, luchar contra el manierismo, contra la complejidad
innecesaria, contra la distorsión y el desequilibrio.
57
Si bien puede decirse que Harvey no demostró objetivamente la realidad de la circulación de la
sanguínea, ya que en su tiempo se desconocía la existencia de capilares periféricos, sus
observaciones hicieron casi inevitable tal existencia, confirmada por M. Malpighio en 1661.
no tiene relación con esta forma de mecanicismo, no puede sacar ninguna conclusión”
(Jacob, 1970 [1977, p.43])
Pero Harvey se diferenció de Descartes y Galileo al creer que su aporte al
conocimiento de lo viviente podría tener un valor paradigmático directo en el dominio de la
vida social de los humanos. En la Introducción de su De motu Cordis, Harvey usó su nueva
ciencia del cuerpo para transformar la antigua noción de cuerpo político. En una larga
dedicatoria al rey Carlos I, Harvey expresa inequívocamente esta idea del uso de la nueva
ciencia en un contexto socio- político:
“De este modo el corazón de las criaturas es el fundamento de la vida, el príncipe de
todo, el sol de su microcosmos, al igual que correlativamente el Sol puede ser llamado el
corazón del mundo, por cuya virtud y pulsación se mueve la sangre, se perfecciona, se
vuelve vegetal y es defendida de la corrupción y de la solidificación: y este dios familiar y
doméstico cumple con su deber para con el cuerpo entero, nutriéndolo, alimentándolo y
suministrándole fuerza, ya que es el fundamento de la vida y el autor de todo. (...)
También el rey, fundamento de sus reinos y sol de su microcosmos, es el corazón de la
comunidad, desde donde todo poder surge, toda gracia procede.” (citado en Cohen,
1995, p. 105)
La comparación entre el rol del Rey58 y la función del corazón está modelada según
un modo de pensamiento tradicional, la antigua metáfora organicista del cuerpo político, en
la cual el Estado era comparado con un animal o persona, y el soberano considerado como
la cabeza gobernante del cuerpo. No obstante, resulta interesante la recepción y giro que la
metáfora organicista del cuerpo político adquiere en el pensamiento de Harvey. Algunas
presentaciones anteriores del cuerpo político usaron el corazón como metáfora del
conductor, pero otros ubicaron la cabeza en ese rol, según el uso todavía corriente en
nuestro concepto de “cabeza de estado”. En verdad muy pocos escritores políticos
anteriores a Harvey habían dado importancia al corazón, excepto en el marco del
pensamiento aristotélico o galénico. En 1565, el cirujano John Halle, sostuvo que “el corazón
del hombre es un Rey”, al tiempo que el hígado es su jefe de gobierno haciendo referencia
al principio galénico de que el hígado está generando constantemente nueva sangre a partir
de los alimentos digeridos y enviándola al corazón. Pero en el sistema de Harvey el hígado
es relegado a una posición inferior con relación al sistema circulatorio, como resultado de su
propio descubrimiento. Por otro lado, la soberanía del corazón es un rasgo de la fisiología
aristotélica, que aún sostenía que en el desarrollo del embrión el corazón se forma antes
que la sangre. Las investigaciones embriológicas de Harvey mostraron, sin embargo, que la
sangre aparece antes que el corazón embrionario. El punto de vista de Harvey sobre el
corazón tiene, en consecuencia, dos aspectos: en su Generatione Animalium el corazón es
relegado a una posición inferior dado que no aparece como la primera parte discernible del
embrión, pero en De Motu Cordis el corazón adquiere primacía por su rol fundamental en el
bombeo de la sangre a través del cuerpo animal. En Exercitationes Anatomicae de
Generatione Animalium (1651) Harvey hizo la clara distinción:
“(...) estando más seguro por aquellas cosas que he observado en el huevo y en la
58
W. Harvey fue médico real, y allí conoció a Charles I y a través de la intervención directa de éste
utilizó ciervos de la manada real para sus estudios sobre la generación animal. Harvey instruyó
personalmente al rey acerca del corazón, circulación, y sobre sus descubrimientos en embriología. En
una oportunidad Harvey, a instancias del rey, pudo examinar un corazón humano vivo latiendo.
Cuando Charles I supo que un hijo del Viscount Montgomery había sufrido una herida en el pecho
que resultó en una permanente fístula abierta o cavidad, que permitía la vista directa de los órganos
interiores, instruyó a Harvey para que le hiciera un examen personal al joven. Harvey lo examinó e
hizo los arreglos para que el joven fuera trasladado a la corte real para que el rey pudiera observar el
movimiento del corazón y tocar los ventrículos mientras ellos se contraían y expandían, tal como el
propio Harvey lo había hecho. Se dice que Charles había dicho al joven, “Señor, desearía poder
percibir los pensamientos de algunos de mis corazones nobles como he visto su corazón”.
disección de animales vivos, sostengo, contrariamente a Aristóteles, que la sangre es la
primera partícula genital, y que el corazón es el instrumento designado para su
circulación. Para la función del corazón es el empuje de la sangre (....)” (citado en
Cohen, 1995, p. 107)
La comparación de Harvey entre el rol de la monarquía y la función del corazón,
entonces, no debe ser interpretada como la primacía del corazón en el tradicional sentido
aristotélico. Pero la idea del cuerpo político no aparece sólo en la dedicatoria de De Motu
Cordis, sino también en el texto mismo, en la conclusión del capítulo XVII, en el cual Harvey
prueba “la hipótesis del movimiento y circulación de la sangre” por referencia a los
fenómenos observables del corazón y la evidencia de la “disección anatómica”. El corazón,
sostuvo, es el primer órgano del cuerpo que aparece en forma completa en el desarrollo
embrional, y “contiene en su interior mismo sangre, vida, sensación y movimiento, antes que
el cerebro o el hígado estuvieran hechos o pudieran ejecutar cualquier función”; en este
estadio el corazón es “como un animal interno”. El corazón, además, dice Harvey, es “como
el Príncipe en la Comunidad en cuya persona radica el primer y supremo poder”. El corazón
“gobierna todas las cosas en todo lugar, y desde él como desde su origen y fundamento en
la criatura viviente todo poder deriva y de él depende”.
La transformación por parte de Harvey de la tradicional analogía organicista del
Estado, o cuerpo político, en el contexto de sus propios descubrimientos originó, además,
exploraciones sobre los sistemas políticos basadas en la nueva fisiología humana,
transformándose ésta en una poderosa metáfora.
Th. Hobbes apuntó a producir una ciencia de la política o de la sociedad basada en
la nueva ciencia del movimiento, conceptos de la mecánica, y la nueva fisiología. Hobbes
extremadamente vanidoso sobre su papel en la ciencia creyó haber aportado a dos nuevas
ciencias, la Optica y la Justicia Natural, aunque la verdad es que ha pasado a la historia sólo
por esta última. Se ha comparado con Galileo y Harvey:
“Galileo en nuestro tiempo (...) fue el primero que nos abrió la puerta de la filosofía
natural universal, que es el conocimiento de la naturaleza del movimiento. (...)
Últimamente, la ciencia del cuerpo humano, la parte mas beneficiosa de la ciencia
natural, fue descubierta por la admirable sagacidad de nuestro compatriota el Dr. Harvey
(...) La filosofía natural es por ello muy joven; pero la filosofía civil es todavía mucho mas
joven, no más vieja que mi propio libro de Cive” (citado en Cohen, 1995, 140)
Hobbes ha sido influido fuertemente por la nueva ciencia del movimiento de Galileo
pero también por Descartes, y por ambos en cuanto a confianza tanto en la certeza sustantiva
de la matemática como en su estructura deductiva y modelo de cientificidad. Pero si bien
Hobbes también emplea la metáfora del cuerpo político, la misma no se sustenta sobre la base
de pensar que el Estado es esencialmente un cuerpo animado en el sentido en que lo son los
seres vivientes naturales según la visión tradicional, sino que tal analogía aparece mediada por
la noción de máquina, y entonces se trata más bien de un cuerpo artificial. No es que se
elimine la metáfora organicista, sino que los organismos ahora son máquinas; lo que ha
cambiado es la concepción con respecto a los animales, dado que ahora son autómatas que
funcionan de acuerdo a leyes físicas. Es en este sentido que ejerce gran influencia Harvey:
“La NATURALEZA, arte por el que Dios ha hecho y gobierna el mundo, es imitada por el
arte del hombre, como en tantas otras cosas, en que éste puede fabricar un animal
artificial. Si la vida no es sino un movimiento de miembros cuyo principio está radicado
en alguna parte principal interna a ellos, ¿no podremos también decir que todos los
autómata (máquinas que se mueven a sí m mismas mediante muelles y ruedas, como
sucede con un reloj) tiene una vida artificial? ¿Qué es el corazón sino un muelle? ¿Qué
son los nervios sino cuerdas? ¿Qué son las articulaciones sino ruedas que dan
movimiento a todo el cuerpo, tal y como fue concebido por el artífice?. Pero el arte va
aún más lejos, llegando a imitar esa obra racional y máxima de la naturaleza; el hombre.
Pues es mediante el arte como se crea ese gran LEVIATAN que llamamos REPUBLICA
o ESTADO, en latín CIVITAS, y que no es otra cosa que un hombre artificial” (Hobbes,
1651 [1995, INTRODUCCION])
Un punto interesante, y que muestra, además de la gran influencia de estos modelos
científicos en todas las áreas del saber, el intrincado recorrido de las metáforas en la
construcción y justificación del conocimiento, puede surgir de la comparación entre algunos
aspectos del modelo hobbesiano de Estado y el análisis que hace J. Harrington (16111677), quien, por la misma época, desarrolla una anatomía política basada en los trabajos
de Harvey pero realizando una analogía mucho más biológica que mecánica, estableciendo
homologías entre las partes biológicas y el funcionamiento de las instituciones del Estado y
su noción de equilibrio en la sociedad.
2.4. autómatas y animales máquina
La novedad que inaugura el siglo XVII con el mecanicismo consiste en la
exacerbación de la metáfora de la máquina que se eleva así a modelo universal, e incluso
tiende a verse lo viviente mismo como una máquina. Pero el logro de Harvey y otros se
asienta sobre una tradición que veía a los seres vivos como si fueran máquinas, algo
anterior al siglo XVII, y una tradición más antigua y extensa aun sobre la construcción de
autómatas. Como quiera que sea la concepción de la relación entre seres vivos (en
particular los hombres) y máquinas no siempre ha sido la misma. La tradición que
podríamos llamar de los autómatas se apoyaba en la pretensión de construir máquinas que
fueran como seres vivos o, en algunos casos como intermediarios con los dioses. El giro
producido en el siglo XVII invierte, obviamente para los mecanicistas, la relación y comienza
a concebir a los seres vivos como si fueran máquinas. En las últimas décadas parece
haberse producido un nuevo giro consistente en considerar a las máquinas (sobre todo
computadores) como seres vivos, aunque probablemente ya no con la impronta de la
imitación lo más perfecta posible sino como incluidos ambos- hombres y máquinas- en un
modo de funcionamiento más general59. A la base del programa de Inteligencia Artificial se
encuentra esta poderosa metáfora (Cf. Ursúa, 1993; Ares, 1996; Mazlish, 1993).
Hay una larga tradición que se remonta varios miles de años que da cuenta de la
existencia de autómatas, esto es, máquinas que imitan el comportamiento de los hombres o
bien algún aspecto especial u otros seres de la naturaleza. Es difícil saber cuántos de estos
autómatas que aparecen en la literatura realmente reunían las condiciones que se les
atribuía, e incluso si realmente fueron construidos alguna vez. J. Needham en su Science
and Civilization da cuenta de la abrumadora cantidad de referencias a juguetes mecánicos
en la antigua China. También se conocen gran cantidad de relatos provenientes de la
antigua Grecia. Diógenes Laercio refiere que Arquitas de Tarento (no aquel homónimo que
había salvado a Platón de la esclavitud) es autor de un libro sobre mecánica y la leyenda
cuenta que construyó una paloma capaz de volar. Ya Homero había hablado de ciertos
autómatas construidos por Hefestos: las esclavas de oro que se movían y hablaban (Ilíada
XVIII) y perros de oro que custodiaban el palacio Alcinoo (Odisea VII). Hero de Alejandría
(150-100 a.C.), matemático y astrónomo parece haber inventado una serie de aparatos y
autómatas por puro placer y para montar una suerte de espectáculo.
Como quiera que sea, queda claro que la perfección de la máquina (probablemente
en muchos de los casos exagerada o ficticia) hablaba de las excelencias del mecánico, es
decir del hombre que la había construido. La edad Media europea también es prolífica en
relatos sobre máquinas de maravillosas habilidades. Pero, hacia el siglo XVI se comienza a
producir el giro que se señalaba más arriba hacia la concepción de lo viviente como una
59
Sobre la relación entre máquinas y hombres puede consultarse Mazlish (1993). La tesis del autor
es que de algún modo la historia de la humanidad es la historia de la ruptura de las discontinuidades,
como por ejemplo la ruptura de la discontinuidad entre el hombre y el resto de los seres vivos. La
cuarta discontinuidad que se estaría quebrando es la de hombres y máquinas.
máquina. El tratado de Vesalio sobre el funcionamiento del cuerpo, ilustrado por una artista
flamenco, ilustra un cierto paralelismo entre el funcionamiento del cuerpo humano y las
máquinas. Por ejemplo, aparecen algunas ilustraciones que muestran diversos ensamblajes
de carpintería comparados con las juntas de los huesos del cráneo, y las articulaciones de
los huesos comparadas con los goznes de las puertas. Ambroise Paré (1510-1590), médico
francés, llegó a pensar en la posibilidad de reemplazar una mano humana por una máquina,
cuyo diseño ilustra en un texto de 1564 (Dix Livres de chirurgie, París, 1564). Las palabras
de Descartes, ya en pleno siglo XVII, citadas más arriba, parecen estar claramente
inspiradas en escritos e ilustraciones de este tipo, pero que dan lugar no sólo a cuestiones
tecnológicas sino a disputas, filosóficas y prácticas, muy profundas con relación a la
cuestión de los animales máquinas. No se trata de una cuestión menor. Si los animales son
(sólo) máquinas no hay reparo alguno a realizar vivisecciones por ejemplo. Pero, un crítico,
Fontenelle, sostuvo "¿Dice usted que las bestias son máquinas igual que los relojes? Pues
ponga juntos a un Sr. Perro mecánico y una Sra. Perra mecánica y el resultado será una
tercera maquinita; en cambio, dos relojes pueden pasar juntos toda su vida sin llegar a hacer
un tercer reloj." Por otro lado, si es falso que los animales no sienten dolor o no tienen
ningún tipo de sentimientos, y, por el contrario, se parecen en esto a los humanos, ¿también
se parecerán en cuanto a poseer razón?. Los personajes de las fábulas de La Fonteine son
animales que razonan como los humanos. Gassendi en la quinta de las objeciones a
Descartes señala que la diferencia en cuanto a la capacidad de razón entre animales y
humanos era sólo una cuestión de grado.
Otra postura anticartesiana en algún sentido, es la propuesta de J. O. de La Mettrie
proclamando que los humanos son máquinas, una máquina ilustrada más precisamente
(une machine bien éclairée), en su L’Homme-machine de 1747. Para La Mettrie los animales
tienen sentimientos en el mismo sentido que los humanos y además existe una continuidad
entre ellos:
“(...) tal es la uniformidad de la naturaleza, de la que estamos empezando a darnos
cuenta; y la analogía del reino animal con el vegetal, del hombre con la planta. Tal vez
haya incluso animales-planta que, vegetando, tal vez pelean como los pólipos o realizan
otras funciones características de los animales” (de La Mettrie, [1981, p. 103])
Creo que no hay que caer en la tentación de vislumbrar alguna inspiración
evolucionista en estos pasajes. De hecho las referencias a seres que eran mezcla de reinos
animal y vegetal eran abundantes, no solo en los siglos anteriores sino incluso en relatos del
siglo XVI. Muy probablemente la intención de La Mettrie estaba dirigida a menoscabar la
autoestima de la humanidad:
(...) ¿qué era el hombre antes de inventar las palabras y conocer el lenguaje?. Un animal
de su propia especie con mucho menos instinto que los demás. En aquellos días no se
creía el rey de los animales, ni era distinguible del mono y del resto de ellos salvo en lo
mismo que el mono se distingue de los otros animales, i.e., en una cara más inteligente”
(citado en Mazlish, 1993 [1995, p. 48])
Uno de los casos más famosos de autómatas del siglo XVIII es el pato que construyó
Jacques de Vaucanson, que según se dice, bebía, comía, digería, graznaba y nadaba- con
todo el aparato digestivo a la vista. Vaucanson también construyó un flautista que tocaba
doce canciones diferentes moviendo sus dedos, labios y lengua. En 1774 el suizo P. JaquetDroz creó un muchacho sentado en un pupitre que podía escribir hasta cuarenta letras y que
todavía funciona en el museo de Historia de Neuchatel. Obras literarias como Frankestein
de M. Shelley y otros se inscriben en un campo ambivalente entre lo mecánico y lo viviente
pero siempre dentro de la línea de resaltar el papel del constructor en busca de una
imitación lo más perfecta posible.
2.5. la matemática en la ciencia social del siglo XVII
Durante el primer florecimiento de la Revolución Científica a principios del siglo XVII,
la matemática era el área de logros más fácilmente identificables. Estos éxitos no hacen
más que reforzar el carácter paradigmático de que gozaba la matemática (geometría) desde
la antigüedad y generar la idea de reproducir el éxito de estos pioneros de la matemática
produciendo una nueva ciencia del Estado o de la sociedad en un molde matemático. Dice
Jacob en este sentido:
“Si en los siglos XVII y XVIII la física juega un papel decisivo, no es únicamente por la
transformación que aporta al Universo. Tampoco es por las nuevas funciones que asigna
a la observación, a la experiencia y al razonamiento. En realidad, es por ser la única
entre las ciencias de la naturaleza que puede expresarse con el lenguaje de las
matemáticas. La física sustituye la palabra de la revelación por la de la lógica” (Jacob,
1970 [1977, p. 40])
Pero el pasaje o la utilización de la matemática en otras áreas del saber se ha
concretado de formas diversas, básicamente cuatro:
1. La primera y quizá la principal fue el intento de producir trabajos que desplegaran la
claridad y certeza del razonamiento matemático, que fueran tan infalibles como la
geometría euclidiana.
2. La segunda fue el intento de adoptar la actual forma estructural de presentación: clases
ordenadas de definiciones, de axiomas y postulados, que llevaran a probar teoremas.
3. La tercera fue aplicar nuevas técnicas y métodos matemáticos, tales como los del
álgebra y la aritmética de los comerciantes y mercaderes para producir un cálculo ético o
moral o una forma de matemática social o política.
4. La cuarta fue el uso de datos sociales numéricos a la manera que había probado
exitosamente en las ciencias físicas o biológicas; un corolario fue favorecer la colección
de tales datos numéricos para este propósito.
La primera forma puede verse en el pensamiento de Huig -o Huigh- de Groot, o Hugo
Grotius (1583-1645), uno de los fundadores del derecho internacional moderno. Grotius es
una figura particularmente significativa en este contexto porque se ganó su reputación como
jurista y su carrera no es usualmente asociada con la ciencia matemática del siglo XVII. Sin
embargo en 1636, Grotius estuvo de acuerdo con Galileo en relación con las propuestas de
este último sobre nuevos medios para la determinación de la longitud del mar, un tema
familiar para Grotius, ya que había traducido -del holandés al latín- un trabajo sobre este
tópico del ingeniero holandés Simón Stevin, que fue también amigo de su padre. En su carta
a Galileo, expresó enorme admiración por su talento, ya que:
“(...) supera todo esfuerzo humano y lo pone en obra de modo que no necesitamos ni
escritos de los antiguos ni preocuparnos de que en el futuro edad alguna triunfe sobre
esta (...) pretendo haber sido siempre uno de sus admiradores (...)”. (citado en Cohen,
1995, p. 106)
Pero, además, la admiración de Grotius por la física matemática galileana se puede
detectar en su tratado de 1625, De Jure Belli ac Pacis, o Law of War and Peace, trabajo
sobre el cual se construyó su fama. En los Prolegomena declaró que en la elaboración de su
tratado no había considerado controversias presentes o futuras insistiendo en que había
seguido el procedimiento matemático. “Tal como los matemáticos tratan sus figuras como
abstraídas de los cuerpos así, en el tratamiento de la ley, yo he apartado mi mente de todo
hecho particular”. Grotius evidentemente creyó que su ciencia de la ley internacional era tan
cierta y segura como cualquier sistema matemático porque había adoptado el mismo alto
nivel de abstracción y en concordancia, se había abstraído de los eventos contemporáneos.
Juzgó que sus “pruebas de las cosas en cuanto a la ley de la naturaleza” estaban basadas
sobre “ciertas concepciones fundamentales que están fuera de cuestión, por eso nadie
puede negarlas sin violentarse a sí mismo”. En un trabajo anterior, De Jure Praedae
Commentarius, realizado entre 1604-1606, pero publicado en su totalidad recién en 1868,
Grotius sostiene claramente que su propuesta tiene la forma de lo que hoy llamaríamos un
‘sistema axiomático’:
“Tal como los matemáticos habitualmente establecen para cualquier demostración
concreta una afirmación preliminar de ciertos axiomas generales sobre los que todas las
personas están fácilmente de acuerdo, para que pueda haber un punto fijo desde el cual
trazar la prueba de lo que sigue, así nosotros estableceremos ciertas reglas y leyes de la
naturaleza más general, presentándolas como supuestos preliminares que necesitan ser
recordados más que aprendidos por primera vez, con el propósito de establecer un
fundamento sobre el que nuestras otras conclusiones puedan descansar”. (citado en
Cohen, 1995, p. 108)
El procedimiento matemático, obviamente no está referido aquí a la utilización de
consideraciones aritméticas o cuantitativas, sino respecto a lo que se consideraba el
procedimiento racional por excelencia. De un modo similar se expresa en De Jure bellis ac
pacis:
“En mi trabajo como un todo, yo he apuntado, por encima de todo, a tres cosas: hacer
las razones para mis conclusiones tan evidentes como fuera posible; exponer en un
orden definido las materias que necesitaban ser tratadas; y distinguir claramente entre
las cosas que parecían ser iguales y las que no”. (citado en Cohen, 1995, p. 109)
Grotius se basó, para el análisis de la idea misma de justicia en la “proporción
geométrica y aritmética”. Pero, además, y concibiendo a la naturaleza como inalterable,
asumió que ni el hombre ni dios podrían interferir con la necesidad de las leyes de la misma.
Del mismo modo que en la matemática dios mismo no podría hacer que dos veces dos no
fuera sino cuatro, así también en el reino de las leyes naturales, Grotius extrajo como
conclusión –que, reconoció, rozaba la blasfemia- que el derecho natural podría existir aun si
no hubiera un Ser Supremo. De este modo Grotius “liberó el concepto de derecho natural de
su origen divino heterónomo” y lo redujo a “un elemento de la naturaleza humana que puede
ser conocido por el ejercicio de la razón, de un modo similar al que caracteriza las reglas de
la matemática”.
Otro autor de la época, S. Pufendorf (1632-1694), sostiene que él mismo, así como
también Grotius y Hobbes han sido los que iniciaron la verdadera ciencia de la ley por haber
introducido el razonamiento propio de la matemática en sus estudios.
De hecho el planteo iusnaturalista hobbesiano se presenta con pretensiones de
constituir un sistema deductivo al estilo de la geometría euclideana. Las premisas, que en la
geometría son los axiomas y postulados, en el modelo político son las cualidades de la
naturaleza humana a partir de la cual se legitima el orden político; sea el orden dado como
así también las posibles impugnaciones a un orden existente que no se adecua a los
dictados del orden natural. A diferencia de lo que ocurre en la geometría, en la cual la
verdad de los principios está garantizada por la evidencia de los mismos en el planteo
político es la razón humana la que debe captar esos principios, presentes en la naturaleza
misma de las cosas pero no inmediatamente captables. Como quiera que sea, y por lo
menos en el siglo XVII, además de conservar la estructura geométrica, el modelo político
resulta, al igual que la geometría un orden conforme a la razón que puede explicar lo
empíricamente dado pero que no se legitima en lo empírico sino por la luz de la razón
atenta.
El más celebrado ejemplo del modo geométrico-matemático de discurso en la época
de la Revolución Científica –el segundo modo de influencia de la matemática-es la Ethica
ordine geométrico demonstrata (completada en 1674, pero publicada en 1677) por B.
Spinoza (1632-1677). Organizada en una estricta estructura euclidiana, este tratado
comienza con un conjunto de ocho definiciones numeradas y axiomas, que conducen a
otras proposiciones numeradas y sus pruebas. Luego hay otros conjuntos de definiciones y
axiomas numerados, que conducen a proposiciones adicionales y pruebas. Hay también
postulados y lemas. Pero aunque la forma externa es estrictamente geométrica o en el estilo
de Euclides, Spinoza no usa técnicas actuales de matemática o geometría en el desarrollo
de los temas ni sus argumentos dependen de datos numéricos o consideraciones
cuantitativas.
Spinoza no empleó esta forma geométrica en sus otros trabajos. Pero en el Tratado
teológico político sostuvo que había adoptado “la misma objetividad que generalmente
mostramos en las inquisiciones matemáticas”. Esto es, en fundamentar la política sobre “la
real naturaleza del hombre”, habiendo “tenido sumo cuidado para comprender las acciones
humanas, más que en ridiculizar, deplorar o denunciarlas”.
En suma, sostuvo:
“Por consiguiente he considerado las pasiones humanas como amor, odio, cólera,
envidia, vanidad, piedad, y los otros sentimientos que agitan la mente, no como vicios de
la naturaleza humana, sino como propiedades que le pertenecen a ella en el mismo
sentido que calor, frío, tempestad, trueno, y otras similares pertenecen a la naturaleza de
la atmósfera” (Spinoza [1990, p.34])
Otro ejemplo de la aplicación del método geométrico –el tercer modo- para un
problema en las ciencias sociales fue un ensayo de G. W. Leibniz (1646-1716) sobre la
elección de un rey de Polonia. Titulado Specimen demonstrationum politicarum, este
pequeño trabajo proclamó a través de su subtítulo que Leibniz había usado “un nuevo estilo
de escritura que tendía a producir claridad y certeza”. Publicado en 1669, ocho años antes
que la Etica, el Specimen de Leibniz difiere de todos los esfuerzos similares de esa época
porque su meta era solucionar un problema político particular, no construir un sistema
abstracto general.
El Specimen es también de interés porque contiene una sugerencia del cálculo lógico
de probabilidades- en un contexto político. Aunque Specimen no es mencionado en muchos
trabajos sobre Leibniz y es sumariamente descartado en otros, adquiere un cierto renombre
en 1921, cuando John Maynard Keynes comenzó el prefacio de su tratado sobre la
probabilidad declarando que “el contenido de este libro apareció por primera vez en la mente
de Leibniz (...) en la disertación, escrita a sus veintitrés años, sobre el modo de elección de
reyes en Polonia”.
Leibniz desarrolla su tema en una secuencia de proposiciones numeradas,
interrumpidas una y otra vez por la introducción de un corolario o lema. El contenido de las
proposiciones individuales, como quiera que sea, no es generalmente matemático. Por
ejemplo, la Proposición Nº 9 expresa lo siguiente:
“Todo lo que es contrario a la LIBERTAD es contrario a la SEGURIDAD en Polonia.
Todo lo que es contrario a la libertad es contrario a la cosa mas deseada por los polacos,
por la prop. Nº3
Los polacos son una nación guerrera, por la prop. Nº 5.
Todo lo que sea contrario a los deseos de una nación guerrera es propenso a ser causa
de guerra.
Por ello, es propenso a ser causa de una guerra civil.
Pero la guerra civil es peligrosa.
Todo lo que sea peligroso es contrario a la seguridad.
Por ello, todo lo que es contrario a la libertad es contrario a la seguridad en Polonia.”
(citado en Cohen, 1995, p. 112)
En la época en que el Specimen fue publicado la elección ya había sido hecha, y el
trono no le fue otorgado al candidato por quien Leibniz había abogado. Quizá el Specimen
pueda ser considerado como un documento pionero en los intentos de matematización de la
ciencia política.
Durante toda su vida Leibniz se mostró profundamente preocupado por los aspectos
de la ciencia política o social. Su meta fue producir una ciencia general (scientia generalis)
que abrazara la matemática, las ciencias físicas y las ciencias sociales, usando un método
matemático para todas ellas. Apuntaba también a una ‘lógica civil’ o ‘lógica de la vida’ en la
cual los problemas prácticos, especialmente las cuestiones legales, fueran analizadas por el
cálculo de probabilidades. Quiso en particular proveer un modo cierto y fácil para resolver
todas las disputas. Sostuvo:
“Cuando surja la controversia, la disputa no será más necesaria entre dos filósofos que
entre dos contadores. (...) Será suficiente para ellos tomar sus lápices en las manos y
apoyados en sus sumas, decir cada uno al otro (amistosamente si lo desean):
calculemos’”. (citado en Cohen, 1995, p. 113)
G. L. Leclerc, conde de Buffon (1707-1788), uno de los grandes naturalistas del siglo
XVIII, aunque no se destacó en matemática, publicó en 1777 y como suplemento a su
Historia Natural en 30 volúmenes, un opúsculo titulado Essai d’Arithmetique Morale. Su
preocupación por averiguar la relación de los algunos números (por ejemplo en los juegos
de azar) con las conductas de las personas justifica el adjetivo ‘moral’ en el título. Aspiraba a
poder medir en lo posible las emociones, temores y esperanzas de los humanos reales y
concretos. Sostiene que se puede escoger como unidad de medida el temor a la muerte,
dado que se trata de una característica humana a la cual se podrían referir las medidas de
los otros temores y también de las esperanzas puesto que “las diferencias entre las
esperanzas y los temores son tan sólo de signo positivo o negativo”. Mientras que los
animales, para Buffon, no saben que morirán, los hombres, al saberlo, hacen de la muerte el
centro de su vida, creencias, ritos, esperanzas y temores. La pasión que Buffon consideraba
más perniciosa, quizá por ser la más extendida, era la del juego de azar entendido como
una suerte de convenio en el cual una persona apuesta parte de su patrimonio con la
intención de quedarse con parte del patrimonio de otro; sostenia que era un contrato
desventajoso para amnbas partes y que su efecto era provocar siempre una pérdida
superior a las ganancias, eludiendo el bien para caer en el mal.
La noción misma de introducción de la matemática en las ciencias sociales sobre el
modelo de las ciencias naturales hoy sugiere mucho más que las ideas abstractas de
Grotius o la forma geométrica del Specimen de Leibniz o la Etica de Spinoza. Más bien el
término ‘matemática’ implica al mismo tiempo tanto la acumulación de datos numéricos o
cuantitativos como la introducción de técnicas matemáticas: proporciones, álgebra, gráficos,
técnicas estadísticas, cálculos, y otros tipos de altas matemáticas. El reino de la ciencia
social matemática del siglo XVII abraza no solamente los trabajos de pensadores cuyo
objetivo era emular la estructura formal del sistema geométrico o adoptar la certeza
abstracta del razonamiento matemático sino también los intentos de producir una base
numérica para la comprensión de la sociedad y proponer análisis cuantitativos -el cuarto
modo de influencia de la matemática. Para tener tales números sociales era necesario tener
algún tipo de censo. Aunque varias formas de censos y de colección de datos cuantitativos
sobre recursos naturales y otros aspectos de la economía antecedieron en mucho a la
Revolución Científica, las primeras series útiles de números referidos a lo social
regularmente producidos fueron las Listas londinenses de mortalidad (London Bills of
Mortality) (cf. Cohen, 1995), inicialmente tomada, sobre bases semanales, a principios del s.
XVI. Interrumpidas durante algún tiempo fueron luego restituidas durante los años de plaga,
y después de 1603 fueron tomadas mas o menos regularmente, aun durante los años
relativamente libres de plaga u otras enfermedades.
Un paso importante en ciencia social asociada a la matemática ocurrió cuando estos
datos estuvieron sujetos a análisis por J. Graunt (1620-1674), un comerciante londinense
con poca educación formal, cuya reputación se estableció por la publicación, en 1662, de un
pequeño libro titulado Natural and political observations upon the bills of mortality, el cual
aseguró su elección para la Royal Society. Ya en la dedicatoria, Graunt aclara que su uso de
la matemática no es en un nivel académico como el de la geometría teórica o la teoría del
número abstracto, sino que hace uso de los datos a la manera de los negocios y la
contabilidad, agregando totales y subtotales, estimando fracciones, y analizando datos a la
manera de un hombre de negocios. Observó, por ejemplo, que durante un periodo de veinte
años, las muertes de viruelas, viruelas locas, sarampión y parásitos sin convulsiones totalizó
12.210, de lo cual él supuso que “alrededor de la mitad podrían ser niños de menos de 6
años”. Unos 16.000 del total de 229.250 muertes fueron causadas por la plaga. Por ello,
“alrededor del 36 por ciento de todos los concebidos vivos murieron antes de los seis años”.
De este total, “enfermedades agudas” diferentes de la plaga estimadas en “alrededor de
50.000, o los 2/9”. Concluyó que este número daba una “medida del estado y disposición de
este clima y aire para la salud”. Estos análisis pioneros pronto dieron frutos en la “Aritmética
Política” de Sir W. Petty, fuertemente influenciado por el trabajo de Graunt. Fue miembro
fundador de la Royal Society y escribió muchos tratados sobre temas económicos, de los
cuales el mas celebrado es la Political Arithmetik publicado póstumamente en 1690. En el
informe preliminar se señala que Petty inventó el nombre ‘aritmética política’ para denotar el
modo en el cual “la felicidad y grandeza de un pueblo están bajo Reglas Ordinarias de
Aritmética, comprometidas en una suerte de demostración”. Petty describió su método como
sigue:
“El método que he adoptado para realizar esto no es muy común: en lugar de usar
solamente términos comparativos y superlativos y argumentos intelectuales, he adoptado
para expresarme el camino (como una especie de Aritmética Política) de usar términos
de medida, peso o medida; usar solo argumentos basados en los sentidos y considerar
como causas lo que tiene un fundamento visible en la naturaleza, dejando de lado
aquellos que depende de los puntos de vista, opiniones, apetitos y pasiones de los
hombres particulares(...)” (citado en Cohen, 1995, p. 116)
Del mismo modo que Graunt, Petty insiste sobre la primacía de los números y en
consecuencia la aritmética y su generalización en el álgebra, a diferencia de la tradicional
geometría de los académicos que se remonta a la antigua Grecia. Los tópicos en los cuales
Petty está interesado - bienes y comercio, marina mercante, impuestos, y el costo de
manutención de un ejercito- son considerados en términos de datos numéricos. En sus
primeros ensayos en aritmética política estudió cuestiones especificas de vivienda,
hospitales y poblaciones. Por ejemplo, habiendo hallado que la población de Londres se
duplica cada cuarenta años y la población de “toda Inglaterra” cada 360 años, concluyó que
“el crecimiento de Londres debe parar antes del año 1800” y que “el mundo estará repleto
de gente dentro de los próximos doscientos años”.
El deseo de tener números exactos que den cuenta de los social o datos censales,
fue parte de la esperanza del s. XVII de producir una ciencia cuantitativa del Estado y la
sociedad. Fue un complemento de la meta fijada de desarrollar una ciencia social que
recordara a la matemática tanto en su forma como en la certeza de los resultados a partir de
la abstracción, desde la ausencia de discusión en temas y sucesos que despertara la pasión
humana. Otro caso es el de S. Le Prestre de Vauban (1633-1707) Marshall de Francia bajo
Luis XIV quien ha sido llamado, por su interés y uso de estadísticas o información numérica,
‘el padre de la estadística’ o ‘creador de la estadística’. Fontenelle, en su éloge oficial para la
Academia de Ciencias, dijo que Vauban fue elegido miembro honorario de la Academia de
Ciencias como matemático porque él, más que ningún otro, “había traído la matemática de
los cielos”.
CAPITULO 5
METÁFORAS ENTRE CIENCIAS
Jugando en el árbol del conocimiento
“(...) la verdad, una vez hallada,
sería sencilla, además de bella”
(J. Watson, La doble hélice,)
En este Capítulo se abordará el uso metafórico de teorías, conceptos o modelos que
pasan de un área específica de la ciencia a otra, que en principio, le es ajena. Si hubiera
que elegir ejemplos o casos típicos de ‘metáforas epistémicas’ tal como se las ha definido
aquí, probablemente serían estos los que mejor se prestarían. Igual que en el Capítulo
anterior no se intentará hacer aquí un rastreo exhaustivo de metáforas en la ciencia, sino
más bien señalar algunas de las principales líneas de transferencias metafóricas entre las
distintas áreas de la ciencia. Pueden establecerse entonces, algunos criterios según los
cuales se ha operado la selección de casos.
Haciendo una lectura a grandes rasgos de la historia de la ciencia europea de los
últimos tres o cuatro siglos puede decirse que hay dos líneas fundamentales: una que tiene
como proveedora de modelos a la física, que se inicia primero, merced a los éxitos de la
física de la Revolución Científica -principalmente la de Newton-; y otra que se apoya en las
ciencias biológicas y que fue creciendo en importancia a medida que se iba desarrollando la
biología. Estas dos líneas se han ido consolidando desde la Revolución Científica en
adelante y durante el siglo XIX se pudo asistir al apogeo de ambas, siendo profusamente
utilizadas en las incipientes ciencias sociales aunque con algunas especificidades: mientras
que por una parte la física matemática, tenía una profunda influencia sobre la economía, los
modelos provenientes de las ciencias biológicas, tales como por ejemplo la teoría celular y la
teoría de la evolución, resultaron sumamente influyentes en el área de las teorías de la
morfología social y la conducta. De cualquier manera, y este es un punto importante para los
estudios sobre la ciencia, la relación entre el ámbito original proveedor de metáforas, casi
nunca es lineal y en un solo sentido, sino que debería decirse, con más propiedad, que se
produce una interacción compleja entre sectores del conocimiento.
En segundo lugar, puede decirse que el modelo de cientificidad ha sido durante los
siglos XVII, XVIII y XIX básicamente la física-matemática, hegemonía que, en lo referente a
las ciencias de la conducta, individual y socialmente consideradas, comenzó a compartir en
el siglo XIX con las ciencias biológicas, proceso que se ha profundizado en las últimas
décadas, pasando a ser la biología el modelo de cientificidad por antonomasia.
1. APROPIACIONES DE LA FISICA NEWTONIANA
1.1 algunos usos metafóricos de la física en ciencias sociales
Las leyes de Newton dan cuenta de una serie de fenómenos de diferentes clases,
tanto en los cielos como en la Tierra, fenómenos que incluyen los movimientos orbitales de
los planetas, satélites y cometas; las mareas en el océano; el hecho de que, en todo lugar,
cuerpos de diferentes pesos caigan con la misma aceleración, y muchos otros. En 1713
Berkeley (1685-1753), intentó desarrollar una ciencia social basada en la ley de la
gravitación de Newton (Principia, Libro II, Proposición VII) que establece que la fuerza de la
gravedad entre dos cuerpos es directamente proporcional al producto de las masas de los
cuerpos e inversamente proporcional al cuadrado de las distancias entre ellos. Berkeley
sostuvo, en esta misma línea, que el funcionamiento de la sociedad es análogo al de los
cuerpos y que hay un ‘principio de atracción’ en los ‘espíritus o mentes de los hombres’.
Esta especie de fuerza de gravitación social tiende a juntar a los hombres en comunidades,
clubes, familias, círculos de amistades y todo tipo de sociedades. Del mismo modo en que
en los cuerpos físicos de igual masa ‘la atracción es más fuerte entre aquellos que se
encuentran más cerca’ así también con respecto a las ‘mentes de los hombres’ -ceteris
paribus- la ‘atracción es más fuerte (...) entre aquellos que están más cerca’. Partiendo de
estos supuestos extrajo toda clase de consecuencias sobre los individuos y la sociedad,
abarcando desde el amor de los padres por los hijos hasta el que pueda tener una nación
por los asuntos de otra, y de cada generación por las futuras. De cualquier manera, aunque
Berkeley introdujo la noción de atracción social y consideró las ‘mentes de los hombres’ y la
solidez de sus relaciones como si tuvieran los mismos roles que masa y distancia en la
física, no intentó desarrollar un isomorfismo exacto de conceptos, ni tampoco cuantificó su
ley de fuerza moral.
A mediados del s. XIX el economista americano H. Ch. Carey (1793-1879), por su
parte, sostuvo que la sociedad está regida por leyes similares a las de la física, proponiendo
un principio general de la gravitación social:
“El hombre tiende necesariamente a gravitar hacia sus semejantes” y su corolario:
“cuanto más grande es el número de hombres que están juntos en un espacio dado, más
grande es la fuerza de atracción allí ejercida” (citado en Cohen, 1995, p. 17)
Carey pretendía que su ley cumpliera respecto al funcionamiento de la sociedad, la
misma función que la ley de Newton en la física, utilizando análogos de los conceptos de
‘atracción’ y de ‘masa’.
Por la misma época (alrededor de1860) el economista suizo L. Walras (1834-1910)
intentó establecer una suerte de ley newtoniana de la economía en un trabajo titulado “La
aplicación de las matemáticas a la economía política”. Sostuvo allí que “el precio de las
cosas está en razón inversa a la cantidad ofertada y en razón directa a la cantidad
demandada”. Pretendía que esta ley que intenta establecer una relación funcional entre las
entidades económicas, cumpliera en la teoría del mercado, el mismo papel central que la ley
de Newton cumple en la física. De cualquier manera hay también algunas diferencias
importantes: en primer lugar, la ley de Walras depende de una razón inversa simple (el
precio es inversamente proporcional a la cantidad ofertada), mientras que la ley de Newton
invoca la razón inversa del cuadrado (la fuerza es inversamente proporcional al cuadrado de
la distancia); en segundo lugar, la ley de Walras, implica una proporción directa de una
cantidad o parámetro simple (cantidad demandada), mientras que la ley de Newton usa la
proporción directa de dos cantidades (las masas).
A principios del s. XIX Ch. Fourier (1772-1837), pretendió haber descubierto un
equivalente de la ley de la gravitación, que aplicó a la naturaleza humana y la conducta
social. Llegó a equiparar su 'descubrimiento' con el de Newton, y se jactó de que su ‘cálculo
de atracción’ era parte de su descubrimiento de ‘las leyes del movimiento universal
ignoradas por Newton’. Cuando en 1803, Fourier anunció su descubrimiento de un ‘cálculo
de armonía’, declaró que su ‘teoría matemática’ era superior a la de Newton, ya que éste y
otros científicos y filósofos habían hallado solamente ‘las leyes del movimiento físico’,
mientras que él había descubierto ‘las leyes del movimiento social’. La física social de
Fourier estaba basada sobre un sistema de doce pasiones humanas y una ley fundamental
de ‘atracción pasional’ (o ‘atracción apasionada’), a partir de la cual concluyó que solamente
un número cuidadosamente determinado de individuos viviría juntos en ‘armonía’ en lo que
llamó phalanx.
E. Durkheim provee otro ejemplo de la pretensión de haber descubierto un análogo
social de la ley de Newton de la gravitación universal. Resulta particularmente interesante el
caso de Durkheim, por cuanto esta referencia aparece en la conclusión de su División del
trabajo social, texto en el cual abunda el uso de analogías organicistas, biológicas y médicas
de la sociedad, incluso introduciendo las células biológicas, funciones fisiológicas, la acción
del sistema nervioso, y otros elementos anatómicos y morfológicos. La ley social newtoniana
de Durkheim depende de dos factores sociales: ‘el número de individuos en relación - en
rapport- y su proximidad material y moral’. Estos factores asimismo son para él ‘el volumen y
densidad de la sociedad’: su aumento produce la ‘intensificación que constituye la
civilización’, o como expresa la misma idea en una nota, ‘el crecimiento en masa social y
densidad’ es ‘el hecho que determina el progreso de la división del trabajo y la civilización’.
Durkheim, algo presuntuosamente, llamó a su ley sociológica: la ‘ley de gravitación en el
mundo social’. Y en una de sus formulaciones de esta ley ciertamente resuena, en medio de
abundantes referencias a la lucha por la vida en la sociedad, el eco de Newton:
“La división del trabajo varía en relación directa con el volumen y densidad de las
sociedades, y, si progresa de una manera continua en el curso del desarrollo social, es
porque la sociedad deviene regularmente más densa y generalmente más voluminosa”.
(Durkheim, [1993, p. 317])
En todo el siglo XIX es una constante la relación entre física y economía: por un lado
la mecánica racional con la física de la energía fue ampliamente utilizada como modelo
original para la naciente economía marginalista -o neoclásica-, junto con herramientas
analíticas tales como desplazamientos virtuales de Lagrange y las funciones de Hamilton,
ecuaciones análogas y principios de maximización y minimización. Pero además, por el
hecho de tomar a la física matemática como modelo de cientificidad, con el objetivo de
establecer una ciencia social de la economía legitimada en la comunidad científica por estar
apoyada en el sistema de valores de la ciencia ‘dura’.
1.2 mecánica racional y economía marginalista
Las principales figuras de la revolución marginalista en economía -Jevons, Walras,
Edgeworth, Fisher y Pareto- basaron sus teorías económicas, o al menos las asociaron con,
la matemática de un subconjunto específico de la física: la mecánica racional post
newtoniana (o sea incorporando los principios de Lagrange y Laplace más los métodos de
Hamilton) combinada con las doctrinas de la energía. En el fondo, parece tratarse del
antiguo recurso de lograr estatus de cientificidad sobre la base de parecerse lo más posible
a la física matemática.
Walras escribió en su Elements of Pure Economics que el uso de la “matemática
promete convertir la economía pura en una ciencia exacta”, que “la economía matemática se
alineará con las ciencias matemáticas de la astronomía y la mecánica”, para concluir que “la
ciencia pura de la economía es una ciencia con semejanzas a las ciencias físico
matemáticas en muchos respectos”. Probablemente en este caso, como en muchos otros, la
asociación de la economía con la física matemática, más que apuntar a elaborar contenidos
sustanciales en la economía, esté dirigida a establecer elementos de legitimación. Como
quiera que sea, en un artículo llamado “Economía y mecánica”, publicado en 1909, sostuvo
que ecuaciones diferenciales idénticas a las de su análisis de la economía aparecen en dos
ejemplos de la física matemática: el equilibrio de la palanca y el movimiento de los planetas
de acuerdo a la mecánica gravitacional celeste.
La utilización en la economía de estos modelos va mucho mas allá de una mera
transferencia creativa de conceptos y principios, expresiones matemáticas, y otras
herramientas del arsenal de la física matemática. Jevons (1835-1882) reconocía que la
analogía “nos lleva a descubrir regiones de una ciencia todavía no desarrollada, para lo cual
la llave es provista por las verdades correspondientes en la otra ciencia”. Sostiene Jevons
que a pesar de que parece que no hay disciplinas tan disímiles como la economía y la física
matemática, en la medida en que la primera se las tiene que ver con factores tales como
avaricia, beneficio, costo, valor, utilidad, necesidad y bien, mientras que la física lo hace con
abstracciones tales como fuerza, campo, distancia, velocidad, y energía cinética y potencial,
sin embargo sostiene en su Teoría de la Economía Política, que la economía es similar a la
física de tal modo que “las ecuaciones empleadas no difieren en su carácter general de las
utilizadas en muchas ramas de la ciencia física”. De hecho, sostiene “no hay dos ciencias
que puedan parecer a primera vista más diferentes en cuanto a sus temas que la geometría
y el álgebra”, y sin embargo la geometría analítica de Descartes demostró lo contrario. Hay
que tener en consideración que en el s. XIX Newton aún simbolizaba el nivel más alto de
hazaña científica, y las palabras usadas en relación con la ciencia newtoniana- ‘racional’,
‘exacta’, y hasta ‘matemática’- denotaban una ciencia en el zenit de la jerarquía científica. La
asociación de la ‘mecánica racional’ newtoniana, entonces, unía a la economía con la rama
más exitosa de las ciencias naturales. Esta asociación estaba basada en una metáfora, pero
no sólo como transferencia y asimilación de significados y fórmulas más o menos felices,
sino que opera también una verdadera transferencia de sistemas de valores epistémicos y
aun otros de reconocimiento social.
Por su parte, W. Pareto sostuvo que las ecuaciones que determinan el equilibrio
económico “no parecen nuevas para mí; las conozco bien, ellas son viejas amigas. Ellas son
las ecuaciones de la mecánica racional”. Dado que las ecuaciones son las mismas, concluyó
que “la economía pura es una suerte de mecánica o pariente de la mecánica”. Pareto
atribuyó un doble rol a la matemática en la economía y en general en ciencia social. La
matemática, creyó, provee los medios de transferir analógicamente las ecuaciones básicas
de la física a la economía y también sirve como una herramienta primaria para tratar con
problemas tales como la “mutua dependencia de los fenómenos sociales” en condiciones de
equilibrio; aquí el análisis matemático permitiría precisar “cómo las variaciones de cualquiera
de estas (condiciones) influye en las otras”, una asignación en la cual “nosotros realmente
necesitamos tener todas las condiciones de equilibrio”. En el “estado actual de nuestro
conocimiento”, notó, sólo el análisis matemático puede “decirnos si este requisito es
observado”. Esto lleva a Pareto a algunos señalamientos acerca del rol de la analogía y los
peligros de su uso en la ciencia social. Dado “que el intelecto humano procede desde lo
conocido hacia lo desconocido”, escribió, podemos hacer progresos en nuestro pensamiento
basando nuestras ideas de un área desconocida en analogías traídas desde un área
conocida. Por ejemplo, el “extenso conocimiento del equilibrio de un sistema material” nos
ayuda a “adquirir una concepción del equilibrio económico” y esto en suma “puede
ayudarnos a formar una idea del equilibrio social”. Advirtió, de cualquier modo, que en “tales
razonamientos por analogía hay (...) una trampa de la que hay que escapar”. Esto es, el uso
de analogías “es legítimo y quizá, altamente fructífero, en la medida en que sólo está
implicado en la elucidación del sentido de una proposición dada”. Incurrimos en un grave
error, si tratamos de usar analogías para probar una proposición o aun “establecer una
presunción en su favor”. Las analogías, agregó, sirven primariamente para clarificar el
sentido de las proposiciones.
Pareto estaba igualmente convencido de que el equilibrio de un sistema económico
ofrece fuertes similitudes con el equilibrio de un sistema mecánico y firme en su convicción
de que un análisis de un sistema mecánico ofrece la máxima ayuda para dar “una clara idea
del equilibrio en un sistema económico”, construyó una tabla (Ver Tabla 1) para “aquellos
quienes no han estudiado mecánica pura” y que necesitarán ayuda en la comprensión del
argumento. En esta tabla ubicó en columnas paralelas algunos importantes conceptos y
principios de la mecánica física y su contraparte en la economía, previniendo, de cualquier
modo, que en una tabulación tal de las analogías existentes entre los fenómenos de la
mecánica y los sociales las “analogías no prueban nada: ellas simplemente sirven para
elucidar ciertos conceptos que deben entonces ser sometidas a los criterios e la
experiencia”.
TABLA Nº 1 Analogías de Pareto
Fenómenos mecánicos
Fenómenos sociales
Dado un cierto numero de cuerpos materiales,
las relaciones de equilibrio y movimiento entre
ellos son estudiadas, cualquier otra propiedad es
excluida de la consideración. Esto nos da una
disciplina llamada mecánica.
Esta ciencia de la mecánica es divisible, a su
vez, en otras dos:
1- el estudio de los puntos materiales y
conexiones invariables (inextensibles) llevan a la
formulación de una ciencia pura- la mecánica
racional pura, que realiza un estudio abstracto
Dada una sociedad, las relaciones creadas entre los
seres humanos por la producción y el intercambio de
bienes son estudiadas, cualquier otra propiedad es
excluida de la consideración. Esto nos da una
disciplina llamada economía política.
Esta ciencia de la economía política es divisible, a su
vez, en otras dos:
1- El estudio del homo economicus, el hombre
considerado únicamente en el contexto de las
fuerzas económicas, lleva a la formulación de la
economía política pura, que realiza un estudio
del equilibrio de fuerzas y el movimiento.
Su parte más sencilla es la ciencia del equilibrio.
El principio de D’Alembert permite que la
dinámica sea reducida a un problema de
estática.
60
abstracto de las manifestaciones de ofemilidad .
La única parte que estamos comenzando a
comprender claramente es la que trata con el
equilibrio. Un principio similar al de D’Alembert es
aplicable a los sistemas económicos; pero el estado
de nuestro conocimiento sobre este punto es aun
imperfecto. No obstante, la teoría de las crisis
económicas provee un ejemplo de estudio de la
dinámica económica.
2- La mecánica pura es seguida por la mecánica 2- La economía política pura es seguida por la
aplicada la cual se aproxima un poco más economía política aplicada, la cual no se refiere
cercanamente a la realidad en su consideración exclusivamente al homo economicus, sino que
de los cuerpos elásticos, conexiones variables, también considera otros estados humanos que se
fricción, etc.
aproximan más al hombre real.
Los cuerpos reales tienen propiedades distintas Los hombres desarrollan características que son
de las de la mecánica. La física estudia las objeto de estudio para ciencias especiales, tales
propiedades de la luz, electricidad y el calor. La como las ciencias de la ley, la religión, la ética,
química
estudia
otras
propiedades.
La desarrollo intelectual, estética, organización social y
termodinámica, la termoquímica y ciencias otras. Algunas de estas ciencias están en un estado
similares conciernen específicamente a ciertas apreciablemente
avanzado;
otras
son
categorías de propiedades. Estas ciencias juntas extremadamente lentas. Tomándolas en conjunto
constituyen las ciencias físico químicas.
constituyen las ciencias sociales.
No existen cuerpos reales con propiedades No existen hombres reales gobernados solamente
mecánicas puras. Se comete exactamente el por motivos de la economía pura. Se comete
mismo error tanto si se supone que en los exactamente el mismo error tanto si se supone que
fenómenos concretos existen únicamente fuerzas en un fenómeno concreto existen únicamente
mecánicas –excluyendo por ejemplo fuerzas motivos económicos –excluyendo por ejemplo
químicas- como si se imagina, que un fenómeno fuerzas morales- como si se imagina que un
concreto puede ser inmune a las leyes de la fenómeno concreto puede ser inmune a las leyes de
mecánica pura
la economía política pura
La diferencia entre la teoría y la práctica reside precisamente en que la práctica tiene que tomar en
cuenta una masa de detalles con los cuales la teoría no trata. La relativa importancia de los fenómenos
primarios o secundarios variará de acuerdo a si el punto de vista es el de la ciencia o de una operación
práctica. Hay, de tanto en tanto, intentos de hacer una síntesis de todos los fenómenos. Por ejemplo se
sostuvo que todos los fenómenos pueden ser atribuidos a:
La atracción de átomos. El intento se hizo para La utilidad, de la cual la ofemilidad es sólo un tipo. El
reducir y para unificar todas las fuerzas físicas y intento se hizo para encontrar la explicación de
todos los fenómenos en evolución.
químicas.
(Pareto, W., “On the economics Phenomenon”. Tomado de Cohen, 1995)
Un caso extremo de las analogías entre la economía y la mecánica racional se
encuentra en Mathematical Investigations into the Theory of value and Prices de I. Fisher
(1926). En el mismo estilo de Pareto, Fisher (Ver Tabla 2) también construyó una tabla
similar de analogías entre la mecánica física y la economía, pero su lista de semejanzas no
se limita a la inclusión de pares de conceptos -tales como partículas e individuos; energía y
utilidad, etc. - sino que se extiende a la inclusión de principios generales.
TABLA Nº 2 Analogías de Fisher
Mecánica
Economía
Una partícula
Espacio
Fuerza
Trabajo
Energía
Trabajo o energía= fuerza x espacio
Fuerza es una magnitud vectorial
La suma de las fuerzas es una suma vectorial
un individuo
Commodity
Utilidad marginal o costo
Costo
Utilidad
Utilidad= utilidad marginal x commodity
Utilidad marginal es una magnitud vectorial
La suma de las utilidades marginales es una suma
vectorial
Trabajo y energía son magnitudes escalares
Costo y utilidad son magnitudes escalares
El equilibrio estará donde la energía neta El equilibrio estará donde la ganancia (utilidad menos
60
La palabra ‘ofemilidad’ es un neologismo utilizado por Pareto y otros economistas, derivado del
término griego que denota ‘satisfacción’. Se refiere a la satisfacción obtenida por un individuo con el
disfrute de un determinado bien.
(energía menos trabajo) es máxima; o el
equilibrio estará donde el impulso y las fuerzas
de resistencia a lo largo de cada eje sean
iguales.
Si la energía total es sustraído del trabajo total,
en lugar de hacerlo al revés, la diferencia es
‘potencial’ y es mínima.
pérdida) es máxima; o el equilibrio estará donde la
utilidad marginal y el costo marginal a lo largo de cada
eje sea igual.
Si la utilidad total es sustraída del costo total, en lugar
de hacerlo al revés, la diferencia puede ser
denominada ‘pérdida’ y es mínima.
(Fisher, I., Mathematical Investigations into the Theory of value and Prices. Tomado de Cohen, 1995)
Es importante recalcar que la imitación de las ciencias naturales por las
ciencias sociales lleva consigo una validación y legitimación de los valores, métodos
y estilos de investigación. En el campo de circulación de los discursos científicos las
analogías o metáforas toman fuerza del encanto y la seguridad de un saber
consolidado y venerado. Valga una breve digresión para mostrar, en un caso
contemporáneo hasta qué punto el prestigio –no siempre debidamente fundadoopera a favor de la legitimación de saberes. En los últimos años hemos asistido a
una especie de escandalete académico conocido como el ‘affaire Sokal’. En el
número 46/47 –vol. 14, primavera/verano de 1997-, denominado ‘Science Wers’ y
dedicado a los estudios sociales y culturales de la ciencia, la revista Social Text,
publicó un artículo del físico A. Sokal, titulado “Transgressing the Boundaries.
Towards a Transformative Hermeneutics of Quantum Gravity”. En ese artículo Sokal
defiende una posición relativista con respecto a la ciencia, argumentando que se
trata de una construcción social y lingüística, mero reflejo de la ideología dominante
y, por lo tanto un saber entre saberes, sin ningún tipo de privilegio epistémico. Lo
curioso es que tal defensa, es llevada adelante por Sokal a partir del desarrollo de
las teorías de la gravedad cuántica y recurriendo a una gran cantidad de citas
pertenecientes a autores reconocidos. No bien sale publicado su trabajo, Sokal
publicó en la revista Lingua Franca otro artículo, titulado "Experiment with Cultural
Studies", en el cual revela que el artículo de Social Text, no era más que una parodia
y un cúmulo de falacias. En este segundo artículo Sokal revela las falacias
utilizadas, el manejo poco serio de conceptos físicos y matemáticos y la introducción
de algunos verdaderos disparates como por ejemplo que el axioma de equivalencia
de la teoría de conjuntos es análogo a las tesis feministas y otros en los cuales cita y
refuerza irónicamente fragmentos de algunos de los filósofos postmodernos
franceses.
“No se me escapan las cuestiones éticas relacionadas con mi poco ortodoxo
experimento. Las comunidades profesionales actúan sobre la base de la confianza; el
engaño mina esa confianza. Pero es importante entender exactamente lo que hice. Mi
artículo es un ensayo teórico en un todo basado en fuentes públicamente accesibles,
todas las cuales fueron minuciosamente citadas en notas de pie de página. Todas las
fuentes son reales y todas las citas rigurosamente exactas; ninguna es inventada. Ahora,
es cierto que el autor no cree en su propia argumentación. Pero, ¿por qué habría ello de
importar?. El deber de los editores, como académicos, es juzgar la validez y el interés de
las ideas, sin tomar en cuenta de dónde provengan (por eso, muchas revistas
académicas utilizan el arbitraje ciego). Si los editores de Social Text encontraron mis
argumentos convincentes, por qué habrían de desconcertarse simplemente porque yo no
lo hago? ¿O es que son más sumisos a la ‘autoridad cultural de la tecnociencia' que lo
que les gustaría admitir?
En última instancia, recurrí a una parodia por una simple razón pragmática. Los blancos
de mi critica, a esta altura, se han transformado en una subcultura académica
autoperpetuante, que típicamente ignora (o desprecia) a la crítica razonada externa. En
tal situación, se requería una demostración más directa de los estándares intelectuales
de dicha subcultura. Pero, ¿cómo puede demostrar uno que el emperador está
desnudo?. La sátira es, de lejos, la mejor arma; y el golpe que nunca puede desviarse es
el que uno se inflige a sí mismo. Ofrecí a los editores de Social Text una oportunidad
para demostrar su rigor intelectual. ¿Pasaron la prueba? No lo creo” (Sokal, 1996, p. 64).
Posteriormente, Sokal envía un nuevo artículo a Social Text, con el título de
"Transgressing the Boundaries: an afterword". Como era previsible, dado el ridículo
implicado, los editores se negaron a la publicación de este trabajo que al tiempo fue
incluido en la revista Dissent Nº 43.
Lo sustantivo de la posición de Sokal se halla contenido en Impostures
Intellectuelles, un libro publicado en Francia en 1997, en coautoría con J. Bricmont físico teórico de la Universidad de Lovaina, Bélgica. Sokal y Bricmont dedican un
capítulo distinto para cada uno de los autores criticados: Lacan, Kristeva, Irigaray,
Latour, Baudrillard, Deleuze, Guattari, Virilio, además de intermedios para Kuhn,
Feyerabend, Bloor, Barnes, Lyotard, etc. Sokal y Bricmont sostienen que su libro
tiene dos propósitos. El primero de ellos es denunciar el abuso de los conceptos
científicos por parte de connotados autores y se dedican a mostrar que intelectuales
reconocidos como Lacan, Kristeva, Irigaray, Baudrillard, y Deleuze, han abusado
repetidamente de los conceptos y la terminología científica tanto usando las ideas
científicas totalmente fuera de contexto, sin dar la más mínima justificación, como así
también esparciendo jerga científica entre lectores no-científicos sin ninguna
consideración de su relevancia o incluso de su significado. Sostiene que hay una
serie de prácticas habituales entre los autores postmodernistas tales como "(...)
mistificación, lenguaje deliberadamente oscuro, pensamiento confuso, y mal uso de
conceptos científicos". El otro objetivo es enfrentar críticamente el relativismo
epistemológico, que definen como "la idea (...) de que la ciencia moderna no es más
que un 'mito', una 'narración' o una 'construcción social' entre otras". Sostienen que
estas expresiones son propias del 'postmodernismo':
"una corriente intelectual caracterizada por el rechazo más o menos explícito de la
tradición racionalista de la Ilustración, por discursos teóricos desconectados de todo test
empírico, y por un relativismo cognitivo y cultural que considera la ciencia como nada
más que una 'narración', un 'mito' o una construcción social entre otras" (Sokal y
61
Bricmont, 1999, p. 17) .
Sokal y Bricmont ponen a la vista algunas de las tácticas usadas en este
abuso de los conceptos científicos:
• uso de teorías científicas acerca de las cuales, en el mejor de los casos, se tiene
una vaga idea expresada en una erudición científica excesivamente superficial e
irrelevante y en el uso extendido de jerga aparentemente científica
• importación de conceptos desde las ciencias naturales a las humanidades o las
ciencias sociales sin la más mínima justificación; uso indiscriminado y arbitrario
de la metáfora y la analogía y despliegue de generalizaciones arbitrarias
• despliegue de erudición superficial, manejando términos técnicos en contextos
completamente irrelevantes;
• manipulación de frases carentes de significado, con exhibición de una verdadera
intoxicación con palabras que resulta en un estilo oscuro de exposición como
signo de supuesta profundidad
• Indiferencia o desdén por los hechos y por la lógica
El affaire Sokal permite extraer varias conclusiones posibles, además de haberle
dado a su autor cierta fama y dinero. En principio puede objetarse que se trata de que la
revista Social Text no respeta los estándares de evaluación por pares, o que determinados
61
Es discutible que con esta caracterizacion se agote el pensamiento del postmodernismo. De
cualquier manera también Kuhn utiliza el término en un sentido similar (Kuhn,1990)
ámbitos de la filosofía constituyen meramente nichos académicos muy poco serios y que, en
todo caso Sokal las emprende contra el enemigo más débil. Tampoco resulta una novedad
que en vastos sectores intelectuales, la utilización de un lenguaje típicamente científico
genera una respetabilidad y legitimidad por sí misma, que excede y en muchos casos aun
en contra de, sus legítimos méritos científicos.
Pero volvamos a la metáfora newtoniana. Una de las apropiaciones que ha resultado
significativa para las ciencias sociales consiste, no ya en la analogía con los contenidos y las
fórmulas de las leyes de la gravitación, sino en la imitación de lo que podría denominarse un
cierto ‘estilo’ newtoniano que no se refiere tanto a la utilización de las técnicas matemáticas
usadas por Newton - geometría y trigonometría, álgebra, proporciones, series infinitas y
calculo diferencial, etc.- sino antes bien a la utilización de modelos de sistemas ideales en
contraposición con lo que sucede en la naturaleza física. Los Principia comienzan con un
mundo idealizado, un constructo mental que incluye una simple partícula matemática y una
fuerza operando en el centro de un espacio matemático. Bajo estas condiciones idealizadas,
Newton puede libremente desarrollar las consecuencias matemáticas de las leyes del
movimiento que son los axiomas de los Principia. En un estadio posterior, después de la
contrastación de este mundo ideal con el mundo de la física, agregará las condiciones para
su constructo intelectual, por ejemplo, mediante la introducción de un segundo cuerpo que
interactuará con el primero y luego la exploración de las consecuencias matemáticas
adicionales. Más tarde, comparará una vez más el reino de las matemáticas con el mundo
físico y revisará el constructo, por ejemplo, a través de la introducción de un tercer cuerpo
interactuante. De este modo puede abordar, por pasos, acercándose cada vez más a las
condiciones del mundo del experimento y la observación, introduciendo cuerpos de
diferentes formas y composiciones y finalmente considerar que se mueven en varios tipos
de medios resistentes antes que en el espacio vacío.
Los Principia así exponen tanto la física de un mundo ideal como los problemas que
emergen porque las condiciones del mundo de la experiencia difieren de las ideales. Por
ejemplo, Newton muestra que la primera de las dos leyes de Kepler del movimiento de los
planetas es exactamente verdadera sólo para la condición matemática o ideal de un simple
punto -masa que se mueve sobre un centro matemático de fuerza, y entonces desarrolla los
modos actuales en los cuales la pura forma de las leyes de Kepler deben ser modificadas
para ajustarse al mundo de la observación. Los Principia pueden ser exactamente
descriptos como un trabajo en el cual Newton explora, uno por uno, las condiciones de
aplicación de las leyes ideales y cómo esas condiciones se ven modificadas en el mundo
externo de la experiencia y la observación.
Un procedimiento similar fue el que adoptó R. Malthus (1766-1834) cuando en su An
Essay on the Principle of Population, de 1789 estableció como principio básico: “la
población, si no se la limita, se incrementa según una razón geométrica”. Esta ley no es
ciertamente, el producto de una inducción baconiana sobre una masa de observaciones. De
hecho, la ley funcionaría sólo para una población dejada sin control, pero una buena parte
del Ensayo de Malthus está de hecho, dedicado a la evidencia de que las poblaciones no se
incrementan así y a explicaciones de por qué ello ocurre de tal modo. Malthus no dice que
las poblaciones observadas actualmente se incrementan en una progresión geométrica o
razón exponencial sino que ese sería el caso para poblaciones si su crecimiento no fuera
controlado. La similitud de esta afirmación con el primer axioma o ley del movimiento de
Newton es inmediatamente clara: Newton no sostuvo que todos los cuerpos se mueven
uniformemente en línea recta o permanecen en reposo, sino más bien, que un cuerpo se
mantendrá en uno u otro de aquellos dos estados excepto en el caso de que se le imprima
una fuerza que le cause un cambio de estado. Malthus sigue este estilo de los Principia al
preguntarse por qué las leyes del mundo de la naturaleza difieren de las del mundo de la
pura abstracción, estudiando por qué las poblaciones reales no se incrementan
geométricamente como lo harían en un mundo ideal o imaginado.
2. LAS METÁFORAS PROVENIENTES DE LA BIOLOGIA
Las ciencias biológicas (y biomédicas) son las otras grandes proveedoras de
metáforas aprovechables para explicar distintas áreas o perspectivas del mundo en
general. En el siglo XIX se asiste a una interpenetración de saberes provenientes
claramente de la física, pero confluyen también la impronta de la Ilustración acerca
del desarrollo y progreso de la humanidad, los inéditos desarrollo de la biología. El
resultado final muestra una prevalencia de los modelos biológicos para dar cuenta
de buena parte de los procesos sociales y de la conducta individual. De hecho, los
procesos biológicos, parecen resultar más adecuados para explicar los procesos de
desarrollo, la historia humana, el cambio en sistemas irreversibles, e incluso pueden
incluir cierto margen de plasticidad para dar cuenta de las conductas 'libres' de los
humanos. Establecer una clasificación exhaustiva de las metáforas biológicas
resultaría bastante difícil, sin embargo pueden señalarse dos estrategias típicas de
transferencia metafórica de un campo a otro, cuyo denominador común, a su vez, es
el juego de la relación entre el todo y la parte. Una estrategia consiste en tomar
como originales a los individuos orgánicos o incluso sus partes constitutivas (células
y órganos) como metáforas para explicar la estructura y funcionamiento de las
sociedades. La otra estrategia proviene de la relación entre filogenia y ontogenia,
donde filogenia y ontogenia- depende el caso- resultan los originales de una
interpretación metafórica de los procesos de tipo ontogenético y filogenético
respectivamente. la metáfora consiste en sostener que o bien la filogenia repite la
ontogenia o bien que la ontogenia repite la filogenia. Esta última estrategia,
seguramente por implicar la noción de desarrollo a través del tiempo, ha sido más
usada para dar cuenta de procesos.
2.1 vitalismo
Más de veinte siglos de metáforas originadas en lo viviente han configurado un
complejo entramado en el cual se confunden corrientes y tradiciones, a veces con notorias
diferencias entre sí. Tal es el caso del llamado ‘vitalismo’, que puede entenderse de
maneras diferentes.
Suele usarse 'vitalismo' como sinónimo de 'organicismo animista', vale decir, la
tendencia a usar lo viviente62 como modelo de explicación para otros ámbitos. Este modo de
proceder, uno de los principales usos metafóricos, puede rastrearse hasta la antigüedad,
sobre todo si se incluyen las religiones y mitos varios. Bajo la forma de la creencia en una
supuesta relación de semejanza entre macrocosmos y microcosmos es una idea
antiquísima. El macrocosmos sería el modelo imitado por el microcosmos u hombre: un
cosmos en miniatura reflejo del universo entero o macrocosmos concebido como un gran
organismo. La tesis de esta correspondencia se halla en abundantes textos de todas las
épocas y de culturas diversas, incluso en los albores de la filosofía presocrática: milesios,
órficos y pitagóricos, Empédocles, Diógenes de Apolonia y Demócrito (cf. Mondolfo, 1974)
han creido en un cosmos animado por un alma del mundo, la correspondencia entre micro y
macrocosmos.
En las corrientes mágicas, la correspondencia entre macrocosmos y microcosmos se
ha concebido a partir de considerar que tanto uno como otro están formados por los mismos
elementos y dispuestos en el mismo orden, diferenciándose solamente en la escala. Esto
62
también se denomina 'vitalistas' a un conjunto e filósofos cuyo núcleo de reflexión era el fenómeno
de lo viviente. Autores como Dilthey, introductor del vitalismo en las ‘ciencias del espíritu’, Simmel,
Eucken o Troeltsch, representan una de las orientaciones de este vitalismo entendido como filosofía
de la vida. También Nietzsche y Ortega y Gasset pueden considerarse pensadores vitalistas en este
sentido.
supone la concepción del macrocosmos como un organismo vivo y da pie a las
concepciones mágicas -de indudable base antropomórfica-, que consideran que cada parte
del cuerpo, y cada destino humano, está regido por la disposición de los astros. A la inversa,
se considerará, en estas concepciones mágicas, que actuando sobre el microcosmos se
puede influir en el macrocosmos. En el período clásico de la filosofía griega esta tesis fue
defendida por Platón: el mundo y el alma del mundo fueron creados por el demiurgo
tomando como modelo la forma de un ser vivo ideal (Timeo, 30b). En el período helenístico
fue defendida por los estoicos, por Galeno, los gnósticos, Filón, Proclo y los neoplatónicos.
Por su parte, en la medicina hipocrática, ésta era una tesis fundamental. En la época
medieval dicha correspondencia se matizó a través del cristianismo que consideraba al
hombre no como imagen del cosmos, sino creado “a imagen y semejanza” de Dios.
Durante el Renacimiento, y en el contexto de un resurgir de las concepciones
organicistas y mágicas, fue defendida, entre otros, por Nicolás de Cusa, Tomás Campanella,
Pico della Mirandola, Giordano Bruno, y Paracelso (cf. Webster, 1982). Ellos, y todos los
astrólogos, supusieron la existencia de complejas relaciones de correspondencia entre los
astros y determinadas partes del cuerpo humano, como también sugerían la existencia de
corrientes de simpatía entre determinadas figuras geométricas, cristales y piedras preciosas
con los humores corporales. Algunas versiones algo patéticas y totalmente acríticas de la
llamada autoayuda contemporánea repiten esta vinculación entre macrocosmos y
microcosmos.
En la historia del pensamiento, la noción de ser vivo plenamente diferenciado del
resto de la naturaleza va apareciendo paulatinamente y la modernidad lo resuelve de una
manera especial. La concepción tradicional de lo vital perduró con diferencias y matices
hasta la irrupción del mecanicismo del siglo XVII, como se ha señalado en el capítulo
anterior. Al afianzarse el modelo mecanicista con el desarrollo de la Revolución Científica y
la nueva mecánica, se eclipsó durante mucho tiempo todo modelo de origen organicista
clásico y más bien se tendió a ver a los organismos como máquinas. Hacia el siglo XIX, la
filosofía del romanticismo tendió a adoptar posiciones organicistas, en general condenando
el reduccionismo mecanicista. La pugna entre mecanicismo (no necesariamente dualista,
como el cartesiano, sino también plenamente materialista) y vitalismo marcó buena parte del
desarrollo de la filosofía en el siglo XIX y comienzos del siglo XX.
No hay que pensar que se trata sólo de formas antiguas y superadas de concebir lo
viviente y lo no viviente. En las últimas décadas ha surgido, sin demasiado éxito por cierto,
la hipótesis de Gaia, propuesta por J. Lovelock, y referida al “organismo vivo más grande del
Sistema Solar”. Se trata lisa y llanamente del planeta Tierra:
“La hipótesis de Gaia supone que la Tierra está viva y considera los datos que existen a
favor y en contra de esta suposición. La presenté por primera vez a mis colegas
científicos en 1971 en forma de una nota titulada “Gaia vista desde la atmósfera”. Era un
escrito breve, que sólo ocupaba una página de la revista Atmospheric Environment. Los
datos que la apoyaban se habían obtenido principalmente a partir de la composición
atmosférica de la Tierra y su estado de desequilibrio químico (...) [comparando] la
composición actual de las atmósferas de Marte y Venus, y con la hipótesis de cuál sería
ahora la atmósfera de la Tierra si nunca hubiera tenido vida. Después de largas e
intensas discusiones, Lynn Margulis y yo publicamos unos argumentos más detallados y
concisos en las revistas Tellus e Icarus. Luego, en 1979, Oxford University Press publicó
mi libro: Gaia:Una nueva visión de la vida sobre la Tierra, que recogió todas las ideas
desarrolladas por nosotros hasta aquel momento. Empecé a escribir este libro en 1976,
cuando las naves Viking de la NASA estaban a punto de aterrizar en Marte. Utilicé su
presencia allí como exploradores planetarios para establecer el escenario para el
descubrimiento de Gaia, el organismo vivo más grande del Sistema Solar. (Lovelock,
1993, p. 17-22.)
Otra forma de entender el 'vitalismo' refiere a una corriente de pensamiento filosóficobiológica desarrollada desde mediados del siglo XIX hasta comienzos del XX, que se opone
a toda forma de materialismo y reduccionismo de la vida a fenómeno físico-químico o
mecánico, defendiendo la existencia de un principio vital específico. Este 'principio vital' no
necesariamente debe considerarse en una continuidad lineal63 con la idea, muy antigua, de
considerar la especificidad de los fenómenos vitales como dependientes de un principio
externo a la materia y la concepción del alma como principio de la vida64. Entre sus
principales defensores están los biólogos J. Uexküll (1864-1945), y H. Driesch (1867-1941).
Otros importantes biólogos, como J.B.S. Haldane (1892-1968), L.V. Bertalanffy (1901-1972)
y R. Sheldrake (1897-1967) han defendido formas menos estrictas de vitalismo. Entre los
filósofos se puede considerar a Bergson como integrante de este movimiento.
En verdad se trata de un grupo heterogéneo de autores. Así, por ejemplo, unos
afirmaban explícitamente la existencia de un ‘principio vital’ (‘entelechie’ o ‘psychoid’ le
llamaba Driesch, o ‘élan vital’, le llamaba Bergson), mientras que otros se limitaban a
señalar la imposibilidad de reducir lo inorgánico a mecanicismo y lo vital a orgánico, sin
afirmar de manera explícita una fuerza vital. Esta afirmación sobre la existencia de tal
principio o fuerza vital suele ser el aspecto más criticado de estas concepciones, sobre todo
a partir de la hegemonía teórica de la Concepción Heredada de las teorías científicas (cf.
Capítulo 2). No obstante, desde otras perspectivas, algunas corrientes vitalistas o inspiradas
en ellas, han impulsado otras ramas de la ciencia, tales como la teoría general de los
sistemas propuesta por Bertalanffy quien, si bien estudió en el contexto del Círculo de Viena,
se opuso siempre a las concepciones reduccionistas, mecanicistas y positivistas. Por ello,
tanto en contra del mecanicismo como en contra del vitalismo, elaboró su teoría organísmica
para explicar los fenómenos vitales. Para Bertalanffy todo organismo constituye un todo
abierto, un “sistema que intercambia materia con el medio circundante, que exhibe
importación y exportación, constitución y degradación de sus componentes materiales”.
2.2. metáforas biológicas en sociología
Las metáforas biológicas que son utilizadas con relación a las sociedades humanas
forman parte, principalmente, de teorías referidas a la constitución y funcionamiento de esas
sociedades y de las conductas humanas. Las metáforas específicamente evolucionistas por
su parte- muchas veces en conjunción con el organicismo- básicamente intentan responder
a las preguntas por el origen, pautas y características del cambio social.
Las ciencias sociales actuales muestran un desdén generalizado, cuando no
verdadera vergüenza por la sociología organicista, pero su influencia, sin embargo, ha sido
fortísima y, lejos de constituir meras formas de hablar propias de la época o, en los casos
más extremos anticiencia, ella ha constituido genuina y generalizada ciencia social. No sólo
ha tomado conceptos de las ciencias biológicas para describir la sociedad, sino que también
ha echado mano de algunos de los conceptos y principios desarrollados en la ciencia
médica.
Autores como A. Comte, P. Lilienfeld (1829-1303), W. Schaffle, R. Worms, y otros
utilizaron los conceptos médicos de normal y patológico65, sosteniendo como principio tomado en primera instancia por Comte de Broussais- que los estados sociales normales y
patológicos no se deberían considerar tipos esencialmente diferentes, sino antes bien
estados extremos de un tipo simple de condición. De hecho, no hay gran diferencia entre
tomar conceptos del psicoanálisis para el análisis sociológico por un lado y tomar la
patología médica de Virchow y buscar análogos sociales de la teoría de los gérmenes de la
63
Wuketits (1999) además de sostener que tanto el mecanicismo como el vitalismo son, en verdad,
dos filosofías con las cuales se intenta dar cuenta de los fenómenos biológico, considera que hay una
continuidad entre las formas antiguas de vitalismo y las más modernas.
64
Este principio ha recibido diversos nombres: entelequia para Aristóteles, espíritu o neuma para
Galeno, archeus para Paracelso, vis plastica para Helmont, anima para Stahl, succus nervosum para
Boerhaave, fluidum spirituosum para Swedwnborg, moule interne para Buffon, vis essentialis para
Wolff, nisus formativus para Blumenbach, entre otros.
65
Un excelente análisis de los conceptos de ‘lo normal y lo patológico’ puede verse en Canguilhem,
1966.
enfermedad. Para los sociólogos organicistas parece una conclusión analógica obvia de la
medicina que los males o enfermedades sociales son causadas por individuos enfermizos,
tal como R. Virchow enseñó que los desórdenes médicos se podrían reducir a la condición
patológica en las células individuales. Aunque provenientes de contextos y ámbitos
disciplinares diferentes, puede señalarse que ya en el s. XVIII, hubo una fuerte corriente de
pensamiento que ligaba la salud individual o la felicidad a la salud de la sociedad y que en el
siglo XIX y primeras décadas del XX se ha operado un fuerte proceso de medicalización de
las relaciones y estatus sociales de los individuos. En realidad, la medicina siempre ha
ejercido un poder normalizador o de control social -básicamente por los conceptos de salud
y enfermedad, normal y patológico- estableciendo un orden normativo rival de la religión y el
derecho, que ha venido incrementándose desde la modernidad con la conquista de un
auténtico estatuto científico, profesional y político. El auge de la bioética en las ultimas
décadas tiene como uno de sus elementos potenciadores la reacción contra el llamado
modelo médico hegemónico de la segunda mitad del siglo XX.
Una representación en tiempo de parodia de este proceso se encuentra en Knock o
el triunfo de la medicina, la pieza teatral de J. Romains publicada en 1923. Knock es un
estudiante crónico que por fin se acaba de graduar. Destinado al cantón de Saint Maurice,
logra en poco tiempo que una escasa clientela de campesinos atrasados y renuentes a
tomar servicios médicos se convierte en una población consumidora de medicina con un
gran sanatorio-hotel como principal atractivo y actividad económica de la región, todo ello
basado en una redefinición de los conceptos de salud y enfermedad. Unos fragmentos de la
obra pueden ser ilustrativos:
[Knock sostiene que] "Caer enfermo’, vieja noción ya insostenible frente a los datos de la
ciencia actual. La salud no es más que un nombre, al que no habría inconveniente
alguno en borrar de nuestro vocabulario. Por mi parte, no conozco sino gente más o
menos afectada por enfermedades más o menos numerosas, de evolución más o menos
rápida (...)"
En un diálogo con el doctor Parpalaid a quien reemplazó, Knock sostiene:
"doctor Parpalaid: ¿Pero no es que en vuestro método, el interés del enfermo está un
poco subordinado al interés del médico?
Knock: Dr. Parpalaid, no olvide que hay un interés superior a esos dos: aquél de la
medicina. Yo me ocupo sólo de ése (...) Usted me da un cantón poblado de algunos
miles de individuos neutros, indeterminados. Mi rol es determinarlos, llevarlos a la
existencia médica. Los meto en la cama y miro lo que va a poder salir de allí: un
tuberculoso, un neurópata, un arterioescleroso, lo que se quiera, pero alguien ¡Buen
Dios! ¡Alguien! Nada me disgusta más que ese ser ni carne ni pescado que usted llama
un hombre sano."
Un poco más adelante:
"Es un paisaje salvaje, apenas humano, aquél que usted contemplaba. Hoy se lo
restituyo todo impregnado de medicina, animado y recorrido por el fuego subterráneo de
nuestro arte (...) En doscientas cincuenta de esas casas hay doscientas cincuenta
habitaciones donde alguien confiesa la medicina, doscientas cincuenta camas donde un
cuerpo extendido testimonia que la vida tiene un sentido y, gracias a mí, un sentido
médico (...) Piense usted que, en algunos instantes, van a dar las diez, que para todos
mis enfermos las diez es la segunda toma de temperatura rectal, y que, en algunos
instantes, doscientos cincuenta termómetros van a penetrar a la vez (...)"
Pero volvamos un poco hacia atrás en el tiempo. Utopías tales como la de Condorcet
trazaron una analogía entre la eventual ejecución de una condición perfecta de salud
individual y la creación de una sociedad perfecta, prediciendo un tiempo en el cual la gente
se volvería tan saludable y longeva que la muerte, sostenía, se convertiría en un ‘curioso
accidente’. Como contraparte, los trabajos de Malthus sobre población tomaron un giro
decididamente diferente señalando que la analogía entre salud de un individuo y salud de la
sociedad podría ser demasiado ingenua. Malthus quiso mostrar que la salud y el vigor
natural en la procreación, antes bien, podrían ser una causa de males y enfermedades
sociales, produciendo un ‘aumento de la población’ limitado solamente por la miseria o el
vicio. Según Malthus el incremento en los alimentos se producía según una razón aritmética,
mientras que el incremento de población lo hacía en una razón exponencial si no se le
ponían límites, por lo cual el efecto de la salud humana con su consecuente aumento de la
tasa de reproducción, llevaría a la pobreza, el hambre y la miseria.
2.2.1 los organicistas
Th. Carlyle (1795-1881) obsesionado con las comparaciones organicistas y
preocupado por la situación de Inglaterra, a la que consideraba ‘impotente sobre su lecho de
enfermo’, sostiene en su Sartor Resartus (1833-1834), una especie de autobiografía en la
cual realiza una fuerte crítica a su época:
“Si el gobierno es la PIEL exterior del cuerpo político, manteniéndolo totalmente unido y
protegido; y todos sus Asociaciones de Trabajadores y de Industrias, (...) los tejidos
óseos y musculares (ubicados bajo esa PIEL), por medio de los cuales la sociedad
permanece y trabaja; entonces la religión es el íntimo tejido Nervioso y Pericardial, que
administra la Vida y la animada circulación para la totalidad. Que sin este Tejido
Pericardial, los Huesos y Músculos (de la Industria) sería inerte, o animado sólo por una
vitalidad galvánica; la PIEL se volvería un pellejo arrugado, o un cuero rápidamente
corrompido; y la sociedad en sí misma una cáscara muerta, - digna de ser enterrada”
(citado en Cohen, 1995, p. 22)
Otro pensador social del s. XIX que estaba obsesionado con las comparaciones
organicistas fue C. Bluntschli (1808-1881), un jurista suizo-alemán, nacionalista, que
permaneció unos años como profesor en Heidelberg. Publicó un valioso Código de Derecho
Internacional, probablemente su mayor trabajo teórico fue The theory of the state (18511852) y un libro titulado Psycological investigations concerning state and church (1844).
Según Bluntschli:
“El Estado no es de ninguna manera un instrumento inanimado, una máquina muerta,
sino un ser vivo y por tanto un ser orgánico (...) No se encuentra en el mismo nivel de los
organismos inferiores como las plantas y los animales, sino que es de especie superior
(...) Por tanto, cuando decimos que el Estado es un organismo no pensamos en la
actividad de los seres naturales que sólo buscan, obtienen, y asimilan alimentos, y se
reproducen” (Citado en Cohen, 1995, p. 22)
Profundamente influenciado por el psicólogo-místico F. Rohmer, Bluntschli dotó al
Estado con las dieciséis funciones psicológicas que, según creía, caracterizaban a los seres
humanos. Convencido de que tanto el Estado como la iglesia son organismos similares a los
seres humanos, Bluntschli concluyó lógicamente que ambos deben tener todos los atributos
primarios humanos, incluyendo características sexuales en cuyo contexto, el Estado
representa ‘lo masculino’ y la iglesia el elemento ‘femenino’. Esta atribución de sexo lo
conduce a una teoría de la historia, basada sobre el desarrollo sexual-social, en el cual la
‘evolución’ histórica de la sociedad y del Estado siguen los patrones de ‘evolución’ de los
individuos. Trazando la historia sexual de la iglesia y del Estado desde la infancia (el antiguo
imperio asiático) a través de la adolescencia (los judíos de los tiempos bíblicos) la madurez
temprana (la Grecia clásica), él encontró que en Grecia la ‘organización eclesiástica’ maduró
más temprano ‘que la institución política’, lo cual, según su modo de ver, no hacia sino
repetir los ciclos más tempranos de maduración de los órganos sexuales de las niñas con
relación a los del niño varón. La actitud de Bluntschli, algo extravagante por cierto, lo lleva a
afirmar que el deseo papal de subordinar el Estado a la iglesia es tan ‘antinatural’ como ‘la
subordinación de un marido a su esposa en el hogar. Avizoró un tiempo, no demasiado
lejano en el cual prevalecerá lo masculino, cuando “los dos más grandes poderes de la
humanidad, Estado e iglesia, se apreciarán y amarán el uno al otro, y el augusto matrimonio
de ambos tendrá lugar”.
Otra formulación organicista de la sociedad es la que propone el sociólogo ruso
Lilienfeld (1829-1903), en ocasión de comparar el estado moral e intelectual de una mujer
histérica con ciertas condiciones de la sociedad. Como fundamento psicológico de tal
semejanza, usó en particular los descubrimientos del Dr. E. Dupouy (ca. 1845-1920), autor
de numerosos trabajos sobre medicina, psicología e historia de la medicina. Citándolo,
Lilienfeld describió la condición de las mujeres que sufren de histeria como ‘inconstantes en
sus sentimientos’, y ‘pasan muy fácilmente de las lágrimas a la risa, de la excesiva alegría a
la tristeza, de la apasionada ternura a una furiosa soberbia, de la castidad a los propósitos
lascivos e ideas lujuriosas’. Además, tales mujeres, aman la publicidad, y emplean cualquier
medio para obtener su objetivo: denuncia, simulación de dolencias o enfermedades, y el
revólver. Encuentran regocijo pretendiendo ser ‘víctimas de cualquier cosa; dicen haber sido
violadas’. Para ‘conseguir sus metas engañan a todos: marido, familia, confesor, magistrado
examinante, y su doctor’. Comienza preguntando retóricamente si la conducta sintomática
de las mujeres que sufren de histeria no es ‘perfectamente análoga a la manera en que la
población de una gran ciudad se conduce durante una crisis financiera o en ocasión de
disturbios civiles’. Encuentra en la conducta de tales mujeres ‘un fiel reflejo de la agitación
de los partidos durante las elecciones’. Y se pregunta si cuando consideramos el pasado, no
encontramos el mismo desordenado y confuso patrón de conducta, ‘causado por
convulsivos y contradictorios reflejos del sistema nervioso social’, durante ‘todas las
revoluciones religiosas, económicas y políticas que han sacudido a la humanidad.
A fines del s. XIX prevalecía una línea de pensamiento muy vigorosa sobre lo social,
basada en un paralelo exacto con las ciencias de la vida y, aunque es discutible cuáles
fueron las razones de esta situación, lo cierto es que no puede desconocerse que la idea de
que las conductas humanas, sea tomadas individual o socialmente, debían tener algún
fundamento biológico en un sentido relevante, era generalizada. Muchos sociólogos estaban
convencidos, en paralelo con las enseñanzas de A. Comte, de que, dado que la sociología
entiende en la conducta humana, debe ser una ciencia muy cercana, o muy parecida a la
biología. Por otra parte las ciencias de la vida habían conseguido logros sumamente
importantes. La segunda mitad del siglo XIX asistió a desarrollos como la teoría celular y la
teoría de la evolución además de la embriología, fisiología y morfología que transformaron
completamente el campo. La nueva ciencia de la microbiología no solamente había abierto
un excitante nuevo reino de la biología sino que proveyó a la medicina con un conocimiento
de las causas de las enfermedades contagiosas y aun mostró los modos de prevenirlas o
curar algunas de ellas. En contraste los físicos parecían solamente realizar mediciones más
exactas de las constantes de la naturaleza. Este punto de vista fue expresado
dramáticamente por el economista A. Marshall en su ‘Conferencia Inaugural’ en la
Universidad de Cambridge en 1885. “A comienzos del s. XIX,- dijo- el grupo de ciencias
físico matemáticas estaba en ascenso”. Pero ahora “las especulaciones de la biología han
pasado al frente”. Los descubrimientos en biología, continuó, ahora atraen “la atención de
todos los hombres como la física lo había hecho en los primeros años”. El resultado fue que
las “ciencias morales e históricas de hoy han (...) cambiado su tono, y la economía ha
participado en el movimiento general”. Los físicos de la segunda mitad del siglo XIX, es decir
antes de la cuántica y de la relatividad- estaban convencidos que su disciplina estaba, en lo
fundamental, concluida.
La mayoría de los organicistas, entonces, forman un linaje que viene desde Comte,
quien hizo un uso extensivo de la metáfora organicista, apoyándose fuertemente sobre la
fisiología y la patología. De hecho fue el primero que sostuvo que una ciencia social debe
estar apoyada en la biología. En su Curso de Filosofía Positiva sostiene, claramente, que los
disturbios sociales debían ser considerados como casos patológicos, siendo, “en el cuerpo
social, exactamente análogos de las enfermedades en el organismo individual”. Comte
pensaba que en el desarrollo de la ciencia biológica, “los casos patológicos son el verdadero
equivalente de la experimentación pura”, de lo que puede seguirse que el estudio de la
patología social proporcionaría el equivalente del experimento social, algo que sabía que no
podía ocurrir nunca en el mismo grado y tipo que en la física o la química.
Comte utilizó las ideas de Broussais, uno de los grandes reformadores de la
medicina y su Sistema de política positiva, -1851/1854- se refirió al “(...) admirable axioma
de Broussais” que “destruye la antigua distinción absoluta entre salud y enfermedad”. Entre
esos límites extremos, agregó, “podemos siempre encontrar multitud de estados
intermedios, no meramente imaginarios, sino perfectamente reales, y juntos forman una casi
insensible cadena de gradaciones delicadas”.
Comte tomó de Broussais la idea de que la patología, “el estudio de la enfermedad,
es la vía para comprender el estado de salud”. Primariamente fue su “principio de
continuidad” el que guío el análisis de Comte: “que el fenómeno del estado patológico era
una simple prolongación del fenómeno del estado normal, más allá de los límites ordinarios
de variación”. Según Comte, hasta ese momento, nadie había marcado la analogía entre la
patología fisiológica y social, nadie había nunca aplicado “este principio para los fenómenos
intelectual y moral -o sea social-.”
El citólogo estadounidense E. B. Wilson sostuvo en 1896 que la teoría celular era la
segunda gran generalización hecha en biología (la teoría darwiniana de la evolución había
sido la primera). Esta teoría celular ha tenido gran repercusión en la teoría social porque el
concepto de un organismo natural como un sistema organizado de células vivas proveyó de
una nueva fundamentación científica para una concepción organicista de la sociedad; la
relación todo-parte observada en los seres vivos proveía de una buena metáfora para lo
social, ya que las células parecen asemejarse a los miembros individuales de la sociedad
humana en la medida en que cada célula tiene una vida propia, además de constituir un
grupo mayor cuando están juntas. Además, las células de los seres vivientes se organizan
según el principio de la división fisiológica del trabajo, dado que cada tipo de célula tiene una
estructura especialmente adaptada para su función dentro del organismo. Este principio se
convirtió en central para el pensamiento biológico de Milne Edwards y otros, y de ellos pasó
a través de diversas mediaciones a teóricos de la sociedad como Durkheim, quien lo utilizó
en su tesis doctoral. Por otro lado, las células se agrupan en unidades funcionales mayores tejidos y órganos- tal como los individuos humanos están organizados en distintos tipos de
unidades sociales. Aun la distribución o circulación de alimentos y la descarga de productos
de desecho se podría ver analógicamente en los cuerpos naturales compuestos de células y
en los cuerpos sociales compuestos de humanos.
La significación de la teoría celular para la ciencia de la sociedad fue reforzada por
los descubrimientos embriológicos de K. E. von Baer (1792-1876) y sus sucesores. El
reconocimiento de los estados de desarrollo del embrión por división celular desde una
única célula, y la subsecuente elaboración de órganos y tejidos, sugirió una secuencia
similar de la organización social, a partir de una única madre -como la célula original- y, por
subsecuente multiplicación, acompañada por la agrupación de individuos- similar a la
agrupación de células-, formando unidades familiares, luego tribus, y eventualmente países.
De especial importancia para los científicos sociales fue el principio de von Baer, que
establece la forma de desarrollo como una secuencia caracterizada por una transición desde
la simplicidad a una complejidad cada vez mayor. Esto fue similar a descubrir que los
animales vivientes y extintos podrían ser ordenados en una escala ascendente de desarrollo
en la cual habría un incremento gradual de complejidad. En su forma más completa, esto
resulta incluido en la famosa ‘ley biogenética’, formulada por Haeckel (1834-1919), en 1866,
a partir de investigaciones debidas a F. Müller (por eso se la conoce también como ley de
Haeckel o ley de Müller y Haeckel), e inspiradas en los trabajos de von Baer, según la cual
“la ontogenia es una recapitulación de la filogenia”. Esta tesis sostiene, pues, que las fases
sucesivas del desarrollo de un organismo en su estado embrionario son como un resumen
acelerado de los sucesivos estados que han sido alcanzados por el grupo biológico al que
pertenece a través del curso de su evolución. Por ello, el embrión de un animal se parece
más a un animal adulto de una especie inferior que a un adulto de su propia especie, y su
desarrollo individual es un resumen del desarrollo evolutivo de la especie. Esta ley, surgida
de las observaciones embriológicas, permitía explicar la existencia de órganos transitorios
en los embriones, tales como las hendiduras branquiales en los embriones humanos -como
si se tratase de peces-, o de esbozos de dientes en los embriones de las ballenas que, sin
alcanzar su desarrollo y sin tener función alguna desaparecen, como si recordasen la
existencia de dientes en los precursores evolutivos de estos cetáceos.
Un aspecto de la teoría celular que tuvo una especial importancia para la sociología
organicista del s. XIX, y especialmente para la consideración de analogías sociales de la
teoría celular, fue introducido por la idea de Virchow de la patología celular (1858), según la
cual todas las condiciones patológicas del cuerpo humano se podrían atribuir a un estado de
degeneración o a una condición de actividad anormal de una o varias células constituidas
individualmente. Así Virchow transformó el pensamiento sobre el cuerpo como un todo a un
pensamiento sobre las condiciones de las unidades biológicas fundamentales de las cuales
el cuerpo está compuesto. Una importante consecuencia del punto de vista de Virchow fue
que las condiciones patológicas fueron vistas meramente como extremos de lo normal
antes que de una clase diferente. En el presente contexto sus ideas son especialmente
interesantes también porque los biólogos forzaron las similitudes entre los fenómenos
biológicos y los sociales. Según Virchow:
“(...) así como un árbol constituye una masa ordenada de una manera determinada, en la
cual, en todas sus partes simples, en las hojas como en las raíces, en el tronco como en
las flores, las células son sus elementos últimos, también es así con las formas de vida
animal. Todo animal es en sí mismo una suma de unidades vitales, todas las cuales
presentan todas las características de la vida. Las características y unidad de la vida no
pueden ser limitadas a cualquier sector particular en un organismo altamente
desarrollado -por ejemplo en el cerebro de un hombre- pero se puede encontrar en la
estructura definida, constantemente repetida que todos los elementos individuales
despliegan. De ello se sigue que la composición estructural de un cuerpo de
dimensiones considerables, (...), siempre representa una clase especial de ordenamiento
social de sus partes, un ordenamiento de un tipo social, en el cual una cantidad de
existencias individuales son mutuamente dependientes, pero en tal sentido que todo
elemento tiene su acción especial propia (...) (citado en Cohen, 1995, p. 53)
Creyendo que todas las plantas y animales son agregados de células como unidad
fundamental de vida, Virchow concluyó que todas las propiedades estructurales y
funcionales de los organismos están determinadas por relaciones entre células individuales.
Según Virchow todo organismo:
“(...) es un estado libre de individuos con iguales derechos aunque no con iguales
dotaciones, que permanecen juntos porque los individuos son dependientes uno de otro
y porque hay ciertos centros de organización con cuyos integrantes las partes simples no
pueden recibir su provisión necesaria de materia nutriente sana” (citado en Cohen, 1995,
p. 53)
Virchow, a su vez, proporcionó un modelo directo para científicos sociales
tales como Lilienfeld y Schäffle (1831-1903). Lilienfeld sostiene que la sociedad
humana, al igual que los organismos naturales, es un ser real, nada más que una
continuación de la naturaleza, una alta expresión de las mismas fuerzas que
subyacen a todo fenómeno natural. La sociedad no es sino una continuación de la
naturaleza, una continuación más alta de las mismas fuerzas que están en la base
de todos los fenómenos naturales, el más elevado y más desarrollado de todos los
organismos. Aunque reconocía que también hay diferencias importantes entre los
organismos y las sociedades, LiIienfeld señalaba muchas analogías con sumo
detalle. Las células del organismo corresponden a los individuos de la sociedad, los
tejidos a los grupos voluntarios más sencillos, los órganos a las organizaciones más
complejas, la sustancia intercelular al medio físico, que incluye hasta los alambres
del telégrafo. Las actividades económicas, jurídicas y policiales son paralelas a los
aspectos fisiológicos, morfológicos y unitarios de un organismo. La mercancía en
circulación equivale al alimento no asimilado. Las razas conquistadoras son
masculinas, las conquistadas son femeninas; su lucha equivale a la lucha de los
espermatozoides en torno del huevo. Las personas que pasan de una sociedad a
otra son análogas a los leucocitos. En la sociedad -sostiene- se encuentra uno
exactamente con las mismas estructuras, órganos y funciones que en los demás
organismos. Así se llega, pues, a la conclusión de que la sociología no puede
constituirse si no es sobre la base de la biología. En su Social pathology, señalando
que la condición sine qua non para que el estudio de la sociedad pueda ser
verdaderamente científico, es decir convertirse en una ciencia positiva es la
concepción de la sociedad humana como un organismo vivo real, compuesto de
células como están los organismos individuales de la naturaleza.
Lilienfeld retomó las enseñanzas de Virchow sosteniendo que “no hay diferencia
absoluta y esencial entre el estado normal y el estado patológico de un organismo”. De
modo tal que en una “desviación del estado normal”:
“(...) una célula o un grupo de células manifiestan una actividad fuera del tiempo
necesario, fuera del lugar necesario, o fuera de los limites de excitación prescrita por el
estado normal. (...)
“Como toda enfermedad individual deriva de un estado patológico de la célula, asimismo
toda enfermedad social tiene su causa en una degeneración o acción anormal del
individuo que constituye la unidad anatómica elemental del organismo social. Asimismo,
una sociedad atacada por la enfermedad no presenta un estado esencialmente diferente
que el de una sociedad normal. El estado patológico consiste sólo en la manifestación
por un individuo o grupo de individuos de una actividad que es extemporánea o fuera de
lugar o indica sobreexcitación o falta de energía”. (citado en Cohen, 1995, p. 43)
Lilienfeld sostenía, además que las conexiones entre los organismos vivientes y la
sociedad podían llevarse aun más lejos: “(...) la naturaleza orgánica en sí misma presenta
tres grados de desarrollo y perfección”. El primero es que las plantas no pueden moverse
autónomamente, ya sea juntas como una totalidad o separadas como partes. El segundo:
los animales pueden moverse libremente, pero sólo como individuos, esto es como partes.
Tercero, un “conjunto social” pude moverse libremente tanto como totalidad como en sus
partes. Así, “es solamente en la sociedad humana que la naturaleza realiza en su totalidad
el más alto grado de la vida orgánica: la autonomía del mismo organismo individual en las
partes y en el todo”.
El economista alemán Schäffle expuso una teoría organicista algo más moderada.
Sus principales obras en el campo de la sociología son The structure and life of the social
body (1875-78), en cuatro volúmenes, y Bosquejo de sociología (póstuma, 1906). Reconocía
que sus opiniones habían sido influidas de manera importante por Comte, Spencer y
Lilienfeld. El subtítulo del primero de esos textos expresa inequívocamente su punto de
vista, se trata de “bosquejo enciclopédico de la anatomía real, la fisiología y psicología de la
sociedad humana” en el cual la “economía nacional es considerada como el proceso social
de la digestión”. Schäffle sabía que la correspondencia entre la sociedad humana y los
cuerpos animales es imperfecta dado que los vínculos entre los humanos derivan de la
mente y no son físicos. “Ninguna ocupación ininterrumpida del espacio” escribió, es
observada en la sustancia de la sociedad, en contraste con el “cuerpo orgánico”, en el cual
“las células y las partes intercelulares forman un objeto sólido”. Esto es, en el cuerpo social
no hay fuerzas físicas tales como “cohesión, adhesión o afinidad química” para “efectuar la
coherencia y la coordinación”, sino que antes bien hay ‘fuerzas mentales’ que establecen
“conexiones espirituales y corporales y cooperación entre elementos separados
espacialmente”.
Schäffle utiliza una gran cantidad de analogías organicistas: los edificios y las
carreteras son el esqueleto del cuerpo social; las mercancías acumuladas son la substancia
intercelular; la economía es la nutrición; el cambio de mercancías y de personas es la
locomoción; el equipo técnico es el sistema muscular; los símbolos y las comunicaciones
son el funcionamiento del sistema nervioso; la minería, la colonización y la propaganda
corresponden a la autoafirmación y el crecimiento del organismo. Igual que Lilienfeld,
Schäffle entendió que la unidad fundamental de la sociedad debe ser equivalente a la célula
biológica: “los elementos más simples de los cuerpos de las especies superiores de
animales y plantas” son “las células y la sustancia intercelular entremezclada entre ellas”.
Concluyó que “la familia tiene todos los rasgos de los tejidos”, que “todo rasgo fundamental
de la estructura y función de la célula orgánica se repite allí”. Sostuvo, además, que “en
todos los órganos sociales” hay un “tejido que regula el ingreso y flujo de los materiales de
regeneración y nutrición de y hacia los canales de producción económica y circulación y
asegura una digestión normal sobre la parte de todos los elementos del órgano o partes
orgánicas involucradas”. Este “tejido” o institución social es “el hogar”. Encontró un paralelo
perfecto entre los procesos vegetales y animales de la digestión y los procesos de
producción en las sociedades humanas, aun al punto de creer que “la evacuación de
cadáveres humanos y desechos materiales es el punto final de la digestión social externa”.
Otro representante del pensamiento organicista fue A. Fouillée (1838-1912) quien
encuentra entre las sociedades y los organismos analogías que se parecen mucho más a
las señaladas por Spencer (ver más abajo), pero con una diferencia fundamental: la unidad
de una sociedad depende primordialmente de la buena voluntad de los individuos que la
componen para compartir las necesidades colectivas. No puede haber sociedad sin un
acuerdo interno entre los individuos, sin la representación del todo a que los individuos
pertenecen. Entre los miembros de una sociedad existe un contrato implícito, y este contrato
se manifiesta en la conducta humana.
Una forma un tanto extrema de organicismo aparece en la obra del francés R.
Worms (1869-1920). En su Organismo y sociedad, de 1896, concibe la sociedad como un
agregado duradero de seres vivos que ejercitan en común todas sus actividades. Enumera
cuatro analogías entre las sociedades y los organismos: las estructuras externas varían con
el tiempo y presentan formas irregulares; las estructuras internas experimentan un cambio
constante mediante el proceso de asimilación-desintegración; existe una diferenciación
coordinada entre las partes; tanto los organismos como las sociedades se reproducen a sí
mismos. Puesto que la analogía orgánica es profunda y estrecha, las concepciones
sociológicas deben desenvolverse bajo los mismos pautas y criterios que las biológicas. Si
bien reconoce que la sociedad es no sólo más plástica y más apta para reemplazar las
pérdidas de miembros que los organismos, sino también más compleja –es en verdad un
superorganismo- tales diferencias no resultan lo suficientemente sustanciales como para
desechar el punto de vista organicista para el análisis social.
El fisiólogo estadounidense W. Cannon (1871-1945), en su primer ensayo en
sociología biológica publicado en 1932, y titulado ‘Relaciones de la homeostasis biológica y
social’, investiga la posibilidad de encontrar equivalentes de los ‘procesos de estabilización’
en organismos animales, en ‘formas de organización industrial, domestica o social’. A la
manera de Spencer y otros organicistas del s. XIX, Cannon comparó las circunstancias de
los pequeños grupos de humanos viviendo en “condiciones primitivas” con la “vida de
simples células aisladas”, y las agrupaciones de “seres humanos (...) en grandes grupos con
las células ‘agrupadas para formar organismos”. Sólo en organismos altamente
desarrollados, sostuvo, los “procesos automáticos de estabilización” trabajan “pronta y
efectivamente”. La comparación pretendía mostrar que el sistema social actual, se
asemejaba a los organismos que se encuentran más bajo en la escala evolutiva u
organismos que no se han desarrollado totalmente, cuyos “recursos fisiológicos que
preservan la homeostasis están al principio no totalmente desarrollados”.
En diciembre de 1941, Cannon volvió sobre este tema en su alocución presidencial
para la American Asociation for Development of Science. Se retractó de sus primeras
afirmaciones sobre similitudes entre las células y los miembros humanos de la sociedad, y
sostuvo que la comparación del cuerpo fisiológico con el cuerpo político había sido
desacreditada en el pasado porque se había concentrado erróneamente sobre detalles
mínimos de la estructura y criticó a los que realizan homologías absurdas. Descartó que
fuera acertada “la comparación de trabajadores manuales con las células musculares,
manufactureros con las células glandulares, banqueros con las células gordas, y la policía
con los glóbulos blancos”. Sin embargo, su respuesta fue esencialmente la misma que
antes: “La analogía más ajustada parece ser la de la totalidad del intrincado sistema de
producción y distribución de mercaderías”.
2.2.2 los evolucionistas
Concepciones evolucionistas de lo social pueden rastrearse hasta la antigüedad
aunque, obviamente la diferencia recae sobre el contenido del concepto de evolución,
multívoco por cierto tanto diacrónica como sincrónicamente. No obstante, el sentido de
‘evolución’ que más me interesa rescatar es aquel que se encuentra ligado a la premisa del
progreso, estigma de la modernidad que en el siglo XIX cobra una fuerza inusitada y
omnipresente y que incluye también, aunque con vínculos bastante complejos, la idea de
evolución biológica.
Autores clásicos como Hegel, Comte y Marx, por señalar a los más importantes, se
expresan inequívocamente en un sentido evolucionista general.
"El principio de desarrollo supone también la existencia de un germen latente del seruna capacidad o potencialidad- que lucha por realizarse. Esta concepción formal
encuentra existencia efectiva en el espíritu, que tiene la historia del mundo como teatro
propia, posesión privativa y esfera de su realización. No es propio de su naturaleza el
agitarse de aquí para allá entre el juego superficial de accidentes, sino que es
propiamente el árbitro absoluto de las cosas, completamente inconmovible a las
contingencias que, por cierto, aplica y manipula para sus propios fines". (Hegel)
"El verdadero espíritu general de la dinámica social consiste, pues, en concebir cada uno
de los estados sociales como resultado necesario del precedente, y el móvil
indispensable del siguiente, de conformidad con el axioma de Leibniz: el presente está
preñado de futuro. En este aspecto, el objeto de la ciencia es descubrir las leyes que
gobiernan esta continuidad" (Comte)
"Ningún orden social desaparece antes de que se hayan desarrollado todas las fuerzas
productivas que puede albergar, y las nuevas y superiores relaciones de producción
jamás aparecen antes de que las condiciones materiales de su existencia hayan
madurado en el seno de la vieja sociedad" (Marx)
No obstante, probablemente ningún nombre esté más asociado que el de H. Spencer
a la utilización del evolucionismo en el siglo XIX como modelo explicativo para las diversas
áreas del comportamiento de las sociedades. La base de la teoría sociológica de Spencer es
la evolución en sentido metafísico, pero también y paralelamente formuló una teoría
secundaria que representó un papel importante en su sistema de ideas: la analogía
orgánica, es decir, la identificación, para ciertos fines, de la sociedad con un organismo
biológico. Spencer sostuvo explícitamente en la edición revisada de su Social Statics (1892)
que el reconocimiento del paralelismo entre las generalizaciones relativas a los organismos
y las relativas a las sociedades era el primer paso hacia la teoría general de la evolución. La
sociología llegaría a ser ciencia únicamente cuando advirtiera que las transformaciones
experimentadas durante el crecimiento, la madurez y la decadencia de una sociedad se
conforman a los mismos principios que las transformaciones experimentadas por agregados
de todos los órdenes, inorgánicos y orgánicos. Existían para Spencer profundas y diversas
analogías entre los organismos biológicos y sociales:
Primero, tanto la sociedad como los organismos se diferencian de la materia
inorgánica por un crecimiento visible durante la mayor parte de su existencia. Un niño crece
hasta llegar a ser hombre, una pequeña comunidad se convierte en una gran ciudad, un
pequeño Estado se convierte en un imperio. Segundo, así como las sociedades y los
organismos crecen de tamaño, también aumentan en complejidad y estructura. Aquí tenía
presente Spencer no tanto la comparación del desarrollo de una sociedad con el crecimiento
de un organismo individual sino la afinidad del desarrollo social con la supuesta sucesión
evolutiva de la vida orgánica. Los organismos primitivos son simples, mientras que los
organismos superiores son muy complejos. Tercero, en las sociedades y en los organismos
la diferenciación progresiva de estructura va acompañada de una diferenciación progresiva
de funciones. Esto es poco más que una tautología: si hay un organismo con órganos
complejos, cada órgano desempeña una función especifica; si hay una sociedad subdividida
en muchas organizaciones diferentes, éstas tienen funciones diferentes. Cuarto, la evolución
crea para las sociedades y para los organismos diferencias de estructura y de función que
se hacen posibles unas a otras. Quinto, así como un organismo vivo puede ser considerado
como una nación de unidades que viven individualmente, así una nación de seres humanos
puede ser considerada como un organismo. Spencer siguió esta línea peculiar de
razonamiento hasta llegar a una nueva analogía: en los organismos y en la sociedad puede
ser destruida la vida del agregado o conjunto, pero las unidades seguirán viviendo durante
algún tiempo por lo menos.
Spencer era un individualista, rasgo que puede entrar en tensión con el organicismo,
y admitía diferencias importantes entre las sociedades y los organismos. La primera de ellas
es que en un organismo las partes forman un todo concreto, y en una sociedad las partes
son libres y están más o menos dispersas. La segunda es que en un organismo la
conciencia se concentra en una pequeña parte del agregado, y en una sociedad está
difundida por todos los miembros individuales. Y la tercera es que en un organismo las
partes existen para beneficio del todo, y en una sociedad el todo existe meramente para
beneficio del individuo. A pesar de este complicado esfuerzo para establecer las analogías y
las diferencias entre la vida orgánica y la social, y no obstante el empleo de la analogía
orgánica como tema central de la segunda parte de sus Principles of Sociology (1876),
Spencer negaba que sustentara esta teoría. Contestando a los críticos, hacía afirmaciones
como la siguiente:
"He usado las analogías, pero sólo como un andamio que me ayudara a construir un
cuerpo coherente de inducción sociológica. Quitemos el andamiaje: las inducciones se
sostendrán por sí mismas" (citado en Cohen, 1995, p. 24)
Aunque, en verdad su uso de la terminología del organicismo, consecuente y notoria,
es mucho más que un expediente heurístico. Un capítulo de los Principles of Sociology se
titula "La sociedad es un organismo". Desde luego que no fue Spencer el creador de la
analogía orgánica. La emplearon algunos filósofos antiguos, y con frecuencia estuvo
también representada en la filosofía y en la ciencia política alemanas, especialmente
durante la primera mitad del siglo XIX. Pero Spencer fue el primero en dar a esa analogía el
valor de una teoría científica, y en definitiva fue prisionero del mismo fantasma a quien había
invocado. Comprendía que realmente la sociedad no es un organismo, puesto que había
diferencias esenciales entre ambas cosas, y sin embargo persistió en la metáfora o
analogía. Decía que la analogía era un mero andamiaje, pero al construir su teoría procedió
como si el andamiaje fuera la verdadera construcción.
Pero el verdadero sostén de la teoría spenceriana es su teoría de la evolución, que
se encuentra principalmente en versiones revisadas de Los primeros principios y Social
Statics . En un párrafo bastante oscuro describe su ley de la evolución:
“La evolución es una integración de la materia y una disipación concomitante de
movimiento, durante las cuales la materia pasa de la homogeneidad indefinida e
incoherente a una heterogeneidad definida y coherente, y el movimiento que subsiste
sufre una transformación paralela”.
Básicamente expresa la tendencia de lo homogéneo o uniforme a hacerse
heterogéneo o multiforme, considerando que se trata de una tendencia necesaria del
universo en su conjunto y en todos sus sistemas, tanto en los sistemas celestes
como en los organismos y las sociedades. Esa ley de la evolución expresa, en
versión sintetizada, tres leyes y cuatro proposiciones secundarias sobre el
comportamiento de la realidad, algunas de ellas tomadas de la física de su tiempo.
Las tres leyes son: la de la persistencia de la fuerza – que reconoce la existencia y
persistencia de una causa última que trasciende al conocimiento humano-; la ley de
la indestructibilidad de la materia – vigente a mediados del siglo XIX pero no hoy-; y
la ley de la continuidad del movimiento –la energía pasa de una forma a otra, pero
perdura siempre. Con respecto a las proposiciones secundarias: la persistencia de la
relación entre las fuerzas o la uniformidad de la ley; la transformación y equivalencia
de las fuerzas; la tendencia de todas las cosas a moverse siguiendo la línea de
menor resistencia y de mayor atracción; el principio de la alternación o ritmo del
movimiento.
Puede decirse que Spencer ha sido un apóstol de la evolución con progreso
aunque a lo largo de su obra puedan detectarse afirmaciones algo ambiguas o
directamente contrarias a esta idea. Probablemente el espíritu de la época ha
prevalecido e incluso el mismo Darwin que hace un esfuerzo por anular la idea de
progreso en el mundo de lo viviente expresa cierta ambigüedad para el caso de la
especie humana. La idea dominante, entonces, en la obra de Spencer es que a
través de los tiempos ha habido realmente evolución social y que la misma se ha
dirigido de lo uniforme a lo multiforme, es decir mediante formas progresivas.
Un caso interesante en el cual se conjugan dos metáforas es el de Durkheim, con
sus conceptos de solidaridad mecánica y orgánica, en los cuales reaparece de algún modo
la distinción entre lo homogéneo y lo heterogéneo planteada por Spencer, aunque el objetivo
de Durkheim no fuera dar cuenta de la evolución. Esta cuestión es abordada en su tesis de
doctorado De la división du travail social de1893, en la cual estudia las relaciones que
vinculan al individuo con la sociedad. En la sociedad arcaica, donde existe una solidaridad
mecánica, las relaciones se establecen entre individuos indiferenciados, con una fuerte
presencia de la “conciencia colectiva”, esto es la suma total de creencias y sentimientos
comunes al término medio de los individuos. Esta conciencia colectiva, que obviamente vive
y permanece en los individuos, en la medida en que es producto de las similitudes humanas
adquiere fuerza e independencia mayores cuanto más pronunciadas son las analogías entre
los individuos de la sociedad. Por eso es una situación que prevalece en las sociedades
arcaicas con solidaridad mecánica. Allí la conciencia individual es cubierta casi por completo
por la colectiva y en estas condiciones hay reacciones drásticas contra las violaciones de las
instituciones del grupo, expresadas en las leyes represivas, penales, que sirven para
conservar la solidaridad mecánica. En la sociedad moderna, que se caracteriza por la
división del trabajo y el desempeño de muchos roles diferenciados entre los individuos, con
lo que se rompe la uniformidad natural y se multiplican los intereses individuales, existe la
solidaridad orgánica. Tiende a disminuir la importancia de la conciencia colectiva y, así, el
derecho penal sostenido por sanciones represivas tiende a ser reemplazado por el derecho
civil y administrativo que exige la restitución de justicia más que el castigo por sí mismo. Las
sociedades avanzadas que se distinguen cada vez más por la solidaridad orgánica,
representan el progreso moral que destaca los valores superiores de la igualdad, la
fraternidad y la justicia.
El evolucionismo constituyó un clima de ideas que influyó no solamente
en las teorías estrictamente sociológicas, es decir en los estudios de la
estructura y funcionamiento de la sociedad contemporánea, sino también en
los estudios de las culturas pasadas y
sobre todo en la relación
contemporánea entre las distintas culturas. El antropólogo L. W. Morgan (18181881) formuló una teoría de la evolución social que subrayaba la importancia
de los factores tecnológicos en la sociedad y sus cambios. Morgan creía en la
existencia de etapas evolutivas definidas por las que han de pasar los
hombres en todas las culturas. Sostenía que la humanidad había pasado por
periodos análogos porque las necesidades humanas en circunstancias
análogas han sido las mismas así como el funcionamiento de la mente es
uniforme a través de las diferentes sociedades humanas. Ha tenido cierta
influencia su periodización del avance cultural en tres etapas: salvajismo,
barbarie y civilización. Las dos primeras a su vez estaban subdivididas en tres
subetapas y todo pasaje de una a otra se debía a algún invento tecnológico
importante.
En el mismo sentido se expresaba otro antropólogo, E. Tylor:
"(...) la tesis que me atrevo a defender- dentro de unos límites- es simplemente esta: que
el estado salvaje representa en cierta medida una condición primitiva de la humanidad,
de la que se ha desarrollado o evolucionado gradualmente la cultura superior, mediante
procesos que siguen funcionando regularmente lo mismo que antaño (...) Que la
tendencia de la cultura ha sido similar a lo largo de la existencia de la sociedad humana,
y que podemos juzgar justamente con base en su curso histórico conocido cuál puede
haber sido su curso prehistórico, es una teoría que goza claramente de derecho de
prioridad como principio fundamental de la investigación etnográfica" (citado en
Timasheff, 1977, p. 71)
El evolucionismo también ha ejercido una enorme influencia en la economía aunque
lo ha hecho de formas sumamente dispares y diferentes. Hace un siglo, Th. Veblen (18571929) hablaba de una economía evolucionista y post-darwiniana. Los institucionalistas en
la tradición de Veblen y J. Commons frecuentemente describen su enfoque como
economía evolucionista, y utilizan los términos institucional y evolucionista como sinónimos.
Veblen intentó mostrar que las relaciones sociales y la cultura humanas se encuentran
moldeadas por la tecnología y por lo tanto, sobre el fondo común de instintos constantes se
produce una variación proporcionada por el medio material en que cada individuo se
encuentra. La evolución de la sociedad es, en este sentido un proceso de adaptación mental
de los individuos bajo la presión de circunstancias en las cuales los hábitos formados
anteriormente se revelan como inadecuados. La tendencia de los individuos es
conservadora y será más fácil en la medida en que haya más coerción del medio. Toda
clase social protegida contra la acción del medio adaptará más tardíamente sus opiniones a
las situaciones cambiantes y tenderá así a retardar la transformación de la sociedad. La
clase ociosa es precisamente ese sector retardatario de la transformación social. Puede
considerarse toda sociedad como un mecanismo industrial, cuyos elementos estructurales
son sus instituciones económicas. De ahí la apuesta epistemológica de Veblen:
"Una economía evolutiva debe ser (...) una teoría de la sucesión acumulativa de las
instituciones económicas formulada en los términos del propio proceso" (Veblen, 1965, p.
77)
Joseph Schumpeter, por su parte, describe el desarrollo capitalista como un proceso
evolucionista. Los trabajos influenciados por Schumpeter son también descriptos como
economía evolucionista, como es evidente por el título del Journal of Evolutionary
Economics, publicado por la Asociación Internacional Joseph Schumpeter. El enfoque de la
Escuela Austríaca de Economistas es descripto generalmente como evolucionista, como se
observa en la teoría de la evolución del dinero y otras instituciones de C. Menger, y por el
uso extensivo de la metáfora evolucionista de la biología en los trabajos de F. Hayek,
especialmente en relación al concepto de orden espontáneo. También los estudios de varios
autores como A. Smith, K. Marx, A. Marshall y otros son descriptos a veces como de
carácter evolucionista.
Sin embargo el uso de la denominación ‘economía evolucionista’, sin ser unívoca,
resulta algo más restringido y resurge durante la década de los ’80, concretamente a partir
de la publicación del libro de R. Nelson y S. Winter (1982): “Una teoría evolucionista del
cambio económico”. El evolucionismo actual en economía pretende dar cuenta,
fundamentalmente de la cuestión del cambio económico, no solamente de corto sino,
principalmente, de largo plazo y su enfoque está dirigido explícitamente a negar la confianza
en el análisis de equilibrio y el supuesto casi universal de comportamiento racional
optimizador66. La idea de racionalidad limitada es central para entender este proceso. La
idea principal es que las empresas se apegan a sus rutinas siempre que eso las lleve a
resultados satisfactorios. Una característica distintiva de la teoría evolucionista es que las
identidades de los agentes económicos están constituidas por las reglas que gobiernan su
comportamiento (Vromen 1997). Esa característica generalmente ha sido contrastada por
economistas evolucionistas con el supuesto neoclásico de que los agentes económicos no
tienen restricciones y tienen poderes ilimitados para responder de manera flexible y óptima
a los cambios en las circunstancias.
Inicialmente la economía evolucionista apuntaba a analizar el cambio tecnológico y la
innovación, campo al que luego se agregaron los estudios sobre las características y
comportamientos de las firmas y el papel de las instituciones, entendidas en un sentido
amplio, como limitantes a la vez que moldeadoras de los patrones de comportamiento de los
agentes económicos. Cabe señalar que los enfoques evolucionistas en economía son
variados, de modo tal que, en general se desconocerán aquí las diferencias y matices
existentes.
Para que el modelo evolucionista de la biología pueda ser extrapolado a cualquier
ámbito y en particular a la economía en este caso, debe poder detectar:
1. elementos de permanencia o herencia al estilo de los genes en biología: las rutinas de
conductas regulares y predecibles;
2. algún principio de variación o mutación: los comportamientos de búsqueda e innovación
que resultan fundamentales en momentos de presión selectiva; y
3. un mecanismo de selección que actúa sobre las variaciones: el ambiente en el cual
desarrollan su actividad los agentes económicos. De cualquier modo, y más allá de la
gran variedad de matices en los economistas evolucionistas, se apresuran en señalar las
limitaciones de la analogía con la evolución biológica:
“(...) 1) en economía la creación de una nueva variedad se orienta sistemáticamente
hacia sitios que parecen apropiados al contexto. Mientras que la mutación en el ámbito
genético es azarosa, frecuentemente la mutación económica es sujeto de cambios
intencionales; 2) la evolución biológica es darwinista- sólo las características genéticas
se transmiten- mientras que la evolución económica es lamarckiana (...) 3) los agentes
económicos pueden anticipar futuros estados del ambiente selectivo; 4) la selección
natural es independiente de las acciones de los organismos individuales. En cambio los
agentes económicos mejoran su habilidad para sobrevivir no sólo cambiando ellos
mismos, sino también modificando el ambiente -el mecanismo selectivo (Chang, 1994;
Mctcalfe, 1995; Nelson y Winter, 1982; Nelson, 1995).” (López, 1994, p. 95)
El evolucionismo en economía, a partir de su crítica a los modelos simplificadores
basados en el individualismo metodológico, la maximización de la utilidad y el equilibrio
general, comienza a tomar en consideración las organizaciones y los procesos como no
equilibrados, con desarrollos que se dan en procesos no predecibles, irreversibles y
estocásticos, para lo cual la metáfora de los seres vivos se adecua mucho más que los
modelos de la física tradicional. Así, se diferencia de la economía ortodoxa en varios puntos
cruciales. En primer lugar, que los individuos no siempre responden al objetivo de maximizar
66
Hay autores muy críticos hacia la economía evolucionista. Para Rosenberg (1994), por ejemplo, la
teoría darwiniana es un modelo, metáfora, inspiración o marco teórico inapropiado para la teoría
económica. La teoría de la selección natural comparte pocas de sus fortalezas y la mayoría de sus
debilidades con la teoría neoclásica. Además, para Rosenberg los términos de intercambio están
siempre en dirección desde la economía a la biología y no a la inversa. Rosenberg plantea
principalmente dos cuestiones críticas: el relativamente débil poder de predicción de la teoría
evolucionista y la imposibilidad, a su juicio de establecer una isomorfia entre biología y economía para
los estados de equilibrio/desequilibrio
su utilidad en forma inmediata y ni siquiera que la evaluación que éstos hacen sea siempre
enteramente racional; que los cambios son endógenos a los sistemas complejos, es decir
que los mercados e instituciones condicionan e influyen en los gustos y en la personalidad
de los individuos; que "las preferencias no sólo están en relación con el individuo, sino
también con relación a su prole (biológica y cultural)" (López García, S. y Valdaliso, J.,
1999). Según Dosi los modelos evolucionistas, en una caracterización básica:
“(...) se focalizan en las propiedades dinámicas de los sistemas económicos guiados por
procesos de aprendizaje, mientras que ignoran en una primera aproximación, la
asignación óptima de recursos. Este enfoque consta de tres elementos centrales: I) un
conjunto de microfundamentos basados en agentes con racionalidad limitada; II) un
supuesto general de que las interacciones entre agentes ocurren fuera del equilibrio; III)
la noción de que los mercados y otras instituciones actúan como mecanismos de
selección entre agentes y tecnologías heterogéneas”. (Dosi et al, 1994, p. 23)
Con respecto a la innovación tecnológica, la concepción neoclásica considera
implícitamente a la tecnología como una información aplicable generalizadamente y
concretada en un conjunto de instrucciones que, si se siguen con precisión llevan
inexorablemente al resultado previsto. De este modo el conocimiento tecnológico se percibe
como explícito, articulado, imitable, codificable y perfectamente transmisible. El punto de
vista evolucionista, por su parte, sostiene que dicho cambio es básicamente una actividad
tácita, acumulativa y local. Es tácito en oposición a articulado: es imposible, en general,
escribir instrucciones precisas para todos los pasos. Es acumulativo ya que procede de
proceso de aprendizaje activos. Es local o específico, dado que se refiere a ‘maneras de
hacer cosas’ y no al conocimiento de principios científicos de gran generalidad. Estas
premisas cuestionan fuertemente la idea de ‘función de producción’. No sólo no se puede
asumir que las firmas y menos aun los países- acceden a una función de producción comúnya que la imitación no es trivial- sino de hecho las firmas operan no en una función de
producción sino en algunos o, en un extremo, en un punto específico del conjunto de
combinaciones tecnológicas, y su progreso técnico, construido sobre sus propios esfuerzos,
experiencias y capacidades, está localizado alrededor de ese o esos puntos (López, 1994,
p. 118)
Según la tradición neoclásica, la firma es una suerte de ´caja negra’ cuyo objetivo es
maximizar beneficios. En este sentido, y dado que se los considera irrelevantes para la
teoría económica, no cuenta el análisis de la firma como organización – con estructuras,
reglas, habilidades y estrategias diferenciadas-, ni su dimensión institucional en el contexto
social, histórico, legal y político. En oposición a este punto de vista el evolucionismo sostiene
que atender a esas circunstancias resulta importante. El análisis debe basarse, entonces,
en los siguientes presupuestos básicos:
1. la habilidad para desarrollar, imitar y adoptar innovaciones tecnológicas es heterogénea
aun cuando las firmas posean patrones organizacionales compartidos, y también entre
países;
2. entre países también existen diferencias en cuanto a niveles de productividad e ingresos;
3. entre ambos fenómenos hay, a largo plazo una cierta correlación o coevolución.
Además de la explicación de los procesos de cambio económico de diverso alcance
el evolucionismo en economía también incluye propuestas y recomendaciones políticas:
“El evolucionismo coincide en señalar al capitalismo como un sistema insuperable para
impulsar las actividades innovativas.(y a pesar de que) Nelson (1990) reconoce que los
procesos evolucionarios -como el de la competencia capitalista- son derrochadores (...)
El despilfarro generado en el proceso competitivo es el precio a pagar por evitar los
peligros de ‘confiar en una sola mente para la innovación’. El capitalismo asegura que
existan múltiples fuentes de iniciativas, con una competencia real entre aquellos que
ponen en juego diferentes ideas. Este proceso, ni óptimo ni eficiente, ha sido, sin
embargo, apropiado para impulsar un flujo casi incesante de innovaciones en los últimos
dos siglos (...) (y para algunos más radicalizados) el mercado es, además, el único
proceso que permite la expresión creativa de los individuos (Buchanan y Vanberg,
67
1995).(...) (y aunque no todos los evolucionistas son tan categóricos ) los programas de
I+D direccionados a objetivos específicos son generalmente criticados. (López, 1994, p.
141)
El evolucionismo en economía descansa sobre una teoría de los microfundamentos,
es decir una teoría sobre el comportamiento de los individuos y sus interacciones que sirva
de fundamento a cualquier investigación macroeconómica. La teoría ortodoxa se basa en el
supuesto de un agente representativo único, maximizador, hiperracional e hipercompetente.
Este punto de vista ha sido criticado fundamentalmente por:
1. la heterogeneidad de los agentes en cuanto a sus creencias, competencias, expectativas
y capacidad y posibilidad de acceso y procesamiento de la información relevante y
pertinente;
2. la dificultad de pensar que esos agentes puedan tener conductas maximizadoras,
probablemente ineficientes en contextos semejantes;
3. la dificultad para pensar también un comportamiento racional único aún para un agente
privilegiado que conociera toda la información, dado que su beneficio puede depender
de conductas inciertas de los restantes agentes.
La economía evolucionista por su parte sostiene otros microfundamentos:
“i) las creencias individuales y colectivas son relevantes; ii) en un contexto de
información imperfecta, es preciso que existan instituciones que generen un esquema de
incentivos, evaluación de desempeños y flujos de información; iii) los comportamientos
institucionalizados –gobernados por reglas que se aplican repetidamente a lo largo del
tiempo- pueden tener un efecto estabilizador sobre las variables macro; iv) los
intercambios económicos son imposibles sin normas preexistentes y organizaciones de
monitoreo; v) las conductas de los agentes deben ser descriptas a partir de rutinas no
óptimas que cambian sólo lentamente a lo largo del tiempo: estas rutina operan en el
mismo sentido que las instituciones al compatibilizar los comportamientos de agentes
heterogéneos; vi) las rutinas resultan de procesos de aprendizaje que consolidan formas
de respuesta casi automáticas, que incluyen grandes cantidades de conocimiento tácito;
al mismo tiempo los agentes al actuar en ambientes complejos y no estacionarios, deben
realizar desarrollos ‘creativos’ en base a sus propias rutinas. Por ende, su
comportamiento se describe en términos de reglas de decisión rutinizadas, criterios de
mayor nivel que gobiernan su implementación y, finalmente, procesos de aprendizaje
que cambian las reglas y las meta reglas. Este marco conceptual hace de los propios
agentes sujetos ‘evolutivos’, no dotados a priori de ningún concepto de racionalidad, sino
construyendo sus comportamientos en el curso del aprendizaje”. (López, 1994, p. 145)
Ahora bien, algunos autores fundan estos análisis estrictamente económicos en
algunas consideraciones sobre la naturaleza humana apoyada en argumentos
sociobiológicos conocidos. Así, sostienen López y Valdaliso:
“Seguimos defendiendo que el hombre es por naturaleza egoísta, pero introducimos en
el análisis económico los conceptos encadenados de altruismo, selección grupal y
creatividad, que nos permiten ver el egoísmo a largo plazo (egoísmo aplazado)”. (López
y Valdaliso, 1999, p. 33)
Apoyados en esta ‘naturaleza humana’ sostienen una curiosa explicación de la innovación
como privativa de la iniciativa y carácter individual:
“El mayor acto de altruismo real (cultural) que podemos hacer los seres humanos es
poner a disposición de la comunidad una creación (tecnológica, institucional, científica o
artística). (...) Este proceder permite una recompensa cultural al altruista real innovador:
incrementar su posterioridad (vía aclamación, o reconocimiento de la deuda ancestral
con él contraida); y una recompensa económica en el mundo económico del mercado y
67
Hay posiciones evolucionistas que son más conciliadoras con el papel del Estado.
las empresas: un premio en forma de derecho sobre la propiedad intelectual para que
sea explotado temporalmente (patente y derechos de autor). Por supuesto no debemos
olvidar que ambas gratificaciones dan acceso a una posible reproducción biológica
menos incierta. Las actitudes altruistas están reforzadas en nuestras sociedades por tres
tendencias: una general aprobatoria de este comportamiento en el resto de los
individuos, otra que nos lleva a expresar nuestra desavenencia con los comportamientos
egoístas y, finalmente, una tercera que nos hace premiar al altruista con oportunidades o
responsabilidades que le sitúen en mejor posición para reproducirse biológicamente”
(resaltado mío). (López y Valdaliso, 1999, p 35)
Se trata del argumento sociobiológico que pretende sostener una ‘naturaleza
humana’ egoísta y, por lo tanto transforma los comportamientos altruistas en egoísmo
aplazado y, tales comportamientos altruistas inmediatos (altruismo real) permitirían la
selección de grupo. Si este resulta un punto de vista reduccionista para explicar las
conductas humanas en general, lo es mucho más cuando se trata de conductas que
responden a contextos de una gran complejidad y en el cual intervienen una infinidad de
factores.
Entre muchos otros, el historiador G. Basalla (1988) ha hecho un uso explícito del
modelo darwinista para estudiar el cambio tecnológico, sosteniendo que este modelo puede
ayudar a superar las limitaciones tradicionales de la historia de la tecnología, que a través
de la necesidad y la utilidad pretenden explicar la variedad y novedad de cosas creadas por
el ser humano. Según Basalla es necesario encontrar otras explicaciones que puedan
incorporar las suposiciones más generales sobre la significación y metas de la vida y
considera que la aplicación de la teoría de la evolución orgánica al mundo tecnológico es
ese instrumento idóneo. Los conceptos básicos del modelo de Basalla reproducen el orden y
secuencia evolucionista: diversidad/novedad, selección y continuidad. Diversidad y novedad:
las innovaciones tecnológicas se producen por dos grandes grupos de factores: los
psicológicos e intelectuales (entre los que incluye la investigación científica), y los
socioeconómicos y culturales. En cualquier caso, como para la mayoría de los
evolucionistas, lo importante es la constatación de la variabilidad. Selección: los factores
selectivos surgen de dos tipos defactores: económicos y militares por un lado, y sociales y
culturales por otro. Reconoce que pese al papel heurístico del modelo darwinista, la
evolución de los artefactos y de los organismos mantienen significativas diferencias. La
selección en el mundo de los artefactos es equivalente a la selección artificial, antes que a la
selección natural. Son los humanos quienes deciden, influidos por factores de diferente
índole, quienes deciden qué artefactos sobreviven. Continuidad: la continuidad es un punto
crucial en el enfoque evolucionista de Basalla. La continuidad es el modo en que se
‘reproducen’ los artefactos, i.e., lo que favorece o impide los factores de selección. Los
artefactos seleccionados se convierten en los antecedentes de una nueva generación,
influyendo así en la configuración futura del mundo producido.
2.2.3 darwinismo social
Pero resta aún analizar una caso especial, el darwinismo social, que junto con
algunas de sus derivaciones científicas y otras formulaciones evolucionistas como la
eugenesia, representan casos muy especiales del uso de metáforas en ciencia. Una
de las formas más conocida, y también más criticada y controvertida, de
determinismo y de interrelación entre ciencias biológicas y orden social
probablemente sea el llamado ‘darwinismo social’. Es controvertida la filiación de este
concepto, ya que no resulta del todo cierto desde el punto de vista histórico que la
teoría de la evolución biológica haya sido extrapolada lineal o automáticamente hacia
las ciencias sociales como parece sugerir la denominación ‘darwinismo social’. El
proceso más bien parece ser el de una interrelación muy profunda sobre un telón de
fondo cultural, generalizada y marcadamente evolucionista, al que la teoría biológica
viene a prestar un apoyo extra e importante, pero el evolucionismo en lo social no se
apoya al modo de una copia sobre su original biológico. El evolucionismo ha sido una
idea que recorrió todo el siglo XIX y se extendió y ramificó a todas las áreas del
conocimiento (Cf. Randall, 1981). La idea de evolución aplicada a la dinámica social
tiene las siguientes características:
• identificación de las etapas o periodos que se postulan a priori como indicadores
de esa misma evolución.
• El cambio obedece a leyes naturales y, en ese sentido es inmanente.
• El cambio es direccional y se da en una secuencia determinada, aunque,
obviamente, ninguno de los autores evolucionistas establece plazos para esos
cambios. Por esto mismo,
• El cambio es continuo
Debe notarse que la teoría de la evolución biológica no cumpliría con la primera
característica - salvo en una mirada retrospectiva- ni con la tercera y de allí una
notoria diferencia con la evolución en lo social.
Los autores catalogados como darwinistas sociales, en general, veían los conflictos
entre los grupos raciales, nacionales y sociales en términos biológicos, naturalizando la
guerra, en una versión caprichosa y gladiatoria de la darwiniana 'lucha por la vida'. Para W.
Bagehot, la lucha ocurre más entre grupos que entre individuos aislados, pero justamente
esta cooperación interna a los grupos hacía más feroz la competencia:
"Por más que se hable en contra del principio de selección natural en otros terrenos, no
hay duda de que predominó en la historia primitiva de la humanidad. Los más fuertes
mataban a los más débiles tanto como podían (...) En todos los estados del mundo las
naciones más fuertes tratan de imponerse a las demás, y en ciertas particularidades
notables las más fuertes tienden a ser las mejores (...) Las mejores instituciones tienen
una natural ventaja militar sobre las malas instituciones". (citado en Timasheff, 1955
[1977, p. 84])
Otro de los representantes típicos del darwinismo social, el austríaco L. Gumplowicz,
quien al considerar en su Soziologie und Politik las luchas raciales de Austria consideró que:
"De las fricciones, de las uniones y separaciones de elementos opuestos surgen
finalmente como productos de la nueva adaptación fenómenos psicológicos y sociales
superiores, formas culturales superiores, nuevas civilizaciones, el nuevo Estado y las
unidades nacionales (...) y esto surge por pura obra de la acción y de la reacción
sociales, enteramente independientes de la iniciativa y de la voluntad de los individuos y
en contra de sus ideas, deseos y esfuerzos sociales" (citado en Timasheff, 1955 [1977,
p. 85])
Nótese cómo en las citas precedentes hay un desplazamiento en el contenido del
concepto de 'selección natural' según el cual los triunfadores serían 'los más fuertes' o 'los
mejores', sesgo que no aparece de ningún modo en la teoría darwiniana de la evolución.
Como quiera que sea, Ch. Darwin, que no era en este sentido un 'darwinista social', se ha
preocupado por la cuestión del hombre y, en su Descent of man, publicada en 1871 -doce
años después de El origen de las Especies-, aborda el tema que en ese primer gran texto
había quedado pendiente pero que resultaba una consecuencia inevitable: el hombre como
ser que evoluciona en la naturaleza. El libro de 1971 se transforma en una obra con cierto
sesgo sociológico en tanto que describe, propone explicaciones causales, predice y define
acciones sobre la organización social humana que quedarían definidas por la validez de las
investigaciones científicas:
"El mejoramiento del bienestar de la humanidad es un problema de los más intrincados.
Todos los que no puedan evitar una abyecta pobreza a sus hijos deberían abstenerse
del matrimonio porque la pobreza es no tan solo un gran mal, sino que tiende a
aumentarse, conduciendo a la indiferencia en el matrimonio. Por otra parte, como ha
observado Galton, si las personas prudentes evitan el matrimonio, mientras que las
negligentes se casan, los individuos inferiores de la sociedad tienden a suplantar a los
individuos superiores. El hombre, como cualquier otro animal, ha llegado, sin duda
alguna, a su condición elevada actual mediante ” la lucha por la existencia", consiguiente
a su rápida multiplicación: y si ha de avanzar aún más, puede temerse que deberá seguir
sujeto a una lucha rigurosa. De otra manera caería en la indolencia, y los mejor dotados
no alcanzarían mayores triunfos en la lucha por la existencia que los más desprovistos.
De aquí que nuestra proporción o incremento, aunque nos conduce a muchos y positivos
males, no debe disminuirse en alto grado por ninguna clase de medios. Debía haber una
amplia competencia para todos los hombres, y los más capaces no debían hallar trabas
en las leyes ni en las costumbres para alcanzar mayor éxito y criar el mayor número de
descendientes. A pesar de lo importante que ha sido y aún es la lucha por la existencia.
hay, sin embargo, en cuanto se refiere a la parte más elevada de la naturaleza humana
otros agentes aún más importantes.
Así, pues, las facultades morales se perfeccionan mucho más, bien directa o
indirectamente, mediante los efectos del hábito, de las facultades razonadoras, la
instrucción. la religión, etc., que mediante la selección natural; por más que puedan
atribuirse con seguridad a este último agente los instintos sociales que suministran las
bases para el desarrollo del sentido moral.
La principal conclusión a que llegamos en esta obra, es decir, que el hombre desciende
de alguna forma inferiormente organizada, será, según me temo, muy desagradable para
muchos. Pero difícilmente habrá la menor duda en reconocer que descendemos de
bárbaros. El asombro que experimenté en presencia de la primera partida de fueguinos
que vi en mi vida en tina ribera silvestre y árida, nunca lo olvidaré, por la reflexión que
inmediatamente cruzó mi imaginación tales eran nuestros antecesores. Estos hombres
estaban completamente desnudos y pintarrajeados, su largo cabello estaba
enmarañado, sus bocas espumosas por la excitación y su expresión era salvaje,
medrosa y desconfiada.
Apenas poseían arte alguno, y como los animales salvajes. vivían de lo que podían
cazar: no tenían gobierno eran implacables para todo el que no fuese de su propia
reducida tribu. El que haya visto un salvaje en su país natal. No sentirá mucha
vergüenza en reconocer que la sangre de alguna criatura mucho más inferior corre por
sus venas. Por mi parte, preferiría descender de aquel heroico y pequeño mono que
afrontaba a su temido enemigo con el fin de salvar la vida de su guardián, o de aquel
viejo cinocéfalo que, descendiendo de las montañas, se llevó en triunfo sus pequeño
camaradas librándoles de una manada de atónitos perros, que de un salvaje que se
complace en torturar a sus enemigos, ofrece sangrientos sacrificios, practica el
infanticidio sin remordimiento, trata a sus mujeres como esclavas, desconoce la decencia
y es juguete de las más groseras supersticiones.
Puede excusarse al hombre de sentir cierto orgullo por haberse elevado, aunque no
mediante sus propios actos, a la verdadera cúspide de la escala orgánica; y el hecho de
haberse elevado así, en lugar de colocarse primitivamente en ella, debe darte
esperanzas de un destino aún más elevado en un remoto porvenir. Pero aquí no
debemos ocuparnos de las esperanzas ni de los temores, sino solamente de la verdad,
en tanto cuanto nos permita descubrir nuestra razón: y yo he dado la prueba de la mejor
manera que he podido.
Debemos, sin embargo, reconocer que el hombre. según me parece, con todas sus
nobles cualidades, con la simpatía que siente por los más degradados de sus semejantes, con la benevolencia que hace extensiva, no ya a los otros hombres, sino hasta a
las criaturas inferiores, con su inteligencia semejante a la de Dios, con cuyo auxilio ha
penetrado los movimientos y constitución del sistema solar—con todas estas exaltadas
facultades—lleva en su hechura corpórea el sello indeleble de su ínfimo origen". (Darwin,
1871 [1994, p. 521])
El contexto de la Europa de la segunda mitad del siglo XIX es suficientemente
conocido. Inglaterra había llegado a consolidar el más grande imperio de la historia,
dominando gran parte de Africa y Asia. En su propio territorio contaba con un proletariado que incluía niños de corta edad- explotado en las minas o en las hilanderías y sumido
cotidianamente en la miseria y en la promiscuidad de ciudades desbordadas de habitantes.
Pero ese mismo imperio proclamaba valores cristianos universales como la idea según la
cual todos los hombres están hechos a imagen y semejanza del creador. Una explicación
naturalizada de las relaciones sociales anularía o por lo menos debilitaría el problema moral
generado por la contradicción entre los ideales cristianos de igualdad y caridad, al menos tal
es lo que se proclama, y el dominio brutal al que eran sometidos diversos grupos humanos
por la economía imperial de la Inglaterra victoriana. Desde esta perspectiva el darwinismo
triunfó en un sentido masivo más como idea sociológica que como teoría biológica. Existe
una lectura posible de las ideas darwinianas según la cual las relaciones sociales de
dominio y sumisión quedan definidos como fenómenos naturales y no como decisiones
morales, sociales o políticas. El hombre en su marco social no escaparía a la ley evolutiva
general de la supervivencia del más apto en la lucha por la existencia.
Al aplicar el darwinismo al ámbito socioeconómico, los darwinistas sociales tienden a
justificar las diversas formas de agresividad propias de la sociedad “liberal”, y a explicar
científicamente las diferencias económicas y sociales de clase. Por ello el darwinismo social
ha sido utilizado por los ideólogos del racismo o por los ideólogos más conservadores, así
como por partidarios de corrientes eugenésicas que consideraban que la evolución de la
cultura depende del grado de desarrollo de las razas. Para los darwinistas sociales, la
abundancia o la riqueza económica, serían los equivalentes de la buena adaptación
biológica; la feroz competencia económica capitalista, sería el equivalente de la selección
natural. De esta manera, el éxito en la vida económica y social daría la medida de la valía de
las personas. En definitiva, según los darwinistas sociales, los ricos lo son porque son más
inteligentes, y los pobres lo son porque son menos eficientes o más tontos.
Si bien es cierto que el éxito de El origen de las Especies, en 1859, otorgó un
espaldarazo naturalista extra al evolucionismo, existe una interdependencia entre biología y
ciencia social, más que una determinación lineal desde la biología. Huelga señalar que casi
todas las obras importantes que sostuvieron la evolución social habían aparecido antes de
1859, tales como las de Hegel, Comte, Marx y los primeros trabajos de Spencer. Incluso las
que aparecieron contemporáneamente o inmediatamente después a El Origen... contienen
una elaboración anterior no deudora directa de la teoría de Darwin. De hecho, mientras que
la teoría darwiniana de la evolución sufría cierto descrédito hacia las últimas décadas del
siglo XIX, no ocurría lo mismo con el evolucionismo en otras áreas. En este sentido, parece
más apropiado hablar de darwinismo social en un sentido propiamente dicho con las teorías
eugenésicas y la moderna sociobiología humana. Esbozaremos las principales ideas de
ambas a continuación.
La eugenesia, básicamente, consiste en tomar decisiones y llevar a cabo medidas
para el mejoramiento de la descendencia humana, posibilitando la reproducción diferencial
de ciertos grupos considerados valiosos o mejores. Es muy antigua la idea de que algunas
características que diferencian a los humanos entre sí son hereditarias, de modo tal que la
intervención humana estimulando la reproducción de ciertos individuos e inhibiendo la de
otros, podría contribuir a la mejora de la población68. Pero la eugenesia moderna posee dos
requisitos de los que carecían las prácticas conocidas desde hace siglos: el fundamento
científico de sus premisas básicas y la implementación de políticas y programas de gobierno
dirigidos al mejoramiento de ciertos grupos humanos a través de promover la reproducción
diferencial. Ambos elementos confluyen en el programa eugenésico hacia fines del siglo XIX
y, sobre todo primeras décadas del siglo XX. Las perspectivas evolucionistas corrientes,
reforzadas por el fortísimo aval de la biología evolucionista darwiniana, otorgan una nueva
dimensión a problemas acuciantes hacia esa época: la salud, la educación, el delito, la
inteligencia humana e incluso las relaciones entre grupos y países. En este sentido, puede
caracterizarse a la eugenesia como un conjunto de tecnologías sociales asociadas al
conocimiento científico disponible e implementadas a través de políticas públicas activas y
destinadas a favorecer la reproducción de determinados individuos o grupos humanos
considerados mejores e inhibir la reproducción de otros grupos o individuos considerados
inferiores o indeseables, con el objetivo del mejoramiento/progreso de la humanidad o de
esos grupos humanos. Se trató de un programa que en la primera mitad del siglo XX abracó
casi todo el mundo occidental a través de un amplio y generalizado plan de implementación
68
De hecho este procedimiento llevado a cabo entre las especies de animales domésticos es una
práctica común desde la antigüedad.
de políticas públicas ejercidas de manera coactiva, no tratándose en lo fundamental de
acciones individuales voluntarias.
Habitualmente se suele adjudicar la paternidad de la eugenesia a Sir F. Galton
(1822-1911), quien introduce este término derivado del vocablo griego utilizado que designa
a los individuos “bien nacidos, de noble origen y de buena raza”. Definió a la eugenesia
(Galton,1884), como la ciencia que trata de todas las influencias que mejoran las cualidades
innatas, o materia prima, de una raza y aquellas que la pueden desarrollar hasta alcanzar la
máxima superioridad pero fundamentalmente dirigida al estudio de los “factores sometidos al
contralor social que pueden aumentar y disminuir las condiciones sociales, sea físicas o
espirituales, de las generaciones futuras”. De hecho esta definición amplia de eugenesia
admite tanto puntos de vista fuertemente hereditaristas como otros que reserven un papel
relevante a las condiciones ambientales o de vida de los individuos, diversidad que se ha dado
efectivamente en la diseminación de la eugenesia por todo Occidente. Como quiera que sea,
para Galton era fundamental la herencia de los rasgos mentales y se había propuesto
demostrar que los padres transmiten la inteligencia. Pretendía demostrar científicamente las
causas de algo que en la Inglaterra victoriana no era ningún secreto: que los hombres
eminentes generalmente eran hijos de hombres eminentes. Para obtener sus datos utilizaba el
método biográfico y de la historia familiar con el propósito de mostrar, por un lado, que el
comportamiento considerado socialmente como valioso depende causalmente de una aptitud
concreta, la inteligencia y, por otro lado que dicha aptitud, hereditaria, no puede ser modificada
por el ambiente. Muchas de las ‘comprobaciones’ de Galton y otros acerca de las diferencias
en el nivel de inteligencia y su relación con la ubicación social no hacían más que reflejar
prejuicios ampliamente extendidos:
“La ciencia de la mejora de la descendencia, que no se limita de ningún modo a las
cuestiones de uniones judiciales, sino que, particularmente en el caso del hombre, se
ocupa de todas las influencias susceptibles de conceder a las razas mejor dotadas, un
mayor número de posibilidades de prevalecer sobre las razas menos buenas. (...) El
nivel intelectual promedio de la raza negra está alrededor de dos grados por debajo del
nuestro (...) Si la agudeza de las mujeres fuera superior a la de los hombres, los
empresarios, por propio interés, las emplearían siempre antes que a los varones, pero
como ocurre lo contrario, resulta probable que la suposición opuesta sea la verdadera”.
(Galton, 1883, p. 17)
Los postulados básicos de la eugenesia son:
1. las diferencias entre los individuos están determinadas hereditariamente69 y sólo en una
muy pequeña medida dependen del medio;
2. el progreso depende de la selección natural, mecanismo fundamental por el cual, según la
teoría darwiniana, se produce la evolución de las especies;
69
En la actualidad es posible afirmar que hay dos diferentes y grandes líneas o programas de
investigación que intentan explicar causalmente el origen de la inteligencia en los individuos: el
hereditarismo y el ambientalismo. Mientras los hereditaristas sostienen que la inteligencia se hereda,
lo cual implica que tiene un origen biológico, los ambientalistas sostienen que la inteligencia deriva de
las condiciones sociales en las que las personas viven y se desarrollan. Ambos programas coinciden
en reconocer una correlación positiva entre inteligencia y status social y profesional. La diferencia
aparece cuando se trata de dar una interpretación causal de tal correlación: “para unos las diferencias
en inteligencia (biológica) causan las desigualdades económicas, mientras que para sus oponentes
son estas desigualdades las que causan las diferencias en inteligencia (en este caso entendida como
inteligencia social)” (Luján López, 1996). El origen de tales controversias básicas, que dieron lugar a
estos dos programas, incompatibles entre sí en sus formulaciones más interesantes, se remonta a fines
del siglo pasado. Uno de los ‘experimentos’ preferidos por aquella época y aun posteriormente, y que
ha dado lugar a todo tipo de fantasías y hasta fraudes, eran los que se realizaban con gemelos
univitelinos separados entre sí para distinguir los efectos genéticos de los vinculados con factores
ambientales. Son célebres las experiencias de Sir C. Burt, aunque más tarde se llegó a la conclusión de
que gran parte de ellas eran un fraude. Sobre este punto se puede consultar Gould, 1981.
3. las condiciones modernas (medicina, planes de asistencia, las condiciones 'cómodas' de la
vida moderna etc.) tienden a impedir la influencia selectiva de la muerte de los menos
aptos;
4. a partir de (3) se ha iniciado un deterioro, una degeneración en la especie humana que
continuará a menos que se tomen medidas para contrarrestarla.
Adjudicar la paternidad de la eugenesia a Galton es acertado, a condición de que se
tenga en cuenta que su propuesta viene a realizar y concretar el desarrollo de creencias y
aspiraciones ampliamente extendidas hacia fines del siglo XIX. Lejos de ser una creencia
marginal o aislada, cobró rápidamente gran predicamento llegando a constituir, definitivamente,
el fundamento ‘científico’ para medidas de política sanitaria, pero también para generar y
consolidar creencias y prejuicios corrientes. El racialismo70 y la concepción de la degeneración
de las clases bajas, ideologías ampliamente difundidas, hacían que las problemáticas
prevalecientes en las urbes en expansión, fueran interpretadas como un proceso de
‘degeneración’ en marcha; la idea del mejoramiento racial, relacionado con la salud, se apoyó
en las nuevas teorías genéticas de los primeros años del siglo XX, y se consideraba que de su
utilización podía depender el auge o a la decadencia de las naciones. La teoría eugenésica no
ha sido un fenómeno circunscripto a los EE.UU. y la Alemania nazi, sino que gozó de tal
autoridad científica e influencia política, que culminó con su institucionalización, a través de la
generación de sólidas sociedades científicas, constituidas mayoritariamente por prestigiosos
médicos en todo el mundo Occidental. Éstos promovieron la promulgación de leyes y normas
de salud pública que pretendían contrarrestar el “peligro de la descontrolada fertilidad de los
débiles mentales y la mezcla racial derivada de la inmigración, que se temía poblaran al Nuevo
Mundo con imbéciles que finalmente suplantarían a los de mente dotada” (Medawar, P.B. y
Medawar, J.S., 1983, p. 202).
Estas ideas, no eran más que los presupuestos corrientes de vastos sectores de
hombres de ciencia y pensadores. En el mismo sentido se expresaba Spencer:
"La pobreza del incapaz, las penalidades que caen sobre el imprudente, el hambre de los
perezosos o aquellos seres débiles que el fuerte empuja a un lado son consecuencias de
una benevolencia grande y de largas miras. Debemos calificar de espurios a aquellos
filántropos que, por impedir la miseria de hoy, desencadenan una miseria mayor sobre
las generaciones futuras, y en esta categoría hemos de incluir a todos los defensores de
la ley de los pobres. A los amigos de los pobres les repele la ruda necesidad que,
cuando se le permite actuar, es un acicate tan potente para el perezoso, un freno tan
fuerte para el desordenado. Ciegos ante el hecho de que, continuamente a sus
miembros enfermizos, imbéciles, lentos, vacilantes, pérfidos, estos hombres irreflexivos
abogan por una interferencia que no sólo interrumpe el proceso purificador, sino que
incluso aumenta la depravación (...) eliminar al enfermizo, al deforme y al menos veloz o
potente (...) así se impide toda degeneración de la raza por la multiplicación de sus
representantes menos valiosos. Se asegura también el mantenimiento de una
constitución completamente adaptada a las condiciones del entorno y por consiguiente
productora de un grado máximo de felicidad" (citado en Chorover, 1979 [1985, p. 54])
Se trata de ideas que se encuentran en germen, aunque de un modo velado y en un
sentido diferente en los iniciadores de la biología evolucionista moderna, Darwin y Wallace:
“El hombre estudia con la más escrupulosa atención el carácter y la genealogía de sus
caballos, de sus perros, de sus otros animales domésticos, antes de permitirles
acoplarse; pero cuando se trata de su propia descendencia, toma esta precaución muy
raramente, tal vez nunca. La selección le permitiría, sin embargo, hacer algo favorable,
no sólo para la constitución física de sus hijos, sino también para sus cualidades
intelectuales y morales. Los dos sexos no deberían unirse en matrimonio cuando se
70
El concepto de ‘racialismo’ (Todorov, 1989) se diferencia del de ‘racismo’ en que éste hace
referencia a una conducta más o menos espontánea y generalizada de rechazo y temor al difrente o
al extranjero en general surgida de prejuicios del sentido comun, mientras que aquél consiste en la
búsqueda de apoyatura en teorías ‘científicas’.
encontrasen en un estado de inferioridad física o espiritual demasiado pronunciado; pero
expresar semejantes esperanzas importa expresar una utopía, pues estas esperanzas
no se realizaran siquiera en parte, mientras las leyes de la herencia no sean
completamente conocidas” (Darwin, 1871 [1994, p. 510])
“Entre las naciones civilizadas no nos parece posible que la selección natural obre de
manera de asegurar el progreso permanente de la moralidad y de la inteligencia, pues
son incontestablemente los espíritus mediocres, cuando no los inferiores, los que arriban
mejor en la vida, porque se multiplican más rápidamente” (Wallace, 1864)
La propuesta de Galton, como decíamos, cayó en campo fértil. Así se expresaba el
premio Nobel de Medicina y Fisiología de 1913, Ch. Richet en su La Selección Humana,
evidenciando un inquietante corrimiento hacia posiciones políticas que sobrevendrían poco
después y una sesgada interpretación de la teoría darwiniana de la evolución:
“En la vida salvaje, dice, la selección es la consecuencia necesaria de la lucha que se
entabla entre los seres. Vivir es un combate perpetuo, y en esta lucha, los fuertes son
siempre vencedores; los débiles son aplastados. La naturaleza implacable no se
preocupa de los inválidos y condena a los impotentes; el individuo no es nada; la especie
lo es todo. Es necesario, para el vigor de la especie, que todo lo imperfecto sea
destruido. La naturaleza viva es así; ni cruel, ni suave, ni justa, ni inicua. Dulzura, piedad,
justicia, son ideas humanas y palabras humanas. La naturaleza no conoce ni la
generosidad ni el odio. Sigue su camino interesada solamente en producir seres vivos, y
en producirlos enérgicos, vigorosos y potentes. Pero la sociedad ha introducido en las
relaciones humanas un elemento nuevo: El respeto de cada personalidad humana. La
noción de derecho ha reemplazado la de fuerza. La sociedad ha querido que todos los
seres humanos tuvieran el mismo derecho a la vida, sea cual fuere su pequeñez y su
debilidad. Así, pues, por el estado social se encuentra viciada la gran ley de la selección,
que consiste esencialmente en la sobrevivencia de los fuertes. Pero la civilización ha
hecho más aun, pues si ha pervertido la selección natural ha pervertido aun más la
selección sexual. El matrimonio se ha convertido en función social en lugar de ser
función natural, apta a la conservación de una raza fuerte” (citado en Farre, 1919, p. 80)
Y en el mismo sentido:
“(...) es una barbarie forzar a vivir a los sordomudos, idiotas, raquíticos; que una masa de
carne humana, sin inteligencia no es nada, más bien es una mala materia viviente, que
no es digna de respeto, ni de compasión; que fuera de la inteligencia el hombre no debe
respetar nada; que todos los ríos de las grandes ciudades deberían transformarse en
otros tantos Eurotas; que el solo medio para no ver nacer niños anormales, es eliminar
los que son anormales” (citado en Ciampi, 1922, p. 119)
Contra la idea de considerar ‘supervivencia del más apto’ como sinónimo de
‘supervivencia del más fuerte’ ya el propio Darwin había advertido en la sexta edición de El
Origen de las Especies. La misma tiene como origen una interpretación ‘gladiatoria’ de la
expresión ‘lucha por la existencia’ contra la que advierte Darwin indicando que había usado
esa expresión en un sentido amplio y metafórico, que incluye tanto la lucha efectiva como el
esfuerzo que desarrolla una planta en el límite del desierto por conseguir un poco de
humedad.
Uno de los grandes exponentes de la psiquiatría francesa de principios del siglo XX,
el Dr. Binet-Sanglé, publicó en 1919 un libro en el cual se proponen mecanismos para llevar
adelante los ideales eugénicos: Le haras humain. Comienza en la Introducción criticando la
forma de matrimonio, que llama ‘por conveniencia’ por constituir un elemento disgenésico
responsable de la decadencia de la raza. En la primera parte del libro se exponen los
conocimientos sobre la herencia disponibles en ese momento. En la segunda parte, que
llama “Antropogenia genética”, se ocupa, en primer lugar de la eugenesia negativa, dirigida
a la represión del ‘mal generador’ para lo cual propone: la supresión del mal generador,
mediante una muerte eufórica (eutanasia); su internación; la castración; el aborto provocado
y el infanticidio. En el Capítulo IV, se ocupa de la eugenesia positiva71, dirigida a la
“producción del buen generador”, es decir a la formación del “haras humano”. Propone
fundar una especie de cabaña humana para la producción de buenos generadores, con el
mismo criterio con el que un industrial trata de hallar buenos reproductores, e incluso llega a
proponer la importación- exportación de hombres y mujeres típicos para la formación de
nuevos planteles. En la tercera parte dirigida a la educación del niño proponía entre otras
cosas la higiene sexual consistente en la práctica regular del coito desde la pubertad dos
veces por semana a ambos sexos. A. Hermant, comenta: “el mundo es actualmente para los
hombres un harem (SIC) y para las mujeres un haras” (citado en Regnault, 1922, p. 24). El
texto de Binet-Sanglé resulta un antecedente -no literario, sino científico- de la novela que
hoy es una referencia inmediata apenas se comienza a hablar de eugenesia y que publicara
dos décadas después A. Huxley: Brave New World (Un mundo feliz).
Como quiera que sea, había una gama de matices entre los eugenistas, muchos de
ellos más prudentes y cuidadosos que Richet72 o de prosa menos inflamada que Spencer, y
los hubo profundamente reaccionarios o conservadores, pero también progresistas. Esta
heterogeneidad se explica por el hecho de que la eugenesia constituyó verdaderamente un
clima de ideas dominante que se fue constituyendo con el correr del siglo XX por una serie
de manifestaciones científicas dirigidas a relacionar condiciones biológicas con posiciones
sociales, clima de ideas que, además, estuvo dado no sólo por consideraciones teóricas
generales sobre la evolución y progreso de la especie humana o de apuestas más o menos
optimistas o pesimistas sobre el futuro, sino que, una vez instalado como pensamiento
hegemónico adquiere como componente estratégico fundamental el reclamo por la
implementación de políticas públicas y/o tecnologías tanto biológicas como sociales que
tuvieran incidencia evolutiva, es decir que estuvieran orientadas a modificar la composición
media de una población con el objetivo de ‘mejorarla’. Y este es el carácter distintivo de la
eugenesia73, aunque las diversas medidas concretas en que ha derivado hayan sido de
71
Los controles que suelen hacerse a las embarazadas con el objetivo de detectar enfermedades
congénitas en el hijo, aunque derivan en alguna medida del planteo general, no serían medidas
eugenésicas en un sentido estricto y se les ha reservado la denominación ‘eugenesia negativa’,
mientras que al otro planteo más radical, y cualitativamente diferente, se lo ha denominado
‘eugenesia positiva’. La eugenesia negativa puede definirse como el intento de eliminar o disminuir la
frecuencia de alelos que se juzgan perjudiciales o deletéreos para el ser humano o al menos para
alguna población particular. Es fundamental el carácter poblacional de la eugenesia, de modo tal que,
en esta perspectiva, los padres que deciden interrumpir el embarazo frente a la certeza de que el
embrión porta una afección genética no están actuando en forma eugenésica en tanto su elección no
tiene como objetivo la eliminación o disminución de la frecuencia, en la población, del o los alelos
responsables de la dolencia. La eugenesia positiva, por su lado, estará definida por la implementación
de prácticas y políticas que tienen como objetivo incidir evolutivamente y se asienta sobre la
promoción de la reproducción de ciertos individuos, portadores de caracteres reconocidos como
deseables, bajo la intención de generar así un fenómeno de reproducción diferencial. La distinción
entre eugenesia negativa y positiva constituye una diferenciación aproximativa que merecería, para
cada caso particular un debate profundo. Algunos autores invierten el sentido de eugenesia ‘negativa’
y positiva’ porque le dan a tal clasificación connotaciones éticas. En tal caso es positiva la que se
considera un bien y negativa la que atenta contra las libertades y decisión individuales. No es ese el
sentido que se le da aquí. El carácter ‘negativo’ proviene de la simple abstención o control de la
reproducción y el carácter ‘positivo’ de generar las condiciones de interferencia y modificación
efectiva del desarrollo evolutivo.
72
De hecho había autores que sostenían que no era lícito hablar de disparidad de razas y mucho
menos que hubiera razas inferiores y superiores, como Jean Finot en su Le préjugé des races de
1905
73
En otro lado (Palma, 2002) he desarrollado con cierto detalle el programa eugenésico y he
señalado lo que considero tres errores con respecto a su evaluación historiográfica y conceptual. El
primer error consiste en considerar a la eugenesia como pseudociencia y así, ni los científicos
actuales, ni los historiadores de la ciencia, ni los epistemólogos pueden dar acabada cuenta de ella.
Pero tampoco puede decirse que se trata de una teoría científica sin más. La eugenesia ha
constituido un enorme proyecto interdisciplinario, en el cual estuvo comprometida buena parte de la
comunidad científica internacional, y cuyo objetivo era el mejoramiento/progreso de la humanidad o
variado alcance en las diferentes épocas y países, tanto por la índole propia de las mismas
como por la decisión política de su puesta en práctica. Las tecnologías sociales más
difundidas asociadas a la eugenesia han sido:
• la exigencia del certificado médico prenupcial, probablemente la práctica más extendida y
difundida en Europa y América, obligatorio en la mayoría de los países y optativo en otros.
• Control de la natalidad o más bien “control diferencial de la concepción” ya que no se
trataba meramente de un control de la tasa de natalidad en forma genérica sino sólo de
inhibir la reproducción de determinados grupos considerados indeseables.
• Esterilización de determinados grupos (“débiles mentales”, criminales, y algunos proponían
agregar a los epilépticos, y a los “invertidos sexuales”).
• Aborto eugenésico. No se trata del aborto considerado como prerrogativa o decisión
individual y voluntaria, y la prédica de los eugenistas no estaba dirigida a lograr la
despenalización, sino muy por el contrario, a lograr la reglamentarización y control efectivo
para que el aborto estuviera indicado para los considerados indeseables.
• Restricciones a la inmigración: una de las más extendidas ha sido la tendencia a controlar,
restringir o tener una fuerte injerencia sobre la inmigración de determinados grupos
humanos. Hacia mediados del siglo XIX los países de América, Australia, algunos africanos
y algunos europeos como los estados balcánicos, países con escasa población en general
y también escasa población calificada para las nuevas formas de la industria, comenzaron
a generar legislación que favorecía a la inmigración a través de distintos mecanismos de
promoción y ventajas. Con el correr de las décadas y a medida que la inmigración se iba
concretando, comenzaron a desnudarse una serie de conflictos y a consolidarse el
concepto de “defensa social”, entre otras cosas referido a la protección contra la
inmigración de las razas y grupos inferiores, pero que también llegó a abarcar a los
anarquistas.
La Argentina, como no podía ser de otro modo, no escapó a la influencia
generalizada del movimiento eugenésico de las primeras décadas del XX, aunque la versión
local se desarrolló con particularidades propias y fue sostenida por grupos heterogéneos
tanto en cuanto a la procedencia disciplinar como a la filiación ideológica. Abundan, en este
sentido, los argumentos eugenésicos más liberales, como así también las encendidas
defensas del fascismo y del nacional socialismo alemán. De cualquier modo, prevalece
como agenda básica la preocupación por el perfeccionamiento de la raza en un contexto de
problemas sanitarios a veces acuciantes como el alcoholismo, la tuberculosis y la sífilis, y
problemas sociales generalizados como la higiene en la industria, la vivienda obrera o la
delincuencia infantil.
de grupos humanos, por medio del conocimiento científico y a través de la implementación de
diversas políticas públicas. El segundo error consiste en considerar que la eugenesia es, básicamente,
un fenómeno propio de la Alemania nazi, con algunas repercusiones circunstanciales y marginales en
otros países. Es verdad que el nazismo ha exacerbado hasta límites horrorosos e incalificables los
postulados eugenésicos, pero se trató de un fenómeno que se extendió prácticamente a todo el mundo.
El tercer error, proviene del temor de algunos autores sobre una eugenesia actual, pensando en los
diagnósticos prenatales sobre enfermedades del embrión, o sobre diagnósticos genéticos
preimplantatorios que detectan posibles enfermedades hereditarias. Estos casos que a veces también
suelen denominarse ‘eugenesia negativa’, no deben ser confundidos con la eugenesia positiva o
selectiva. La “eugenesia actual” o negativa, se caracteriza por ser producto de decisiones privadas,
individuales o familiares, sobre tratamientos terapéuticos, que se realizan con la finalidad de influir
sobre la transmisión de características genéticas a la descendencia; actos voluntarios, es decir, por
ser una decisión libre y voluntaria de los potenciales padres afectados; no discriminación de grupos o
sectores de la población, es decir, prácticas que no están dirigidas a seleccionar grupos de población
específicos, que pudieran resultar discriminados en sus derechos, si las medidas son aplicadas de
modo coactivo. La eugenesia tal como se dio en las primeras décadas del siglo XX respondía a tres
condiciones muy claras: pautas de selección de grupos raciales o de otro tipo bien definidas con la
intención de que tal intervención tuviera incidencia evolutiva, se llevó a cabo a través de la
implementación de políticas públicas y no se trataba, en principio, de acciones individuales
voluntarias.
Muchos autores consideran que la sociobiología humana es una forma aggiornada del
darwinismo social. Aunque existen buenas razones para ello es conveniente hacer algunas
precisiones no solamente porque el término ‘sociobiología’ puede utilizarse de más de una
manera, sino también porque entre sus defensores también hay matices diferenciados.
Tomado en un sentido amplio, algunos autores han identificado prácticamente sociobiología
con determinismo biológico. Aquí ha sido tomado en un sentido mucho más restringido como la
última versión del ‘determinismo biológico’ que se desarrolla a partir de los años ’70, y que, en
virtud de que se basa en los éxitos de la genética molecular debería denominarse, de un modo
más restringido: ‘determinismo genético’.
La sociobiología es un programa de investigación que pretende utilizar la teoría de la
evolución para dar cuenta de características significativas de índole social, psicológica y
conductual en distintas especies; por lo tanto es una teoría del origen y la conservación de las
conductas adaptativas por selección natural. Estas conductas deben tener una base genética,
porque la selección natural no puede funcionar si no hay variación genética. En este sentido
señalan similitudes y continuidades entre la conducta animal y la conducta humana (y muchas
veces se antropomorfizan las conductas animales).
Pretende estudiar las bases biológicas de todas las formas de comportamiento social,
incluyendo el parentesco y la conducta sexual, partiendo de la selección natural y del concepto
de eficacia inclusiva. La hipótesis central es que el comportamiento social de cualquier animal,
incluido el hombre, expresa la tendencia a maximizar la eficacia inclusiva (es decir, a dejar el
máximo número posible de descendientes), tomando en consideración las alternativas que
ofrece la situación y los costos a afrontar.
La evolución por selección natural requiere que las diferencias fenotípicas sean
heredables. Así, por ejemplo la selección de la velocidad en carrera de algún animal que sea
presa habitual de los predadores, por ejemplo la cebra, hará que la velocidad de carrera media
aumente si y sólo si los progenitores más rápidos que la media poblacional tienden a transmitir
a su descendencia este rasgo fenotípico. La teoría de la evolución sostiene que las diferencias
genéticas entre los progenitores explica las diferencias de velocidad de los descendientes en la
medida en que éstos heredan los genes de aquellos. Este esquema básico se mantiene
cuando la sociobiología intenta explicar alguna característica conductual compleja, afirmando
que la misma es resultado de la evolución por selección natural. Así, los sociobiólogos, por
ejemplo, han intentado descubrir los fundamentos adaptativos y genéticos de la agresividad, el
odio, la xenofobia, el conformismo, la homosexualidad, y hasta del ascenso social. M. Harris
dice:
“La sociobiología es una estrategia investigativa que procura explicar la vida social
humana mediante los principios teóricos de la biología evolutiva darwiniana y
neodarwiniana. Su finalidad es reducir los enigmas correspondientes al nivel sociocultural a enigmas que pueden resolverse en el nivel biológico de los fenómenos” (Harris,
1985, p. 187)
Se considera en general como el inicio de la moderna sociobiología humana la
publicación, en 1975, del libro de E. O. Wilson, Sociobiología: la nueva síntesis. En el último
capítulo el autor desarrolla una serie de ideas polémicas sobre la aplicación de la sociobiología
a la mente y la cultura humanas.
En el campo de la sociobiología pueden distinguirse, básicamente, tres grupos
deautores. En primer lugar aquellos que sostienen que los genes individuales o grupos de
genes intervienen en el control de las diversas formas de comportamiento social humano;
lograr su identificación es tan sólo cuestión de tiempo. Aunque los sociobiólogos afirman no
compartir la tesis “un gen, un comportamiento”, en el fondo muchos de ellos parecen pensar
realmente en la existencia de genes específicos. De hecho esta postura, la más ‘fuerte’ o
extrema, es profundamente reduccionista y ha generado toda suerte de críticas. En las
publicaciones de divulgación científica suelen proliferar artículos que defienden posiciones
como esta. Dado que la sociobiología pretende basarse en la teoría sintética de la evolución, y
habida cuenta que ésta considera que la variación genotípica y la fenotípica están
correlacionadas, resultaría que la variedad de las culturas humanas sería una función de la
variedad que subyace a la distribución de los genotipos74.
En segundo lugar están las posiciones interaccionistas, que sostienen que el comportamiento
humano representa una respuesta diferenciada a las presiones del genotipo y del ambiente. El mismo
genotipo produciría, por tanto, conductas diferentes en ambientes diferentes; o bien, a partir de
genotipos diferentes podrían originarse comportamientos semejantes a causa de presiones del
entorno semejantes. La tarea de la sociobiología sería, según esta posición, más débil que la primera,
determinar las predisposiciones adquiridas a través de la evolución.
Por último, en tercer lugar, aquellos que sostienen que la maximización de la eficacia
inclusiva no está vinculada con comportamientos concretos, controlados por genes, sino con
la capacidad genérica de elaborar y emplear cultura, posible a causa del cerebro complejo,
del largo proceso de maduración del organismo, rasgos que derivan de una filogénesis que
ha recibido esa orientación a causa de las ventajas diferenciales que permitía. Los genes no
producirían comportamiento alguno que pudiera asegurar su duplicación y pervivencia, sino
un potencial susceptible de usar cualquier material para lograr ese resultado. El individuo
tiene una libertad notable, pero siempre dentro de la búsqueda de la máxima eficacia
inclusiva.
2.3. la marca en el cuerpo y la obsesión por la medida
El siglo XIX marcó una tendencia a establecer como uno de los criterios
fundamentales para la cientificidad de las teorías, las posibilidades y alcances de
cuantificación y medición. Los estudios biológicos y antropológicos no han sido la
excepción y con esta impronta comenzaron a surgir una serie de teorías científicas
funcionales a los prejuicios racistas de la época. Este grupo de teorías pueden
incluirse dentro del grupo del determinismo biológico. En verdad, la tendencia, de las
cuales esbozaremos algunas versiones, ha sido generalizada y amplia, de modo que
atravesó y signó toda una extensa época, cuyos inicios podemos ubicar hacia
principios del siglo XIX, aunque quizá no podamos fechar su finalización, en la
medida en que aun aparecen nuevas versiones algo más elaboradas. Pero, además
de aquella tendencia generalizada hacia la medición y la cuantificación otro rasgo
asociado define a las formas de determinismo biológico de principios del siglo XIX: la
idea de la marca en el cuerpo, es decir esos rastros visibles que exponen, según se
llegó a creer, clara e inequívocamente lo que los individuos son; marcas en el
cuerpo, por otra parte que son las que deben medirse.
Probablemente el clima de ideas que da sentido a esta forma de concebir lo
científico sea el resultado de largos procesos que incluyen el éxito más que
centenario de la física newtoniana, elevada a modelo de cientificidad a imitar por las
otras ciencias, incluyendo las incipientes ciencias sociales, el triunfo de los ideales
de la Ilustración del siglo XVIII, a lo que se agrega, en las primeras décadas del siglo
XIX, los ideales positivistas que rescatan lo positivo de la observación y el dato por
sobre lo negativo de la especulación. La gran cantidad de disciplinas y áreas de
investigación que surgen en el siglo XIX llevan estas marcas a fuego. Hacia 1890, y
una vez consolidada esta tendencia a la medición y a relacionarla con la
superioridad racial, así se expresaba al antropólogo norteamericano D. C. Brinton:
“(...) el adulto que conserva rasgos fetales, infantiles o simiescos es sin lugar a dudas
inferior al que ha seguido desarrollándose (...) de acuerdo con esos criterios, la raza
blanca o europea se sitúa a la cabeza de la lista, mientras que la negra o africana ocupa
el puesto más bajo (...) Todas las partes del cuerpo han sido minuciosamente
74
Esta idea de la correspondencia uno a uno entre genes y fenotipos suele llamarse despectivamente
“genética de saco de judías” y es criticada entre muchos otros por Gould (1981).
examinadas, medidas y pesadas para poder constituir una ciencia de la anatomía
comparada de las diferentes razas”. (citado en Gould, 1981 [1985,p. 111])
Una mirada amplia sobre las distintas formas teóricas que adquirió este afán
de medir y de correlacionar las medidas del cuerpo con las jerarquías sociales
podría permitir discriminar algunas modalidades básicas: la que se circunscribe a
distintos tipos de mediciones y relaciones de medidas referidas al cerebro y al
cráneo (las distintas versiones de la craneometría), la que amplía el espectro de
mediciones a todo el cuerpo humano y comienza a tomar en cuenta otros rasgos
actitudinales (la antropología criminal), la que efectúa mediciones, ya no sobre los
aspectos anatómicos, sino sobre una cualidad humana esencial, la inteligencia,
principalmente a través de los tests de Cociente Intelectual.
El internacionalmente famoso médico estadounidense S. G. Morton (1785-1851),
poligenista75, inauguró la craneometría con la intención de probar su hipótesis: “puede
establecerse objetivamente una jerarquía entre las razas basándose en las características
físicas del cerebro, sobre todo en su tamaño” (Citado en Gould, 1981 [1985,p.36]).
Así, se dedicó por más de treinta años a coleccionar cráneos de distinto
origen y a medir su volumen. Los resultados de la medición de más de mil cráneos
no hacían más que ‘demostrar’ lo que se esperaba de ellos, es decir que la raza
blanca era superior a la negra y a la de los indios norteamericanos. Las conclusiones
de Morton respecto de la superioridad de la raza blanca por sobre las otras pueden
ser objetadas porque adolecen de defectos técnicos, porque existe una gran
cantidad de contraejemplos, pero, fundamentalmente, porque se basan en el falso
presupuesto de que la medida del volumen craneano indica superioridad o mayor
inteligencia (cf. Gould, 1981).
Quizá el nombre más ilustre asociado a la craneometría sea el del médico francés P.
Broca (1824-1880), quien adhiere a la tesis general:
“En general, el cerebro es más grande en los adultos que en los ancianos, en los
hombres que en las mujeres, en los hombres eminentes que en los de talento mediocre,
en las razas superiores que en las razas inferiores (...) A igualdad de condiciones, existe
una relación significativa entre el desarrollo de la inteligencia y el volumen del cerebro”
(citado en Gould, 1981 [1985, p. 133])
Los trabajos de Broca contribuyen a diversificar las medidas y relaciones
cuantitativas consideradas relevantes. Entre las técnicas utilizadas figuran:
• pesar los cerebros en lugar de medir su volumen a través de la cavidad craneana.
• obtención del índice craneano según la relación existente entre el largo del cráneo y el
ancho, dando lugar a individuos dolicocéfalos –con cráneo alargado- y braquicéfaloscuyo cráneo no presentaba mayor diferencia entre largo y ancho-. Estos últimos eran
considerados inferiores. La abrumadora cantidad de braquicéfalos que eran personas
exitosas hizo que rápidamente se abandonara esta línea.
• la proporción entre la parte anterior y posterior del cerebro, bajo el supuesto de que las
facultades superiores de la inteligencia radican en el lóbulo frontal. Este tipo de
mediciones está en la misma línea que las del ángulo facial. Broca sostuvo:
“Un rostro prognático [proyectado hacia adelante], un color de piel más o menos negro,
un cabello lanudo y una inferioridad intelectual y social, son rasgos que suelen ir
asociados, mientras que una piel más o menos blanca, un cabello lacio y un rostro
ortognático [recto], constituyen la dotación normal de los grupos más elevados en la
75
Una de las discusiones de la primera mitad del siglo XIX, se daba entre los que sostenían el origen
único de la humanidad (los monogenistas) y los que por el contrario atribuían a la misma un origen
múltiple (poligenistas).
escala humana (...) Ningún grupo de piel negra, cabello lanudo y rostro prognático ha
sido nunca capaz de elevarse espontáneamente hasta el nivel de la civilización” (citado
en Gould, 1981 [1985, p. 45])
la ubicación del foramen magnum - orificio que se encuentra en el cráneo y por el cual se
vincula la médula a la masa encefálica-: en los humanos este orificio se encuentra en la
base del cráneo y está en relación directa con la posición erguida que mantienen. Por su
parte en los mamíferos cuadrúpedos, también por su posición habitual se encuentra por
detrás del cráneo. En los monos superiores, por su parte, se ubica en una posición algo
más atrás que en los humanos. Siguiendo con el supuesto de que los negros estarían en
una fase de desarrollo intermedia entre los monos superiores y el hombre, se intentó
mostrar que también el foramen magnum se encontraba en una posición intermedia.
Rápidamente se mostró que era una afirmación sin sentido.
Otra línea de trabajo consistía en comparar los cerebros femeninos con los
masculinos, con el previsible resultado de una diferencia en volumen y peso a favor de los
hombres. Si bien estos autores eran conscientes de que la diferencia podía explicarse
perfectamente por la proporción con el volumen del cuerpo en general, tendían a desechar
tal explicación.
Una de las formas peculiares que adoptó la obsesión por la medición constituye lo
que se llamó ‘ángulo facial’, medida basada en la forma de la cabeza y que corresponde a la
pendiente de la frente colocando el cráneo de perfil. El término y el concepto son muy
antiguos, y parece (Cf. Chorover, 1979) haber sido introducido por un anatomista e
historiador del arte holandés –P. Camper- quien señalaba que los escultores griegos habían
incorporado a sus estatuas la idea de que las variaciones de la forma y estructura del cráneo
eran prueba de la inteligencia. Señalaba que “la idea de estupidez es asociada, incluso con
el alargamiento del morro (...)”. Y ya con criterios cuantitativos:
•
“Los dos extremos (...) de la línea facial humana son los 70 y los 100 grados, que,
corresponden al negro y al antiguo griego respectivamente. Por debajo de 70 están los
orangutanes y los monos, más bajo todavía, la cabeza del perro” (Citado en Chorover,
1979 [1985, p. 53])
Esta correlación entre el rasgo físico del ángulo facial y las jerarquías humanas
basadas en la inteligencia fueron moneda corriente en el siglo XIX entre los naturalistas:
“La raza blanca es la que conserva el tipo del primer hombre, su color es blanco, su
rostro ovalado, su ángulo facial de ochenta y cinco, a noventa grados; su nariz
generalmente es recta y grande, aguileña algunas veces; su boca hundida
moderadamente, sus dientes bien colocados y verticales, por lo que su pronunciación es
expedita clara y sonorosa. La raza blanca reúne toda la dignidad, hermosura, y
regularidad de que carecen las demás razas”. (Riesco Le Grand, 1848, p. 145)
La determinación del ángulo facial y su sustento teórico llevaron, y esto puede verse en muchos grabados del siglo XIX, a la
exageración caricaturesca y completamente irreal de los perfiles de ciertos grupos humanos, básicamente los negros. Aunque mezclándose
con otra serie de determinaciones, la medición del ángulo facial siguió siendo, en algunos ámbitos, un indicador racial y, obviamente, de
jerarquías hasta bien entrado el siglo XX.
2.4. la metáfora de la relación ontogenia y filogenia
Lo viviente implica desarrollo y éste incluye el desarrollo de los individuos por un
lado, fenómeno reconocido desde la antigüedad y, teoría de la evolución mediante, el
desarrollo de la especie y aun de las relaciones de ésta con especies emparentadas en el
árbol de la vida. El desarrollo del primer tipo, el de los individuos, es denominado
‘ontogenético’, mientras que el del segundo tipo se llaman ‘filogenético’. Una metáfora
recurrente y generalizada surge de utilizar como original la explicación ontogenética para dar
cuenta de los desarrollos de largo plazo que bien podríamos denominar filogenéticos. Este
es el proceso metafórico más común, pero también existe lo inverso, es decir, utilizar el
conocimiento del desarrollo filogenético para dar cuenta del proceso ontogenético.
En su excelente Cambio social e historia (1976), R. A. Nisbet analiza la metáfora del
crecimiento, a la que considera, aplicada a las explicaciones históricas y sobre todo del
cambio social, como la más antigua, trascendente y de mayor amplitud. Bajo la impronta de
la metáfora del crecimiento, el cambio social y la historia misma no son meras
modificaciones fortuitas o casuales- aunque puede incluir, de hecho, cambios de este tiposino que se trata de la naturaleza misma de la cosa puesta en movimiento. Hablar de
‘crecimiento’ implica otras condiciones o propiedades, tales como:
• ‘direccionalidad’, por la cual el crecimiento no es cambio fortuito, sino que tiene una
tendencia o configuración lineal en el tiempo
• este movimiento direccional es ‘acumulativo’, vale decir que lo ocurrido en un momento
dado es el resultado de lo que ha ocurrido en el pasado
• el desarrollo tiene ‘fases’ que se dan en una secuencia determinada y que tienen entre sí
una relación genética
• el crecimiento o desarrollo tiene una ‘finalidad’
La analogía de la cual surge la metáfora del crecimiento aplicada al cambio cultural
tiene su origen en lo viviente, en el desarrollo manifestado por los organismos. Según Nisbet
esta metáfora atraviesa la historia de Occidente desde Heráclito hasta la actualidad,
pasando por infinidad de autores de la diversa extracción cultural, ideológica e intelectual y
lejos de ser una mera figura de dicción es “completamente inseparable de algunas de las
más profundas corrientes en el pensamiento occidental acerca de la sociedad y el cambio”.
La metáfora del crecimiento tiene su origen en la noción de physis griega, aunque a lo largo
de los siglos ha adquirido ciertas configuraciones diferentes. Pero estas modificaciones al
axioma inicial de los griegos, justamente se encuentra a la base del argumento de Nisbet
acerca de la persistencia y fuerza de la metáfora.
Aunque no necesariamente se deba compartir todo el contenido del excelente
y exhaustivo análisis de Nisbet, sobre todo con respecto a la ubicuidad de la
metáfora del crecimiento, de cualquier modo puede concederse la enorme influencia
de las metáforas provenientes de lo viviente o de lo orgánico.
Una metáfora muy influyente y generalizada de la biología de los últimos dos siglos
es la que surge de sostener que la ontogenia repite la filogenia. Como ya se ha señalado,
durante el siglo XIX el concepto de evolución dominó el pensamiento humano y la teoría
darwiniana proporcionó una herramienta teórica formidable para avalar tales criterios. Entre
las muchas derivaciones de la misma aparece la reinstalación por parte del zoólogo alemán
E. Haeckel (1834-1919) de una vieja idea predarwiniana: la ontogenia recapitula la filogenia.
Es decir que los individuos a lo largo de su desarrollo (ontogenia) atraviesan una serie de
estadios que corresponden, en el orden correcto, a las diferentes formas adultas de sus
antepasados. En suma, cada individuo recorre en forma acelerada la escala de su propio
árbol de familia (filogenia) hasta sus antepasados más remotos76, que teoría de la evolución
mediante, se remonta a otras especies que se hunden en el tiempo profundo de la vida en el
planeta. Siendo Haeckel el defensor más conocido de la teoría de la recapitulación, ésta no
obstante, proviene del siglo XVIII. El fisiólogo inglés J. Hunter (1728-1793) señalaba que “si
nos pusiéramos a ordenar animales serialmente, de los imperfectos a los perfectos,
probablemente encontraríamos un animal imperfecto que se correspondería con alguna fase
del más perfecto”. La teoría de la recapitulación ha recorrido un largo camino y aunque bajo
distintas formulaciones y especificaciones, se sostiene en la idea de que las mismas leyes
que gobiernan la evolución de las especies son las que gobiernan la evolución de los
embriones y de allí su cercanía estrecha con los desarrollos de la embriología. Muchos
naturalistas de fines del XVII y primeras décadas del XVIII han suscripto alguna de las
76
Esta idea gozaba de una gran difusión. Una versión particular de la misma aparece por ejemplo en
la explicación que ofrece S. Freud del origen del complejo de Edipo en algún episodio del pasado de
la especie.
formas de la recapitulación. Richards77 (1992) sostiene que hay una relación estrecha y una
suerte de continuidad entre los esquemas embriológicos de la evolución y la idea, más
moderna, de la evolución de las especies. En efecto, sostiene que habría una línea que,
partiendo de la vieja teoría de la evolución con resonancias preformacionistas - el embrión
es un adulto en miniatura de su propia especie- y pasando por la primera versión de la
recapitulación -el embrión de los animales superiores pasa por etapas representadas por
las formas adultas de animales inferiores existentes en ese mismo momento- llega a la
teoría de la evolución de las especies: las formas adultas de las criaturas existentes han
surgido de las formas de ancestros inferiores que ya no existen. Richards (1992) atribuye
uno de los orígenes importantes de la teoría darwiniana de la evolución al principio general
de la recapitulación. Es un hecho conocido que Darwin fue muy prudente al hablar de
’evolución’ y prefirió referirse a ella en otros términos tales como ‘descendencia con
variación’, seguramente por algunas reservas sobre la filiación que atribuye Richards.
Comenzaron a surgir una serie de analogías referidas a la superioridad o inferioridad
racial, de modo que los adultos pertenecientes a grupos inferiores debían ser como los niños
de los grupos superiores, porque el niño representa un antepasado primitivo adulto. Si los
negros y las mujeres adultos son como los niños varones blancos, entonces vienen a ser los
representantes vivos de un estadio primitivo de la evolución de los varones blancos. De
hecho, todos los grupos –razas, sexos y clases- ‘inferiores’ fueron comparados con los niños
varones blancos. El reconocido paleontólogo norteamericano E. D. Cope (1840-1897) utilizó
el mecanismo de la recapitulación para identificar como formas inferiores a las razas no
blancas, la totalidad de las mujeres, los blancos del sur de Europa (con relación a los del
Norte) y las clases inferiores dentro de la raza blanca. La diferenciación entre las razas del
norte y del sur de Europa, como veremos más adelante, era uno de los argumentos
utilizados contra los que sostenían la superioridad de la ‘raza latina’.
Un caso particularmente interesante de recapitulación, y de cómo las
denominaciones científicas se construyeron al amparo de consideraciones racistas es lo
sucedido con lo que hoy se conoce como ‘síndrome de Down’. El Dr. J. L. Down , en un
artículo titulado “observaciones acerca de una clasificación étnica de los idiotas” publicado
en 1866, consideró que algunos idiotas congénitos presentaban rasgos que no tenían sus
padres clasificándolos como de ‘variedad etíope’, otros como de tipo ‘malayo’ y otros, en
cambio eran ‘típicos mongoles’.
Probablemente la forma que más repercusión social ha tenido de la idea de la
recapitulación es la antropología criminal desarrollada por el médico y criminalista italiano
Cesare Lombroso (1835-1909), a partir de la publicación, en 1876 de L’uomo delinquente.
Lombroso elaboró su teoría del criminal nato, no sólo como una vaga afirmación del carácter
hereditario del crimen- opinión bastante generalizada en la época por otra parte-, sino como
una verdadera teoría evolucionista basada en datos antropométricos, sosteniendo que los
criminales son tipos atávicos que perduran en los seres humanos78. Según Lombroso en la
herencia humana yacen aletargados gérmenes procedentes de un pasado ancestral. En
algunos individuos desafortunados, aquel pasado vuelve a la vida. Esas personas se ven
impulsadas por su constitución innata a comportarse como lo harían un mono o un salvaje
normales, pero en nuestra sociedad su conducta se considera criminal. Afortunadamente,
sostiene Lombroso, podemos identificar a los criminales natos porque su carácter simiesco
se traduce en determinados signos anatómicos. Su atavismo es tanto físico como mental,
77
Cf. el excelente ensayo de Richards (1992) para un rastreo exhaustivo de la idea de recapitulación,
su relación con la embriología y la teoría de la evolución.
78
La teoría lombrosiana puede inscribirse en la línea que venimos analizando y reconoce otros
antecedentes como el francés Moreau de Tours en cuyo trabajo La Psicología morbosa en sus
relaciones con la filosofía de la historia sostiene que el cuerpo humano es como un gran libro abierto
–retomando la metáfora bíblica, también usada por Galileo para referirse al Universo- que todos
pueden leer y que basta con escudriñar bien y atentamente para descubrir en él, la fatal relación que
habría entre los músculos, el sistema nervioso, las células cerebrales y el temperamento, las
diferentes cualidades morales, la potencia intelectiva, el genio y el crimen.
pero los signos físicos, o 'estigmas' son decisivos. La conducta criminal también puede
aparecer en hombres normales, pero se reconoce al ‘criminal nato’ por su anatomía. La
antropología criminal constituye un caso específico y prototípico de la marca en el cuerpo.
Expresaba en L’uomo delinquente:
“(...) aun los crímenes más horrendos e inhumanos tienen un punto de partida fisiológico,
atávico, en esos instintos animales que, embotados por un cierto tiempo en el hombre
por la educación, por el ambiente, por el miedo al castigo, vuelven pulular de golpe por
el influjo de ciertas circunstancias” (citado en Gould, 1981 [1985, p. 135])
La teoría lombrosiana, más allá de derivar con el tiempo en herejías más o menos
divergentes con la versión original, estableció durante décadas la agenda básica acerca del
tratamiento de la delincuencia, instalando las discusiones y dispositivos de detección y
control por fuera de la dimensión específicamente humana desplazando la atención al
interior de la organización psicofísica individual, casi siempre coincidente, en la práctica, con
una condición social baja. Por un lado la naturalización de la delincuencia o, en tal caso la
‘animalización’, requiere que se presente una versión antropomórfica y brutal de las
especies animales que dicho sea de paso, contrasta claramente con algunas versiones
actuales idílicamente ecologicistas de la naturaleza como el reino de la bondad y la armonía,
y, por otro lado, el costado evolucionista requiere identificar la conducta criminal en los
pueblos inferiores:
“Así pues, Lombroso dedicó la primera parte de su obra más importante - El hombre
criminal- a lo que hemos de considerar como la más ridícula muestra de
antropomorfismo de que se tenga noticia: un análisis de la conducta criminal de los
animales. Cita, por ejemplo, al caso de una hormiga cuya furia asesina la impulsa a
matar y despedazar un pulgón; el de una cigüeña que, junto con su amante, asesinaba a
su marido; el de unos castores que se asocian para asesinar a un congénere solitario; el
de una hormiga macho que no tiene acceso a las hembras reproductoras y viola a una
obrera, cuyos órganos sexuales están atrofiados, provocándole la muerte en medio de
atroces dolores; llega incluso a decir que cuando el insecto come determinadas plantas,
su conducta equivale a un crimen. A continuación Lombroso da el siguiente paso lógico:
compara los criminales con los grupos inferiores. “Yo compararía -escribió uno de sus
seguidores franceses- al criminal con un salvaje que, por atavismo, apareciese en la
sociedad moderna; podemos considerar que nació criminal porque nació salvaje”. Para
identificar la criminalidad como conducta normal en los pueblos inferiores, Lombroso se
aventuró en el terreno de la etnología. Escribió un pequeño tratado sobre los Dinka del
Nilo Alto. En él se refirió a los profundos tatuajes que éstos practicaban en su cuerpo, así
como al elevado umbral de dolor que les permitía soportar pruebas como la rotura de los
incisivos en la pubertad, realizada a golpes de martillo. Su anatomía normal exhibía una
serie de estigmas simiescos: ‘su nariz (…) no sólo achatada, sino también trilobulada
como las de los monos’.(...) Prácticamente todos los argumentos de Lombroso estaban
construidos de forma que nunca pudiesen fracasar; por tanto, eran vacuos desde el
punto de vista científico. Aunque mencionase abundantes datos numéricos para otorgar
una aire de objetividad a su obra, ésta siguió siendo tan vulnerable que incluso la
mayoría de los miembros de la escuela de Broca se opusieron a su teoría del atavismo.
Cada vez que Lombroso se topaba con un hecho que no cuadraba con dicha teoría
recurría a algún tipo de acrobacia mental que le permitiera incorporarlo a su sistema.
Esta actitud es muy evidente en el caso de sus tesis acerca de la depravación de los
pueblos inferiores, porque una y otra vez se encontró con relatos que hablaban del valor
y la capacidad de aquellos a quienes quería denigrar. Sin embargo, deformó todos esos
relatos para que cupiesen en su sistema”. (Gould, 1981 [1985, p. 120])
Lombroso estableció una verdadera tipología de los delincuentes a partir de
mediciones de las distintas partes de los cuerpos, como por ejemplo el largo de los brazos y
también de la capacidad craneana; de rasgos como la asimetría facial, o características del
rostro. Estableció una gran cantidad de estigmas simiescos, que denotaban criminalidad
innata: mayor espesor del cráneo, simplicidad de las suturas craneanas, mandíbulas
grandes, precocidad de las arrugas, frente baja y estrecha, orejas grandes, ausencia de
calvicie, piel más oscura, mayor agudeza visual, menor sensibilidad ante el dolor, y ausencia
de reacción vascular (incapacidad de ruborizarse). En el Congreso Internacional de
Antropología Criminal celebrado en 1896, llegó a sostener que los pies de las prostitutas
suelen ser prensiles como en los monos. Incluso llegó a agregar otros signos de la
criminalidad no propiamente antropométricos tales como las jergas que utilizan los
criminales que, según Lombroso contenía una gran cantidad de voces onomatopéyicas,
semejantes a las de los niños que ni hablan correctamente; también consideraba la
presencia de tatuajes, reflejo tanto de la insensibilidad al dolor como del atávico gusto por
los adornos presente en los delincuentes.
Si bien Lombroso no atribuía todos los delitos a los criminales natos sostenía que
éstos cometían alrededor del cuarenta por ciento de los mismos. Estas teorías han tenido
una enorme influencia en la criminología y en la literatura jurídica internacional y no sólo
como debate académico, sino también en la práctica jurídico-penal. Probablemente se trate
de la versión antropométrica que más influencia y desarrollo ha tenido y el mismo Lombroso
actuó como perito en varios juicios escribiendo después sobre uno de los delincuentes que
le había tocado examinar:
“(...) era, de hecho, el tipo exacto del criminal nato: mandíbulas enormes, frente abultada,
arco cigomático, labio superior fino, incisivos enormes, cabeza más grande que lo
habitual (1620 cm3), torpeza táctil junto con sensorial. Estaba condenado.” (citado en
Gould, 1981 [1985, p. 135])
La influencia de Lombroso generó una nueva forma de concebir la pena. Mientras
que para la escuela clásica del derecho penal, la pena debía ajustarse estrictamente a la
naturaleza del crimen, Lombroso sostenía que la misma debía adaptarse al criminal. El
objeto de estudio de Lombroso no era el crimen, entonces, sino el criminal y una vez
identificado éste, el castigo administrado no resulta fundado tanto en la responsabilidad
individual del sujeto que cometía el hecho, ya que esa conducta estaba condicionada y/o
determinada biológicamente, sino en la necesidad de la comunidad de ’defenderse’. Así, era
legítimo condenar a un criminal nato por un delito menor, dado que irremediablemente
volvería a hacerlo y por tanto no tenía sentido insistir en su regeneración. Como
contrapartida no tenía demasiado sentido condenar a un criminal ocasional dado que no
volvería a delinquir. El fundamento de la pena, entonces, sería un requisito de la defensa
social, más que castigo para el delincuente que, en definitiva era un enfermo. Un seguidor
de Lombroso, Ferri, sostenía en el mismo sentido la ‘indeterminación de la sentencia’, es
decir que las sanciones debían adaptarse a al personalidad del criminal por más que los
criminólogos clásicos lo consideraran una herejía; las penas previamente estipuladas serían
absurdas desde el punto de vista de la defensa de la sociedad.
Es interesante señalar que las ideas de Lombroso admiten el doble juego de, por un
lado estigmatizar ideológicamente a los supuestos delincuentes y por otro lado, prestar
argumentos para suavizar las penas, sobre la base del carácter ‘natural’ del ‘instinto
criminal’, por lo cual, algunos lombrosianos posteriores que ampliaron la determinación del
delincuente hasta incluir los factores ambientales como la educación, contribuyeron a
instalar la idea de la atenuación de las penas a propósito de las circunstancias atenuantes.
S. Freud, por otra parte maestro de la metáfora en toda su obra, establece también,
aunque en otro contexto y con otros objetivos, una relación en la cual la ontogenia repite la
filogenia. Con referencia al tabú del incesto señala Freud:
“Para poder vivir unidos en paz, los hermanos victoriosos renunciaron a las mujeres, a
las mismas por las cuales habían muerto al padre, y aceptaron someterse a la exogamia.
El poder del padre estaba destruido; la familia se organizó de acuerdo con el sistema
matriarcal. La actitud afectiva ambivalente de los hijos hacia el padre se mantuvo en
vigencia durante toda la evolución posterior. En lugar del padre se erigió determinado
animal como tótem, aceptándolo como antecesor colectivo y como genio tutelar; nadie
podía dañarlo o matarlo; pero una vez al año toda la comunidad masculina se reunía en
un banquete, en el que el tótem, hasta entonces reverenciado, era despedazado y
comido en común. A nadie se le permitía abstenerse de este banquete, que
representaba la repetición solemne del parricidio, origen del orden social, de las leyes
morales y de la religión.” (Freud, 1968, p.245).
En la misma línea:
“Aunque parezca que la renuncia instintual y la ética sobre ella basada no forman parte
del contenido esencial de la religión, genéticamente, sin embargo, se hallan vinculados a
ésta de la más íntima manera. El totemismo primera forma de religión que conocemos,
contiene como piezas indispensables de su sistema una serie de preceptos y
prohibiciones que, naturalmente, no son sino otras tantas renuncias instintuales: la
adoración del tótem, que incluye la prohibición de dañarlo o de matarlo: la exogamia, es
decir, la renuncia a la madre y a las hembras de la horda, apasionadamente deseadas ;
la igualdad de derechos establecida para todos los miembros de la horda fraterna, o sea,
la restricción del impulso a resolver violentamente la mutua rivalidad. En estos preceptos
hemos de ver los primeros orígenes de un orden ético y social. No dejamos de advertir
que aquí se manifiestan dos distintas motivaciones. Las dos primeras prohibiciones se
ajustan al espíritu del padre eliminado, perpetúan en cierto modo su voluntad ; el tercer
precepto, en cambio, el de iguales derechos para los hermanos aliados, prescinde de la
voluntad paterna y sólo se justifica por la necesidad de mantener el nuevo orden
establecido una vez eliminado el padre, pues sin aquél se habría hecho irremediable la
recaída en el estado anterior. Aquí se apartan los preceptos sociales de los otros,
directamente derivados de un sentido religioso, como bien puede afirmarse.
Los elementos esenciales de este proceso se repiten en la evolución abreviada del
individuo humano (resaltado mío). También aquí es la autoridad parental, especialmente
la del todopoderoso padre con su amenazante poder punitivo, la que induce al niño a las
renuncias instintuales, la que establece qué le está permitido y qué vedado. Lo que en el
niño se llama «bueno» o «malo» se llamará más tarde, una vez que la sociedad y el
super-yo hayan ocupado el lugar de los padres el bien o el mal, virtud o pecado; pero no
por ello habrá dejado de ser lo que antes era: renuncia a los instintos bajo la presión de
la autoridad que sustituye al padre y que lo continúa (Freud, 1968, p.250).
3. MISCELANEAS
Ha quedado claro que en este trabajo no se ha pretendido establecer una taxonomía
exhaustiva de las metáforas utilizadas en ciencia, por lo cual es natural que muchísimas de
ellas, algunas de gran importancia en la historia del conocimiento, hayan quedado fuera del
análisis o la mención. Existe una amplia variedad de metáforas en ciencia, cuyos objetivos
son un tanto más modestos desde el punto de vista estrictamente teórico que los señalados
hasta aquí, aunque no por ello menos efectivos. Se trata, en muchos casos, de metáforas no
ocultas, es decir de metáforas que cumplen con el papel que tradicionalmente se les ha
asignado: retórico, didáctico, estilístico. Dado que su carácter queda inmediatamente
patentizado su uso queda legitimado al tiempo que no ocasiona menoscabo alguno al resto
del texto, considerado no- metafórico para una epistemología estándar.
Hay científicos que son maestros de la metáfora y tal es el caso de Darwin. En la
sexta edición de El Origen de las Especies se sintió obligado a aclarar el sentido de la
expresión ‘lucha por la vida’:
“Utilizo este término en un sentido amplio y metafórico, que incluye la dependencia de un
ser respecto de otro y, lo que es más importante, no sólo la vida del individuo, sino el
éxito en dejar descendientes. De dos animales caninos en tiempo de escasez puede
decirse verdaderamente que luchan entre sí para dirimir quién obtendrá alimento y vivirá.
Pero de una planta en el límite de un desierto se dice que lucha por la vida contra le
sequedad, aunque fuera más propio decir que depende de la humedad (...)”
Se trata de una metáfora que en algunas de sus apropiaciones, sobre todo del lado
de las ciencias sociales ha dado lugar a versiones gladiatorias y guerreras de la sociedad y
sus relaciones. El proceso que han sufrido metáforas como estas, que por lo menos en
principio se formularon sin otra vocación que ser metáfora en el sentido tradicional de
lenguaje figurado, hacia apropiaciones y utilizaciones literales en áreas ajenas, resulta ser
una muestra más del carácter fuertemente epistémico y cognoscitivo que tienen. En efecto,
nada más claro que los desplazamientos y cambios de estatus de estas metáforas abiertas y
francas que se convierten en su transcurrir diacrónico en versiones literales.
Otra metáfora, que por otra parte no es original de Darwin, el ‘árbol de la vida’,
muestra otra clase de proceso de apropiación metafórica en el cual el mismo concepto
puede servir, en dos contextos diferentes, a teorías diferentes o incluso incompatibles. La
metáfora del árbol de la vida le sirve a Darwin para ilustrar que la mayor o menor cercanía
en ese árbol imaginario era indicativo del grado de parentesco entre las especies, y de la
antigüedad en que, de algún antecesor común, surgieron las variedades que habrían dado
lugar a las dos especies en cuestión. Recorrer ese árbol de arriba a abajo es ir desde la
actualidad hasta el origen de la vida. Así se expresaba Darwin en las últimas páginas de El
Origen :
“Así como los brotes dan origen, por crecimiento, a nuevos brotes, y éstos, si son
vigorosos, se ramifican y sobrepujan por todos lados, a muchas ramas más débiles, si
también, a mi parecer, ha ocurrido en el gran árbol de la vida, que con sus ramas
muertas y rotas llena la corteza terrestre y cubre su superficie con sus hermosas
ramificaciones, siempre en constante bifurcación”
La misma metáfora había sido usada por K. von Linne (1707-1778) en el siglo XVIII
para clasificar a las especies según ciertos criterios de distinta índole. Habitualmente se
sostiene, y con razón que Linne era un fijista, es decir que no creía en la evolución y
entonces lee la metáfora del árbol de la vida de manera estática, sincrónica y poniendo el
acento en el orden, la armonía y el sentido de la creación, mientras que la lectura
darwiniana, diacrónica y genética, le otorga una significación completamente diferente79.
En otro orden de cosas, es lo suficientemente conocido el episodio histórico en el cual
N. Bohr adoptó, en 1913, el modelo del sistema solar copernicano, adopción que tras el
éxito inicial comenzó a acusar serias limitaciones, que llevaron finalmente a W. Heisemberg
a proponer pocos años más tarde la eliminación del uso de modelos representables del
átomo. Dirac escribió en este sentido en 1930:
“La tradición clásica consideraba al mundo como una asociación de objetos observables
(...) Sin embargo, desde hace relativamente poco tiempo cada vez es más evidente que
la naturaleza funciona de acuerdo con un plan diferente. Sus leyes fundamentales no
gobiernan el mundo tal como aparece en nuestra imagen mental de un modo directo,
sino que controlan un sustrato del que no podemos formarnos una imagen mental sin
introducir irrelevancias” (Dirac, 1930, 25)
Hacia fines del siglo XIX se dio una disputa entre C. Maxwell y Lord Kelvin a
propósito de la representación del campo eléctrico, propuesta por el primero, sobre la base
79
Richards (1992) hace una lectura diferente e interesante, señalando que se ha considerado a
Linneo como el paradigma de la biología esencialista y fijista, anclada firmemente en el aristotelismo y
en la escolástica. Sostiene Richards que esto es así para las obras anteriores a 1753, pero en los
escritos posteriores Linneo se habría ido alejando de los planteamientos escolásticos que, sin duda,
estaban presentes con anterioridad: los géneros anteriores, propios de un sistema de clasificación
descendente (que va de lo general a lo especial), habrían dejado paso a géneros posteriores,
asociados a una vía de clasificación ascendente (que parte de las especies para construir los
géneros); el sistema de denominación esencialista porfiriano habría resultado desbordado por la
propia variedad de los especímenes y habría conducido a la nomenclatura binomial; por último, la
tesis sobre el carácter primitivo y fijo de las especies habrían dejado paso a concepciones en las que
la hibridación, gobernada por las leyes de la Naturaleza, sería la responsable de las especies
actualmente presentes. En este sentido, habría un incipiente aporte a corrientes que desembocaron
posteriormente en el evolucionismo del siglo XIX.
de las propiedades de un fluido incompresible imaginario (éter). Tal debate se inscribe en la
discusión más general referida al status ontológico de los referentes de los términos teóricos
entre realistas e instrumentalistas. Así se expresaba en un principio Maxwell:
“Por consiguiente el primer proceso del estudio efectivo de la ciencia tiene que ser de
simplificación y reducción de los resultados de las investigaciones previas a una forma
de inteligencia que pueda captarlas. Los resultados de tal simplificación pueden adoptar
la forma de una fórmula puramente matemática o la de una hipótesis física: en el primer
caso perdemos de vista enteramente el fenómeno a explicar, y, aunque podemos seguir
las consecuencias de unas leyes dadas, no es posible jamás llegar a un panorama más
amplio de las conexiones del asunto; si, por el contrario, adoptamos una hipótesis física
vemos los fenómenos sólo a través de un medio, y estamos expuestos a la ceguera ante
los hechos y el apresuramiento en las suposiciones que la explicación parcial tanto
alienta. Por tanto, tenemos que descubrir algún método de investigación que permita a la
mente asirse en todo momento a una concepción física clara sin comprometerse a
ninguna teoría fundada en la ciencia física de la que se tome dicha concepción, de modo
que ni se vea arrastrada lejos de su asunto en persecución de sutilidades analíticas ni
llevada más allá de la verdad por una hipótesis favorita. (...) Al referir todo a la idea
puramente geométrica del movimiento de un fluido imaginario espero alcanzar
generalidad y precisión, y evitar los peligros que proceden de una teoría prematura que
profese explicar la causa de los fenómenos (...) La sustancia de que aquí trato (...) no es
siquiera un fluido hipotético que introdujese para explicar los fenómenos reales: es
meramente una colección de propiedades imaginarias que puede emplearse para
asentar ciertos teoremas de la matemática pura de modo más inteligible para muchas
mentes y más aplicable a los problemas físicos que aquel en que sólo se usan símbolos
80
algebraicos” (citado en Black, 1962 [1966, p. 223])
Lord Kelvin, por su parte adopta una posición realista sobre el mismo problema:
“Es preciso no escuchar insinuación alguna de que hayamos de considerar el éter
luminífero como una manera ideal de exponer las cosas. Que hay una materia real entre
nosotros y las estrellas más remotas eso es lo que creo, y que la luz consiste en
movimientos reales de tal materia (citado en Black, 1962 [1966, p. 224])
Hay una profunda diferencia entre considerar al éter como algo conveniente y útil con
fines heurísticos al modo de Maxwell y considerarlo como una ‘materia real’ al modo de Lord
Kelvin. Una cosa es pensar como si tal entidad existiera y otra es sostener que
efectivamente hay tal materia. Arriesgar afirmaciones sobre la existencia y no meramente
ficciones heurísticas, representa una ventaja explicativa pero se expone a los peligros del
engaño, tal como la historia posterior del éter ejemplifica suficientemente.
En la actualidad se encuentran plenamente vigente una serie de metáforas
sumamente potentes relacionadas con la biología y con los estudios sobre la mente. Las
explicaciones acerca de la herencia se han convertido, a través del uso de modelos
lingüísticos y de teoría de la información, en afirmaciones en las que aparecen conceptos
tales como ‘información’, ‘mensajes’ y ‘código’. F. Jacob (1977) sostiene:
“Estos mensajes sólo son de hecho un solo escrito (...) por la combinatoria de cuatro
radicales químicos. Estas cuatro unidades se repiten por millones a lo largo de la fibra
cromosómica: se combinan y permutan infinitamente como las letras de un alfabeto a lo
largo de un texto del mismo modo que una frase constituye un segmento del texto, un
gen corresponde a un segmento de la fibra nucleica” (Jacob, 1970 [1977,p. 23])
80
Black señala que poco después Maxwell avanza mucho más hacia los compromisos ontológicos.
En su trabajo sobre la acción a distancia habla del “maravilloso medio” que llena todo el espacio, y ya
no mira las líneas de fuerza de Faraday como “concepciones puramente geométricas”: ahora dice sin
ambages que “no hay que mirarlas como meras abstracciones matemáticas: son las direcciones en
que el medio ejerce una tensión, parecida a la de una cuerda o. Mejor, a la de nuestros propios
músculos”. Verdaderamente, ésta no es forma alguna de hablar acerca de una composición de
propiedades imaginarias: el medio puramente geométrico se ha convertido en algo muy sustancial.
La idea básica prevaleciente en la biología actual es que el desarrollo de organismos
complejos depende de la existencia de información genética que al nivel de los genes puede
copiarse mediante una especie de plantilla. Pero lo que se transmite de una generación a la
otra es una lista de instrucciones para construir al individuo y el organismo se convierte en la
realización de un programa prescrito por la herencia y que haya distintas clases de seres
depende de distintas instrucciones escritas en los mismos tipos de caracteres. Maynard Smith
se pregunta y responde:
“¿Debemos pensar en un gen (es decir, una molécula de ADN) como una estructura que
se replica, o bien como una información que se copia o se traduce?. En los organismos
actuales un gen es ambas cosas. Por un lado hace de plantilla en la replicación génica,
de modo que a partir de un único modelo se hacen copias idénticas. Si esto fuera todo,
la molécula de ADN sería simplemente una estructura que se replica. Pero los genes
también especifican los tipos de proteínas que una célula puede producir.” (Maynard
Smith y Szathmary, 2001, p. 27)
Fox Keller (1995) rastrea la relación entre genes y mensajes y sostiene que, hasta
mediados del siglo XX prevaleció la analogía con la tecnología del telégrafo, que fue
desplazada, hacia esa fecha, por la tecnología de la computadora, pero siempre bajo la lógica
de la información.
Una variante de la metáfora es la que insiste en ver a la mente como una computadora
o también y como contraparte a la computadora como una mente. Se establece según la
analogía mente/cerebro = software/hardware. Los desarrollos en inteligencia artificial se basan
en esta metáfora81. En general no plantean que el comportamiento del cerebro se desarrolla
según algoritmos deterministas sino con algoritmos que incluyen elementos estocásticos, con
lo cual se salvan los aspectos que, al menos fenoménicamente aparecen como creativos o no
provenientes de antecedentes identificables con facilidad.
La historia de la filosofía, por su parte, está plagada de metáforas, algunas realmente
maravillosas y memorables. Baste recordar la serie de fragmentos de Heráclito acerca del
río o acerca del fuego. Platón, maestro de las metáforas ha dejado entre otras su alegoría
de la caverna que se repite una y otra vez. El ‘giro copernicano’ a que se refiere Kant para
dar cuenta de un nuevo enfoque acerca del conocimiento. El búho de Minerva que, según
Hegel, levanta vuelo al atardecer. Las mónadas, sin ventanas para Leibniz, con ventanas
para Husserl y tiradas en la calle para Heidegger. La tábula rasa de Locke. El Leviathan de
Hobbes. El ‘contrato social’ de los contractualistas del siglo XVII en adelante. El ‘cuerpo
político’. Los esfuerzos por explicar el estatus de la mente humana han dado lugar, también,
a una amplia gama de metáforas en la filosofía. Así, se ha dicho que la mente es un
recipiente, que se va llenando a lo largo de la vida con conocimientos; que es una red como
la de las computadoras; o bien que es como un programa de computación; que es la
manifestación de las metas y deseos de la sociedad; que es una especie de fantasma en
una máquina.
También la epistemología ha utilizado metáforas muchas veces, tales como la
evolucionista de las últimas décadas. Pero, quizá la metáfora de uso más extendido en la
epistemología de las últimas décadas, sea la de la ‘revolución científica’. El derrotero del
concepto de ‘revolución’ puede mostrar, al modo de caso testigo, la gran agilidad y movilidad
que algunas metáforas adquieren. Un brevísimo análisis de la génesis del concepto puede
mostrarlo.
Durante la edad Media y hasta el Renacimiento el significado principal de ‘revolución’
era astronómico: se refería a las revoluciones diarias observadas en las estrellas, el Sol, la
Luna y los planetas. Pero, por esos años se pensaba que las revoluciones de los planetas
regían los asuntos del Estado. Los grandes astrónomos fueron también grandes astrólogos,
pero no ‘además’, sino como parte de un saber común no escindido.
81
Ursúa (1993) relaciona la idea del cerebro como una computadora con la epistemología
evolucionista y con la Inteligencia artificial.
Curiosamente, o quizá no tanto, lo que hoy llamamos ‘la Revolución Científica’ se
inaugura con la publicación por parte de N. Copérnico, de De Revolutionibus Orbium
Coelestium (Sobre las revoluciones de las esferas celestes).
Pero ya hacia el Renacimiento y fundamentalmente en el siglo XVII ‘revolución’
comenzó a adquirir una gama de significados con matices diferentes. Se designaba de ese
modo cualquier suceso periódico (o cuasi periódico) y, por añadidura comenzó a nombrar
cualquier grupo de fenómenos que atraviesan un conjunto de etapas sucesivas como un
ciclo, dando metafóricamente la idea de ‘completar el círculo’. Tanto al flujo y reflujo de las
mareas, como al ascenso y caída de las civilizaciones se las llamaba ‘revoluciones’. Si bien
todas estas acepciones están evidentemente relacionadas con el sentido original
astronómico de giro o de circunferencia, aparece una primera gran transformación en el
concepto en cuanto pasa de una utilización circunscripta sólo al comportamiento de los
objetos celestes a asuntos relacionados con el quehacer, y la vida de los humanos.
El término ‘revolución’ comienza, por esos tiempos, a incluir múltiples acepciones
relacionadas con las ideas de ‘giro’, ‘rueda’, ‘rodar’, ‘ciclo’, etc.:
“Una de las cartas más importantes de los tarocchi (tarot), los naipes utilizados por los
adivinadores de fines de la edad Media y el Renacimiento, es la rota di fortuna o rueda
de la fortuna. Se creía que la rotación de esa rota determinaba el destino de los
hombres. es decir, dos tipos de ‘giro’ afectaban e incluso determinaban la vida de los
hombres y la situación del Estado: la rotación de la rueda de la fortuna y la revolución de
las esferas celestes. Tal vez , como sugiere H. Guerlac, el surgimiento de la palabra
‘revolución’ esté asociado con ambas, como se pone de manifiesto en la frecuencia con
que aparece rivlouzione asociada con rota di fortuna. Aunque el giro de una rueda es
cíclico, nada indica que al final del movimiento la rueda se encontrará en el mismo lugar
donde lo inició. Por consiguiente, la rueda de la fortuna no implica un retorno o la
finalización de un ciclo, como sucede con las revoluciones de las esferas celestes.(...)
En el Renacimiento y los siglos XVI y XVII se asociaba la palabra ‘revolución’ con la idea
de las evoluciones de la gran rueda del tiempo. Este concepto lejos de ser una metáfora
intelectual, aparecía en imágenes y objetos físicos. En los relojes de los campanarios
renacentistas se advertía la revolución continua de la aguja que señalaba el paso del
tiempo. Otra imagen del paso del tiempo era el movimiento diario aparente de la esfera
celeste con el Sol, la Luna y las estrellas. La rueda del tiempo también evocaba la
traslación del Sol en su órbita anual aparente entre las estrellas fijas. La revolución diaria
(que hoy se llama rotación) de la esfera celeste trae consigo el paso de la mañana al
mediodía, a la tarde y a la noche en un ciclo cotidiano de 24 horas. (...) La cualidad
significativa de estas revoluciones reside no sólo en que son cíclicas o repiten
fenómenos sucesivos en el sentido de retornar, sino que en el transcurso de cada una se
producen cambios dramáticos de gran importancia (el día y la noche, el invierno y el
verano, etc.)” (Cohen, 1985 [1989,p. 65])
Pero el concepto de ‘revolución’ habría de sufrir otra gran transformación con la
aplicación a los sucesos políticos, a propósito de las revoluciones modernas.
“En la primera edición de la Encyclopaedia Britannica (1771) se dice que una revolución
‘en la política’ significa ‘un cambio importante o un vuelco en el gobierno’. Se añade que
el término es utilizado ‘como ejemplo eminente’ para el ‘gran cambio en los
acontecimientos de Inglaterra, en el año 1688, cuando el Rey Jacobo II abdicó del trono
y el príncipe y la princesa de Orange fueron declarados rey y reina de Inglaterra, (...). La
cuarta edición de la E. Britannica (1811) mencionaba cuatro revoluciones políticas: “la
que se llama la revolución en Gran Bretaña (la Revolución Gloriosa de 1688) , la
revolución americana, la revolución que tuvo lugar en Polonia a fines del siglo XVIII (por
la cual Polonia quedó repartida entre Austria, Prusia y Rusia) y la revolución francesa,
calificada como ‘la más extraordinaria de todas, sea por los hechos que la acompañaron
como por las consecuencias que la siguieron”( Cohen, 1985 [1989, p. 60])
Consumadas estas grandes revoluciones ‘burguesas’, en el s. XIX ya se tiene
conciencia de que ha habido, también, una ‘revolución industrial’ y la idea de revolución
política comienza a estar indisolublemente vinculada a las reivindicaciones sociales y a una
sensación de violencia asociada con el cambio rápido. Más allá de estas variantes el
concepto de ‘revolución’ adquiere definitivamente la idea de ‘acto fundacional’ de procesos
incompatibles con un estado anterior; de rupturas realizadas de un modo más o menos
brusco; de inauguración de procesos nuevos.
Todavía en los siglos XVI y XVII, convivían dos sentidos aparentemente opuestos de
‘revolución’: por un lado designaba el acto de atravesar las etapas de un ciclo que culmina
en una situación idéntica o similar a otra anterior, o la continuación de ese ciclo; por el otro
el proceso de flujo y reflujo que no necesariamente es periódico. De este conjunto de usos
e implicaciones surgió gradualmente el concepto de revolución como cambios de gran
magnitud no cíclicos. Sin embargo, el matiz de giro o vuelta, como ‘restauración’ de un
estado anterior perdido, ha persistido:
“(...) Desde la antigüedad se ha pensado que un mejoramiento radical significa el retorno
a una situación pretérita, una Edad de Oro. La idea de que progresar significa volver
atrás el reloj o el calendario está asociada con el concepto de la decadencia continua del
mundo o de las condiciones de vida, un proceso que - según el pensamiento religioso de
Occidente - se remonta al pecado original y la expulsión del hombre del paraíso”.
(Cohen, 1985 [1989, p. 61])
En los pensadores políticos de la modernidad esta dialéctica de restauración inauguración adquiere una dinámica particular. El contenido revolucionario respecto del
orden feudal, de la propuesta de pensadores como por ejemplo T. Hobbes (1588 - 1679), J.
Locke (1632 - 1704) y J.J. Rousseau (1712 - 1788), entre otros, se fundaba en la igualdad
‘por naturaleza’ de los hombres. La burguesía en ascenso por esos años, desequilibra el
ancienne regime disputándole la legitimidad de la soberanía a la nobleza, bajo la indicación
de que si somos todos iguales la obediencia y sometimiento al soberano político es un acto
de voluntad individual (el ‘contrato social’). Así, la construcción del estado civil o político
debía respetar esa ‘naturaleza humana’ igualitaria. Esta concepción del hombre que nos
parece tan natural, resultó revolucionaria por aquellos años en tanto se oponía al modelo
clásico vigente. Modelo jerárquico y teleológico que básicamente afirmaba la desigualdad de
los hombres por naturaleza y, consecuentemente, la ubicación de éstos en la escala social
predeterminada por ‘nacimiento’.
Prevalece el sentido de inauguración dado que la invocación a la ‘recuperación’ de
una ‘igualdad natural’ no implica la vuelta a un estado histórico perdido. El ‘estado de
naturaleza’ no es un momento histórico sino una ‘idea regulativa’, un ‘deber ser’ ahistórico.
Remarquemos aquí dos conceptos:
• el concepto de revolución política, en lo formal indica un cambio brusco, una ruptura
respecto de lo anterior, la inauguración de un nuevo proceso
• el caso particular de las revoluciones modernas se efectúa bajo el supuesto de la
igualdad de los hombres. Esto se puede aplicar de un modo genérico tanto a las
revoluciones burguesas de los siglos XVII y XVIII como los intentos revolucionarios
ocurridos en la Europa del s. XIX, realizados en nombre del logro de una igualdad ‘real’
y material que completara la ya lograda igualdad formal y abstracta que fuera bandera
de las revoluciones burguesas.
Pero el concepto de ‘revolución’ ha sido también profusamente utilizado para dar
cuenta de los cambios que se producen en el conocimiento científico, heredando el carácter
de cambio brusco y fundacional que tiene en la política y, en general incluyen cambios en
conceptos fundamentales, modificaciones radicales en las normas aceptadas y habituales
de explicación, postulados y axiomas nuevos, nuevas formas aceptables de conocimiento y
nuevas teorías.
I. B. Cohen propone, desde el análisis histórico, dos tipos de criterios para determinar
que se ha producido una revolución científica. El primero hace referencia a “las etapas
sucesivas que integran una secuencia característica de todas las revoluciones en la ciencia”:
la primera etapa (de la ‘revolución intelectual’ o ‘revolución en sí’) ocurre cuando un
científico o grupo de científicos “elabora una solución novedosa para un problema o grupo
de problemas importantes, descubre un nuevo método de utilización de la información,
propone un nuevo marco de conocimiento que permite emplear la información existente de
manera distinta, introduce un conjunto de conceptos que altera el carácter del conocimiento
existente o propone una teoría nueva y revolucionaria”. Esta experiencia individual o
privada, es registrada (y esta es la segunda etapa) en un diario íntimo o cuaderno. La
tercera etapa, en la que se hace público el descubrimiento y que Cohen llama ‘revolución
en los papeles’ consiste en la publicación de un paper, o una llamada telefónica a colegas,
exposición en coloquios, etc. La cuarta y última (la “revolución en la ciencia”) acaece cuando
la comunidad científica adhiere a la propuesta. Este último nivel de análisis corresponde a lo
que suele llamarse ‘sociología de la ciencia’, tema en el que no nos adentraremos y que, per
se, amerita un análisis exhaustivo y exclusivo. El segundo criterio es el del análisis histórico
y requiere tener en cuenta: los juicios emitidos por observadores científicos y no científicos
de la época; el examen de la documentación histórica vinculada con el tema y posterior a la
época en que se produjo la presunta revolución; el juicio de los historiadores, sobre todo los
de la ciencia y la filosofía; y, por ultimo, “la opinión de los especialistas de nuestros días (...)
En este último tipo de testimonios se da gran importancia a la tradición científica viva, a la
mitología que forma parte de la herencia de los científicos. Los mitos desempeñan un papel
importante en la ciencia, análogo al que juegan en la sociedad en general, aunque pocos lo
reconocen. Si bien los mitos sobre los héroes de la ciencia y sus presuntas revoluciones no
constituyen pruebas históricas de sucesos del pasado, contienen en cambio, indicios sobre
hechos de gran magnitud e influencia en el desarrollo de la ciencia. Las creencias de los
científicos sobre su pasado refuerzan las pruebas aportadas por las tres primeras pruebas”.
(resaltado mío)
La formulación más fuerte del aspecto de radical novedad respecto de lo anterior de
las revoluciones científicas aparece de la mano de T. Kuhn, por lo menos en su trabajo de
1962/69. El planteo de Kuhn apunta a mostrar que en el desarrollo de la ciencia los periodos
de continuidad y acumulación se ven interrumpidos por bruscas rupturas: las ‘revoluciones
científicas’. En esos momentos se produce un abandono de lo ya sabido y la inauguración
de nuevas líneas de investigación de la mano de nuevos marcos conceptuales y así, los
‘paradigmas’ determinan qué tipos de preguntas y de respuestas contendrá la ciencia en
cuestión. Con la adopción de un nuevo paradigma, las antiguas respuestas pueden dejar de
ser importantes y hasta pueden volverse ininteligibles ya que:
“(...) durante las revoluciones los científicos ven cosas nuevas y diferentes al mirar con
instrumentos conocidos y en lugares en los que ya habían buscado antes. Es algo así
como si la comunidad profesional fuera transportada repentinamente a otro planeta,
donde los objetos familiares se ven bajo una luz diferente y, además, se les unen otros
objetos desconocidos. (...)después de una revolución los científicos responden a un
mundo diferente”. (Kuhn, 1962 [1992, p.67])
En el planteo kuhniano no solamente se desmorona la versión acumulativa, sino
también la concepción de que ‘la verdad’ es la meta a la cual el conocimiento científico se
acerca ‘asintóticamente’. Las revoluciones científicas se realizan a partir de rupturas
respecto de lo que conocemos, y no hacia lo que desconocemos. La racionalidad así como
la verdad en ciencia se construyen y reconstruyen históricamente. El concepto de revolución
utilizado es de inspiración política, a tal punto que Kuhn sugiere algunas analogías entre los
dos tipos de sucesos:
“Las revoluciones políticas se inician por medio de un sentimiento, cada vez mayor,
restringido frecuentemente a una fracción de la comunidad política, de que las
instituciones existentes han cesado de satisfacer adecuadamente los problemas
planteados por el medio ambiente que han contribuido en parte a crear. De manera muy
similar, las revoluciones científicas se inician con un sentimiento creciente, también a
menudo restringido a una estrecha subdivisión de la comunidad científica, de que un
paradigma existente ha dejado de funcionar adecuadamente en la exploración de un
aspecto de la naturaleza(...)” (otro paralelo más importante que el primero es que así
como) “Las revoluciones políticas tienden a cambiar las instituciones políticas en modos
que esas mismas instituciones prohíben. Por consiguiente, su éxito exige el abandono
parcial de un conjunto de instituciones en favor de otro y, mientras tanto, la sociedad no
es gobernada completamente por ninguna institución”, las revoluciones. científicas
explican el mundo de un modo incompatible con el anterior que desplaza.”(Kuhn, 1962
[1992, p. 75])
4. EPILOGO
Aunque sea a modo de hipótesis de trabajo se ha mostrado que es posible
compatibilizar algunas de las versiones más conspicuas de las gnoseologías evolucionistas
con la consideración de la producción de metáforas como uno de los mecanismos básicos
del conocimiento. Se trata en suma de la cuestión de ‘¿por qué hacemos metáforas?’. Si
bien ha quedado sin respuesta clara y concluyente, puede sospecharse que una práctica tan
corriente como la de producir metáforas debe constituir uno de los mecanismos más básicos
de las funciones cognoscitivas y probablemente tenga un origen filogenético lo que, desde
una perspectiva evolucionista, explicaría su éxito. Desde el punto de vista de la gnoseología
evolutiva es posible defender la posibilidad de que las metáforas sean uno de los
mecanismos fundamentales de producción de conocimiento y si bien la ciencia excede con
mucho el nivel del sentido común no es implausible suponer que si el conocimiento como
actividad humana se basa en buena medida en la producción de metáforas, también esa
práctica se traslade a la producción de conocimiento científico. Es decir que, en tal sentido,
podría considerarse la generación de analogías, de las cuales las metáforas serían un
subconjunto, como una regla epigenética. La producción o detección de semejanzas sería
un mecanismo cognoscitivo producto de la filogénesis humana, es decir un producto
evolutivo. Se ha propuesto también una epistemología evolucionista en la cual la metáfora
epistémica juega un papel central. La hipótesis básica es que puede defenderse una
continuidad entre las gnoseologías y las epistemologías evolucionistas y que, en este
contexto, las ‘metáforas epistémicas’ constituyen estructuras esenciales para la producción
de conocimiento y pueden ser consideradas como unidades de selección para una
aproximación evolucionista a la historia de la ciencia que pueda evitar los inconvenientes y
objeciones que las epistemologías evolucionistas han suscitado. La perspectiva
evolucionista de la historia de la ciencia, concibe a ésta como un proceso de selección de
metáforas disponibles de distintos niveles de generalidad y procedencia.
El problema de la metáfora tal como se lo ha tratado aquí, como toda perspectiva
nueva parece venir a solucionar algunos problemas pero inaugura, además, una serie de
preguntas y cuestiones nuevas. ¿Cómo funciona una metáfora?, es decir mediante qué
mecanismos intelectuales alguien puede súbitamente establecer una analogía o
comparación novedosa es una cuestión pertinente y relevante. La respuesta, parece,
deberá provenir de consideraciones psicológicas y/o neurofisiológicas. O bien, ¿en qué
condiciones una metáfora tiene éxito?, cuya respuesta implica cuando menos
consideraciones sociológicas, antropológicas y también psicológicas. A los efectos de este
trabajo no resulta necesario ninguna respuesta a la primera pregunta: basta con constatar
que hacemos metáforas habitualmente. La segunda cuestión, en lo que aquí interesa, se
refiere al análisis de las condiciones en las cuales, en la historia de la ciencia, una metáfora
epistémica se instala y es reconocida. Se tratará de una constatación empírica de tal éxito
en las circunstancias particulares y no de plantear la existencia de algún mecanismo general
de apropiación y aceptación de las nuevas configuraciones que las nuevas metáforas
inauguran.
En la segunda parte se ha expuesto una cantidad de ejemplos o episodios de la
historia de la ciencia en los cuales puede vislumbrarse una transferencia metafórica de un
ámbito a otro del conocimiento. El panorama desarrollado no contempla la posibilidad de
plantear una lectura ‘panmetafórica’ de la historia de la ciencia o de la práctica científica,
pero muestra claramente que tampoco puede soslayarse la importancia fundamental de este
tipo de procesos en la producción, legitimación y difusión del conocimiento. Los ejemplos
que se han señalado en los capítulos 4 y 5 son una muestra de las metáforas exitosas, es
decir aquellas que en una lucha por la supervivencia con otras metáforas posibles han salido
airosas. Pero cada episodio citado podría por sí solo constituir el inicio de una investigación
detallada sobre el proceso de transferencia de las metáforas epistémicas. Es algo que está
por hacerse y por eso puede decirse, en términos algo pretenciosos quizá, que la virtud -o el
demérito según se mire- del presente trabajo es la de iniciar un programa de investigación a
partir de la reconsideración del papel de las metáforas en la producción y legitimación del
conocimiento. La tarea que resta, y que no es poca, si es que el planteo desarrollado
pretende convertirse realmente en un programa de investigación dentro de los estudios
sobre la ciencia es analizar episodios de la historia de la ciencia de un modo diacrónico
estableciendo de qué manera efectiva se han dado las disputas entre las metáforas
candidato y principalmente contra qué otras metáforas han debido rivalizar para lograr el
favor de la comunidad científica de su época.
Un programa como el propuesto quizá pueda servir para tender un puente entre los
estudios sobre la ciencia de la línea que pretende la reconstrucción racional de las teorías y
la línea que, desconociendo la entidad de las reconstrucciones, pretende dar cuenta
exhaustiva de la ciencia de manera meramente descriptiva. Un puente que se construya
esquivando las deficiencias que ambas líneas han desnudado en las últimas décadas. El
punto de vista evolucionista puede servir de categoría de análisis de la diacronía de la
ciencia mientras que el concepto de metáfora epistémica puede constituir una categoría de
los aspectos sincrónicos lo suficientemente flexible como para dar cuenta de los aspectos
sumamente variados de la creatividad o la introducción de novedad en ciencia así como de
las interrelaciones entre ciencia y sociedad.
Es un hecho que hacemos metáforas. Y que no sólo hacemos muchas metáforas,
sino que probablemente buena parte de nuestro lenguaje sea de naturaleza metafórica. Si
esto es así y lo que se ha planteado a lo largo de los capítulos precedentes tiene algún
sentido, es hora de reforzar la idea de que el saber y el conocimiento adquieren formas de
expresión diferentes; habrá que comenzar a considerar que el Búho ya no se expresa en
forma literal sino que es un verdadero búho travestido.
En honor a la verdad es justo reconocer que la literatura también ha generado
buenas metáforas a lo largo de los siglos, pero el hecho de que se las haya apropiado y
monopolizado ‘ilegítimamente’ quizá deba ser revisado. Despues de todo, las metáforas de
la ciencia no son menos bellas, y probablemente, incluso sean más ricas y potentes.
BIBLIOGRAFIA
Acero Fernández, J., (1990), Filosofía y análisis del lenguaje, Madrid, Cincel.
Achard, P. et al (1977), Discours biologique et ordre social, París, Editions du Seuil. Versión
en español: Discurso biológico y orden social, México, Nueva Imagen, 1989.
Achinstein, P., (1968), Concepts of Science. A Philosophical Analysis, Baltimore, J.Hopkins.
Adorno, T. et al (1969), Der Possitivismusstreit in der Deutsches Soziologie, Berlín, H.
Luchterhand Verlag. Versión en español: La disputa del positivismo en la sociología
alemana, Barcelona, Grijalbo, 1972.
Agustí, J., (1994) La evolución y sus metáforas. Una perspectiva paleobiológica, Barcelona,
Tusquets.
Agustí, J., (1998), “La paradoja del progreso evolutivo”, en Wagensberg y Agustí, 1998.
Alberch, P., (1998), “El concepto de progreso y la busqueda de teorías generales en la
evolución”, en Wagensberg y Agustí, 1998.
Albert, H., (1982), La ciencia y la búsqueda de la verdad, en Radnitzky y Anderson, 1982.
Albizu, E., (1993), “Mundo como metáfora metafisica”, en Escritos de Filosofía Nº
23/24:Metáfora, Buenos Aires, Academia de Ciencias.
Alexander, R., (1979), Darwinism and human affairs, Seattle, University of Washington
Press. Versión en español: Darwinismo y asuntos humanos, Barcelona, Salvat, 1987.
Aliseda-Llera, A., (1997), Seeking explanations: abduction in logic, philosophy and artificial
intelligence, Ed. Propia.
Althabe, G. Y Schuster, F., (1999), Antropologia del presente, Buenos Aires, EDICIAL.
Althabe, G., (1999), “Hacia una antropologia del presente”, en Althabe y Schuster, 1999.
Althabe, G., (1999), “Lo microsocial y la investigación antropológica de campo”, en Althabe y
Schuster, 1999.
Alvargonzález, D., (1996), “El darwinismo visto desde el materialismo filosófico”, El Basilisco,
Nº 20, pp. 3-46.
Apostel, L., (1987), “Evolutionary epistemology, genetic epistemology, history and”, en
Callebaut y Pinxten, 1987.
Arenas, L., Muñoz, J., Perona, J., (1997), El desafio del relativismo, Madrid, Trotta.
Ares, F., (1996), “Evolución de la inteligencia y computadores”, en Molina (edit.), 1996.
Aristóteles, (1990), Poética, Caracas, Monte Avila.
Aristóteles, (2000), Retórica, Madrid, Alianza.
Asúa, M. de (ed), (1993), La historia de la ciencia. Fundamentos y transformaciones, Buenos
Aires, C.E.A.L.
Ayala, F., (1987), La naturaleza inacabada, Barcelona, Salvat.
Ayala, F., (1998), “Beyond darwinism? The challenge of macroevolution to the synthetic
theory of evolution”, en Ruse, 1998.
Ayala, F., (1998), “Teleological explanations”, en Ruse, 1998.
Ayala, F., (1999), La Teoría de la evolución, Madrid, Temas de hoy.
Ayer, A. (comp.) (1959), Logical Positivism, Glencoe, The Free Press. Versión en español: El
positivismo lógico, México, FCE, 1965.
Ayer, A., (1958), Language, Truth and Logic, Londres, V. Gollancz. Versión en español:
Lenguaje, verdad y lógica, Buenos Aires, Eudeba, 1965.
Bachelard, G., (1972), L’engagement rationaliste, París, Presses Universitaires de France.
Versión en español: El compromiso racionalista, Madrid, Siglo XXI, 1998.
Bacon, F., (1984), Novum organum, Madrid, Sarpe.
Barlow, C. (ed), (1995), Evolution Extended, Massachusetts, MIT Press.
Barnes, B., (1985), “El problema del conocimiento”, en Olivé (comp.), 1985.
Barnett, S. et al (1962), Acentury of Darwin, Londres, Heineman Educational Books Ltd.
Versión en español: Un siglo después de Darwin. 1. La evolución, Madrid, Alianza, 1966 .
Bartley, W., (1982), “A popperian harvest”, en Levinson, P. (edit.), In pursuit oftrutuh: essays
on the philosophy of Karl Popper on the ocassion of his 80th birthday, Atlantic Highlands,
Nueva York, Humanities Press & Sussex, Harvester Press, 249-284
Bartley, W., (1987), “Philosophy of biology vs. philosophy of physics”, en Radnitzky y Bartley,
1987.
Bartley, W., (1987), “Theories of rationality”, en Radnitzky y Bartley 1987.
Basalla, G. (1988), La evolución de la tecnología, Barcelona, Crítica.
Battistini, A., (2000) “El libro, el laberinto, la fábrica del mundo. Metáforas epistemológicas
de la nueva ciencia de Galileo”, en Sevilla Fernández y Barrios Casares, 2000.
Bauer, H.H. (1992), Scientific Literacy and the Myth of Scientific Method. Urbana, U. Illinois
Press.
Baynes, K., Bohman, J. y MacCarthy, Th., (1995), Philosophy. End or transformation?,
Massachusetts, MIT Press.
Bergmann, M., (1991), “Metaphorical assertions”, en Davis, 1991.
Bethell, T., (1998), “Darwin's mistake”, en Ruse, 1998.
Black, M., (1962), Models and metaphors, Ithaca, Cornell University Press. Versión en
español: Modelos y metáforas, Madrid, Tecnos, 1966.
Black, M., (1977), “More about metaphors”, Dialectica, 31; reimpreso en Ortony, (ed.), 1979.
Bloor, D., (1985), “El programa fuerte en la sociología del conocimiento”, en Olivé. (comp.),
1985.
Bloor, D., (1985), “La experiencia sensorial, el materialismo y la verdad”, en Olivé (comp.),
1985.
Bloor, D., (1971), Knowledge and Social Imaginary, David Bloor. Versión en español:
Conocimiento e imaginario social, Barcelona, Gedisa, 1998.
Boido, G., (1993), “La polémica sobre el enfoque whig en la historia de la ciencia”, en
Análisis Filosófico, Buenos Aires, SADAF.
Boido, G., (1996), Noticias del planeta Tierra. Galileo Galilei y la revolución científica,
Buenos Aires, AZ Editora.
Bosch, G., (1930), “Los propósitos de la ‘Liga argentina de Higiene Mental”, en Revista de la
Liga Argentina de Higiene Mental, Buenos Aires, Año 1, N° 1.
Bradie, M., (1994), Epistemology from an evolutionary point of view, en Sober (edit), 1994.
Bradie, M., (1997), “Una evaluacion de la epistemologia evolucionista”, en Martínez y Olivé,
1997.
Brannigan, A., (1981), The social basics of scientific discoveries, Cambridge University
Press.
Burke, K., (1945), Grammar of motives, New Jersey, Prentice Hall.
Burtt, E., (1925), The Metaphysical Foundations of Physical Science,Nueva York, Harcourt,
Brace and Co. Versión en español: Los Fundamentos metafísicos de la ciencia moderna,
Buenos Aires, Sudamericana, 1960.
Bustos, E. de, (edit) (2001), La metáfora, Madrid, FCE.
Bustos, E. de, García Bermejo, J., Pérez, (1994), Perspectivas actuales de lógica y filosofía
de la ciencia, Madrid, Siglo XXI.
Butterfield, H., (1993)“La interpretación Whig de la historia”, en de Asúa, 1994.
Callebaut, W. y Pinxten, R. (edit) (1987), Evolutionary epistemology, Dordrecht, Reidel.
Callebaut, W. y Pinxten, R., (1987), “Evolutionary epistemology today: converging views from
philosophy, the natural and social sciences”, en Callebaut y Pinxten (edit) 1987.
Campbell, D., (1987), “Blind variation and selective retention in creative thought”, en
Radnitzky y Bartley (edit.) 1987.
Campbell, D., (1987a), “Selection theory and the sociology of scientific validity”, en Radnitzky
y Bartley (edit.) 1987.
Campbell, D., (1997), “Epistemologia evolucionista”, en Martínez y Olivé, 1997.
Campbell, N. R., (1920), Physics: the elements, Cambridge, Cambridge University Press.
Canguilhem, G., (1966), Le normal et le pathologique, París, Presses Universitaires de
France. Versión en español: Lo normal y lo patológico, Mexico, Siglo XXI editores, 1971.
Carnap, R., (1928), Der logische Aufbau der Welt, Berlín, Weltkreis.
Carnap, R. et al (1929), Wissenschaftliche Weltauffassung. Der Wiener Kreis, Viena, A. Wolf
Verlag. Versión en español: “La Concepción Científica del mundo: el Círculo de Viena”,
REDES, Vol.9, N° 18, PP. 103-149, Buenos Aires, Universidad Nacional de Quilmes, 2002.
Carnap, R., (1965), “La antigua y la nueva lógica”, en Ayer. (comp.), 1959.
Carnap, R., (1965a), “La superacion de la metafisica mediante el analisis lógico”, en Ayer
(comp.), 1959.
Carnap, R., (1965b), “Psicologia en lenguaje fisicalista”, en Ayer (comp.), 1959.
Carnap, R., (1966), Philosophical Foundations of Physics, Nueva York, Basic Books. Versión
en español: Fundamentación lógica de la física, Barcelona, Hispamérica, 1985.
Castrodeza, C., (1989), Ortodoxia darwiniana y progreso biológico, Madrid, Alianza.
Castrodeza, C., (1999) Razón biológica. La base evolucionista del pensamiento, Madrid,
Minerva ediciones.
Chorover, S. L., (1979), From Génesis to genocide, Nueva York, MIT. Versión en español: Del
génesis al genocidio, Buenos Aires, Editorial Orbis S.A, 1985.
Ciampi, L., (1922), “La doctrina eugénica y la infancia anormal”, Revista de filosofía, cultura,
ciencias y educación, Buenos Aires, Vol. 16, N° 4, pp. 110-132.
Clagett, M., (1959), The Science of Mechanics in the Middle Ages, Madison.
Clark, A., (1987), “The philosophical significance of an evolutionary epistemology”, en
Callebaut y Pinxten (edit) 1987.
Cohen, I., (1960), The Birth of a New Physics,Nueva York, Doubleday and Co. Versión en
español: El nacimiento de una nueva física, Buenos Aires, Eudeba,1971.
Cohen, I., (1985), Revolution in Science, Cambridge, Harvard University Press. Versión en
español: Revolución en la ciencia, Barcelona, Gedisa, 1989.
Cohen, I., (1995), Interactions, Massachussets, MIT Press.
Collins, H.M., (1974), “The TEA set: tacit knowledge and scientific networks”, Science
Studies, Vol. 4, pp. 165-185.
Collins, H.M., (1983), “The sociology of scientific knowledge: studies of contemporary
science”, Annual Review of Sociology, Vol. 9, pp. 265-285.
Cordero, A., (1997), “Las ideas evolucionistas y el naturalismo contemporáneo”, en Martínez
y Olivé, 1997.
Creath, R. y Maienschein, J., (2000), Biology and epistemology, Cambridge, Cambridge
University Press.
Crombie, A. C., (1952), From Augustine to Galileo, Londres. Versión en español: Historia de
la ciencia: de San Agustín a Galileo, Madrid, Alianza, 1974
Danesi, M., (1990), “Thinking is seeing: visual metaphors and the nature of abstract thought”,
Semiótica, 80, pp. 221-237
Danesi, M., (1993), Vico, metaphor and the origin of language, Indiana University Press,
Bloomington.
Danesi, M., (1998), Sign, thought and culture: a basic course in semiotics, Canadian
Scholars Press, Toronto.
Danesi, M., (2000), “La metáfora y la formacion de los conceptos abstractos”, en Sevilla
Fernández y Barrios Casares (edit.) 2000.
Darwin, Ch., (1859), On the Origin of Species by Means of natural Selection or the
Preservation of the favored Races in the Struggle for Life, Londres, J. Murray. Versión en
español: El Origen de las especies, Barcelona, Planeta De Agostini, 1985.
Darwin, Ch., (1871), Descent of man, Londres, J. Murray. Versión en español: El origen del
hombre, Madrid, Edaf, 1994.
Darwin, F. (ed.), (1892), The Autobiography of Charles Darwin and Selected Letters,
Londres, J. Murray. Versión en español: Autobiografia y cartas escogidas, Madrid,
Alianza,1997.
Davidson, D., (1984), Inquiries into Truth and Interpretation, Oxford, Clarendon (reimpreso
en Davis, S., 1991). Versión en español: De la verdad y de la interpretación, Barcelona,
Gedisa, 1995.
Davis, S., (1991), Pragmatics, N.Y, Oxford Univ. Press.
Dawkins, R., (1988), The Selfish Gene, Oxford, Oxford University Press. El gen egoísta,
Barcelona, Salvat, 1993.
de Bustos, E., (2000), La metáfora, Madrid, FCE.
De Coorebyter, V. (ed) (1994), Rhetoriques de la Science, París, PUF.
de La Mettrie, 1981), L’Homme machine, Denoel
Descartes, R. (1967), Obras escogidas, Buenos Aires, Edit Sudamericana
di Trocchio, F., (1993), Le bugie della scienza. Perché e come la scienzati imbrogliano,
Milan, A.Mondadori Ed. Versión en español: Las mentiras de la ciencia, Madrid, Alianza,
1995.
Dieguez, A., (2002), “Realismo y epistemología evolucionista de los mecanismos cognitivos”,
Crítica, Vol. 34, N° 102, pp. 3-28.
Diez, J. y Lorenzano, P. (edit) (2002), Desarrollos actuales de la metateoria estructuralista:
problemas y discusiones, Buenos Aires, Universidad de Quilmes.
Diez, J. y Lorenzano, P., (2002a), “La concepción estructuralista en el contexto de la filosofía
de la ciencia del siglo XX”, en Diez y Lorenzano (edit), 2002.
Diez, J. y Moulines, C. U., (1997), Fundamentos de filosofía de la ciencia, Barcelona, Ariel.
Dirac, P. A.M., (1930), The principles of quantum mechanics, Oxford, Clarendon Press
Dosi et al, (1994), “The dynamics of international differentiation: a multi-country evolutionary
model”, Industrial and Corporate Change,Vol. 3, N° 1.
Duhem, P. (1954), La theorie physique, son objet, sa structure, París, M. Riviere.
Durkheim, E., (1993), La división del trabajo social, Barcelona, Planeta Agostini.
Estany, A., (1993), Introducción a la filosofía de la ciencia, Barcelona, Crítica.
Estany, A., (1994), “Papel de las tipologías en la explicación de la dinámica científica”, en
Bustos, García Bermejo, y Pérez, 1994.
Falguera, J.L., (1993), “El enredo de los modelos en los análisis de las ciencias factuales”,
ÁGORA 12/2, 171-178.
Farré, M., (1919), “Degeneración y regeneración de la raza”, en La Semana Médica, Buenos
Aires, Año XXVI, N° 30, pp. 77-99.
Fleck, L., (1986), La génesis y el desarrollo de un hecho científico, Madrid, Alianza.
Feyerabend, P., (1970), Against Method: Outline of an Anarchistic Theory of Knowledge,
Minnesota Studies in the Philosophy of Science, vol. IV. Versión en español: Contra el
método, Barcelona, Planeta Agostini, 1993.
Feyerabend, P., (1975), Against Method, Londres, NLB. Versión en español: Contra el
método, Madrid, Planet Agostini,1995.
Flichman, E., (1985), “Causación y antropomorfismo”, Buenos Aires, SADAF.
Fox Keller, E., (1995), Refiguring Life Metaphors ofTwentieth-Century Biology, Nueva York,
Columbia University Press. Versión en español: Lenguaje y vida. Metáforas de la biología en
el siglo XX, Buenos Aires, Manantial, 2000.
Frege, G., (1879), Begriffsschrift, eine der arithmetischen nachgebildete Formel sprache des
reinen Denkens Versión en español: Conceptografía. Los fundamentos de la aritmética,
México, UNAM, 1972.
Freud, S., (1968), “Moisés y la religión monoteísta”, en Obras completas , Vol. III, pp.244271, Madrid, Biblioteca Nueva.
Fuller, S. (1993), Philosophy, Rhetoric and the End of Knowledge. Madison, U. Wisconsin
Press.
Galileo Galilei, (1981), El ensayador, Buenos Aires, Aguilar
Galileo Galilei, (1996), Dos nuevas ciencias, Barcelona, Planeta.
Galton, F., (1883), Inquiries into human faculty and its development, Londres, Macmillan.
Galton, F., (1884), Hereditary genius, Nueva York, D. Appleton.
Gianella, A. (1995), Introducción a la epistemología y a la metodologia de la ciencia, La
Plata, Universidad de La Plata.
Gómez, R., (1993), “Kuhn y la racionalidad científica. ¿Hacia un kantianismo
postdarwiniano?”, Buenos Aires, C.E.A.L.
Gómez, R., (1995), Neoliberalismo y seudociencia, Buenos Aires, Lugar editorial.
González Asenjo, F., (1993), “Ontologia formal de la metáfora”, en Escritos de Filosofía Nº
23/24: Metáfora, Buenos Aires, Academia de Ciencias.
González García et al, (1996), Ciencia, tecnología y sociedad. Una introducción al estudio
social de la ciencia y la tecnología, Madrid, Tecnos.
Goodman, N., (1968), The Languages of Art, Indianapolis, Bobbs-Merrill. Versión en
español: Los lenguajes del arte, Barcelona, Seix Barral, 1976.
Gould, S., (1980), The Panda’s Thumb, Nueva York, H. Blume Ed. Versión en español: El
Pulgar del panda, Buenos Aires, Hispamérica, 1986.
Gould, S. J., (1981), The Mismeasure of Man, Nueva York, Norton. Versión en español: La
falsa medida del hombre, Buenos Aires, Editorial Orbis S.A., 1985.
Gould, S., (1987), Time’s Arrow. Time’s Cycle. Myth and Metaphor in the Discovery of
Geological Time, Cambridge; Harvard University Press. Versión en español: La flecha del
tiempo, Madrid, Alianza, 1992.
Gould, S., (1993), “La rueda de la fortuna y la cuña del progreso”, en Preta (edit) 1993.
Gould, S., (1998), “Sociobiology”, en Ruse, 1998.
Grasa Hernández, R., (1986), El evolucionismo: de Darwin a la sociobiología, Madrid,
Cincel.
Grassi, E., (2000), “¿Preeminencia del lenguaje racional o del lenguaje metafórico? La
tradición humanista”, en Sevilla Fernández y Barrios Casares, 2000.
Grice, H.. P., (1989), Studies in the way of words, Cambridge; Harvard University Press
Gross, A.G., (1990), The Rhetoric of Science, Cambridge, Massachusetts, Harvard
Unievrsity Press.
Gruber, H., (1974), Darwin on Man. A Psychological Study of Scientific Creativity, Gruber y
Barret. Versión en español: Darwin sobre el hombre. Un estudio psicologico de la
creatividad, Madrid, Alianza, 1984.
Gutierrez Lombardo et al (1999), Estudios en historia y filosofía de la biología, México,
Centro de Estudios Filosófico Politicos y Sociales VLT.
Habermas, J., (2001), Die Zukunft der menschlichen Natur. Auf dem Weh su einer liberalen
Eugenik?; Francfort del Meno, Suhrkamp Verlag. Versión en español: El futuro de la
naturaleza humana.¿Hacia una eugenesia liberal?, Barcelona, Paidos, 2002.
Hacking, I., (1981), Scientific Revolutions, Oxford, Oxford University Press. Versión en
español: Revoluciones científicas, México, FCE, 1985.
Hall, A. R. (1954), The Scientific Revolution, 1500-1800: the Formation of the Modern
Scientific Attitude, Londres, Longmans, Green and Co.
Hanson, N. R., (1958), Patterns of Discovery, Cambridge, Cambridge University Press.
Harris, M., (1985), El desarrollo de la teoría antropológica, Mexico, Siglo XXI.
Harvey, B. (1981), “Palusibility and the evaluation of knowledge:a case study of experimental
quantum mechanics”, en Collins (ed), Knowledge and controversy. Special Issue of social
studies of science, Vol. 2
Harvey, B. (1981a), “The effects of social context of the process of scientific investigation:
Experimental test of quantum mechanics, en Knorr Cetina, Krohn & Whitley (eds.),The social
process of scientific investigation, Dordrecht, Reidel
Harvey,W., (1628), Versión en español: De Motu Cordis, Buenos Aires, Eudeba, 1970
Heisenberg, W., (1959), Fisica y filosofía, Buenos Aires, Ed. La Isla.
Heisenberg, W., (1955), Das Naturbild der heutigen Physik, Hamburgo, Rowohlt Verlag.
Versión en español: La imagen de la naturaleza en la física actual, Madrid, Hyspamérica,
1985.
Hempel, C., (1953), “The Logic of Explanation”, en Readings in the Philosophy of Science,
Nueva York, Appleton-Century-Crofts, pp. 330-340.
Hempel, C., (1959), Versión en español: “Problemas y cambios en el criterio empirista de
significado”, en Ayer, 1959.
Hempel, C., (1966), Philosophy of Natural Science, Nueva Jersey, Prentice-Hall. Versión en
español: Filosofía de la ciencia natural, Madrid, Alianza, 1973.
Hernandez, V. Y Filippa, A., (1999), “La ciencia y sus contextos”, en Althabe y Schuster,
(1999).
Hesse, M. (1966), Models and Analogies in Science, Notre Dame, University of Notre Dame
Press.
Hesse, M., (1985), “La tesis fuerte de la sociología de la ciencia”, en Olivé (comp.), 1985.
Hidalgo, C., (1999), “Comunidades científicas: los antropólogos enfocan la ciencia”, en
Althabe y Schuster, 1999.
Hierro Pescador, J., (1997), Principios de filosofía del lenguaje, Madrid, Alianza.
Hobbes, T. (1651), Leviathan:or the Matter, Form and Power ofa Commonwealth
Ecclesiastical and Civil. Versión en Español: Leviatán, Barcelona, Altaya, 1995
Hoffman, R., (1985), “Some implications of metaphor for the pshilosophy and psycholgy of
science”, en Paprotté y Dirven (eds), 1985.
Holton, G., (1973), Thematic origins of Scientific Thought: Kepler to Einstein, Cambridge,
Harvard University Press.
Holton, G. (1978), The Scientific Imagination: Case Studies, Cambridge, Cambridge
University Press.
Holton, G., (1993), “Pensar imaginando”, en Preta (edit), 1993.
Horowitz, I., (comp.) (1969), Historia y elementos de la sociología del conocimiento, Buenos
Aires Eudeba.
Hull, D., (1997), "Un mecanismo y su metafisica: una aproximacion evolucionista", en
Martínez y Olivé, 1997.
Hull, D., (1998), "Progreso panglosiano", en Wagensberg y Agustí, 1998.
Hull, D., (2000), “Why did Darwin fail? The role of John Stuart Mill”, en Creath y Maienschein,
2000.
Hume, D., (1974), Tratado de la naturaleza humana, Buenos Aires, Paidós.
Hume, D., (1983), Investigación sobre el entendimiento humano, Madrid, Alianza.
Hurtado de Mendoza, D. y Drewes, A. (2003), Tradiciones y rupturas. La historia de la
ciencia en la enseñanza, Buenos Aires, J. Baudino Ediciones.
Huxley, J., y Kettlewel, H., (1965), Darwin and his World, Londres, Thames and Hudson.
Versión en español: Darwin, Barcelona, Salvat,1984.
Huxley, T., (1998), “Evolution and ethics”, en Ruse, 1998.
Ibarra y Mormann (1997), Representaciones en la ciencia, Barcelona, Ediciones del Bronce.
Jacob, F., (1970), La logique du vivant. Une histoire de l’heredité, París, Editions Gallimard.
Versión en español: La Lógica de lo viviente, Barcelona, Laia, 1977.
Jacob, F. (1974), “Le modèle linguistique en biologie”, Critique, N° 322, pp. 197-205.
Jacob, F., (1981), Le jeu des possibles, París, Librairie Artheme Fayard. Versión en español:
El Juego de lo posible, Barcelona, Grijalbo, 1982.
Jacob, F., (1997), La souris, la mouche et l’homme, parís, Editions Odile Jacob. Versión en
español: El ratón, la mosca y el hombre, Barcelona, Drakontos, 1998.
James, W., (1907), Pragmatism: a New Name for Some Old Ways of Thinking. Versión en
español: Pragmatismo, Madrid, Sarpe, 1984.
Kant, I., (1991), Crítica de la Razón Pura, México, Porrúa.
Kim, J., (1990), "Mecanismo, propósito y exclusión explicativa", Buenos Aires, SADAF.
Kim, J., (1994), "What is naturalized epsitemology?", en Kornblith, 1994.
Kim, J., (1995), "El mito del materialismo no reduccionista", Buenos Aires, SADAF.
Kitcher, P., (1993), The advancement of science, Nueva York, Oxford Univ Press.
Kitcher, P., (1994), "A priori knowledge", en Kornblith, 1994.
Klimovsky, G. y Nudler, O. (edit), (1993), La Racionalidad en debate, Buenos Aires, C.E.A.L.
Knorr Cetina, Krohn & Whitley (eds.) (1981), The social process of scientific investigation,
Dordrecht, Reidel.
Knorr Cetina, K. (1987), “Evolutionary epistemology and sociology of science”, en Callebaut
y Pinxten, 1987.
Koestler, A. (1964), The Act of Creation, Nueva York, Penguin Books.
Koestler, A., (1959), The sleepwalkers, Londres, Hutchinson Publishing Group. Versión en
español: Los sonámbulos, Barcelona, Salvat, 1986.
Kolakowski,
L.,
(1966),
Die
Philosophie
des
Positivismus,
Warszawa,
PanstwoweWydawnictwo Naukowe. Versión en español: La filosofía positivista, Madrid,
Cátedra, 1988.
Kornblith, H., (1984b), “Beyond foundationalism and the coherence theory”, en Kornblith,
(comp.) 1994.
Kornblith, H., (1994a), “Introduction, What is naturalistic epsitemology”, en Kornblith, (comp.)
1994.
Kornblith, H., (comp.) (1994), Naturalizing epistemology, Massachusetts, MIT Press.
Koyre, A., (1939), Etudes galileennes, París, Herman y Cie. Versión en español: Estudios
galileanos, México, Siglo XXI, 1998.
Kuhn, T., (1957), The Copernican Revolution. Planetary Astronomy in the Development of
Western Thought, Cambridge, President andfellows of Harvard College. Versión en español:
La revolución copernicana, Madrid, Planeta Agostini, 1994.
Kuhn, T., (1962-1970), The Structure of Scientific Revolutions, Chicago, University of
Chicago Press. Versión en español: La estructura de las revoluciones científicas, México,
FCE, 1992.
Kuhn, T., (1977),The essential Tension, Chicago, University of Chicago Press. Versión en
español: La Tensión esencial, México, FCE, 1988.
Kuhn, T., (1979), “Mepahor in Science”, en Ortony, 1979.
Kuhn, T., (1981), What are the Scientific Revolutions?, Cambridge, MIT Press. Versión en
español: ¿Qué son las revoluciones científicas?, Barcelona, Altaya, 1994.
Kuhn, T. (1990), “The Road since Structure”, PSA, Vol. 2.
Lakatos, I., (1968), Criticism and the Methodology of Scientific Research, Proceedings of the
Aristotelian Society, 69, pp. 149-186. Versión en español: La Falsación y la metodologia de
los programas de investigación cientifica, Barcelona, Grijalbo, 1975.
Lakatos, I., (1970), History of Science and its Rational Reconstructions, PSA, pp.91-135,
East Lansign. Versión en español: Historia de la ciencia y sus reconstruciones racionales,
Madrid, Tecnos, 1982.
Lakatos, I., (1976), Proofs and refutations. The Logic of Mathematical Discovery, Cambridge,
Cambridge University Press. Versión en español: Pruebas y refutaciones, Madrid, Alianza,
1994.
Lakatos, I. y Musgrave, A., (edit.) (1970), Criticism and the Growth of Knowledge,
Cambridge, Cambridge University Press. Versión en español: La crítica y el desarrollo del
conocimiento, Barcelona, Grijalbo, 1975.
Lakoff, G. y Johnson, M., (1980), Metaphors we Live by, Chicago, University ofChicago
Press. Versión en español: Metáforas de la vida cotidiana, Madrid, Cátedra, 1998.
Lakoff, G. y Johnson, M., (1999) Philosophy in the Flesh. The embodied mind and its
challenge to western thought, Basic Books, New York.
Lakoff, G., (1987), Women, fire and dangerous things: what categories reveal about the
mind, Chicago, University of Chicago Press.
Lamo de Espinosa, E., et al, (1994), La sociología del conocimiento y de la ciencia, Madrid,
Alianza.
Latour, B. y Woolgar, S., (1979), Laboratory Life: the Social Construction of Scientific Facts,
Hollywood, Sage. Versión en español: La Vida en el laboratorio, Madrid, Alianza, 1995.
Latour, B., (1987), Science in Action, Cambridge, Harvard University Press. Versión en
español: Ciencia en acción, Barcelona, Labor, 1992.
Laudan, L., (1990), Science and Relativism, Chicago, University of Chicago Press. Versión
en español: La ciencia y el relativismo, Madrid, Alianza, 1993.
Laudan, L., (1984), Science and Values, Berkeley, University of California Press.
Le Gros Clark, W., (1966), “El estudio del origen del hombre”, en Barnett, S. et al, (edit.),
(1966).
Leith, B., (1982), The Descent of Darwin, Londres, W. Collins Sons and Co. Versión en
español: El legado de Darwin, Barcelona, Salvat, 1986.
Leserre, D., (1993), “Humboldt, Nietzsche y Heidegger: acerca de las metáforas”, en
Escritos de Filosofía Nº 23/24: Metáfora, Buenos Aires, Academia de Ciencias.
Locke, J. Versión en español: Dos ensayos sobre el gobierno civil, Barcelona, Planeta, 1996
Locke, D., (1992), Science as Writing, Yale University. Versión en español: La ciencia como
escritura, Madrid, Fronesis, 1997.
López, A., (1994), “Ideas evolucionistas en economía: una vision de conjunto”, Buenos
Aires, Pensamiento Económico.
López García, S. y Valdaliso, J., (1999), “Economía, biología y evolución.Algunas
refkexiones sobre la economía evolutiva y la importancia de la historia”, Anthropos, N° 182,
pp. 21-29.
Lorenz, K y Wuketits, F., (1983), Die evolution des Denkens, Munich, R. Piper and Co.
Versión en español: La evolución del pensamiento, Barcelona, Argos Vergara, 1984.
Lorenz, K., (1984), “La teoría kantiana de lo aprioristico bajo el punto de vista evolucionista”,
en Lorenz y Wuketits, 1984.
Losee, J., (1972), An Historical Introduction to the Philosophy of Science, Oxford, Clarendon.
Versión en español: Introducción histórica a la filosofía de la ciencia, Madrid, Alianza, 1976.
Losee, J., (1987), Philosophy of Science and Historical Inquiry, Oxford, Oxford University
Press. Versión en español: Filosofía de la ciencia e investigación histórica, Madrid, Alianza,
1989.
Lovejoy, A., (1936), The Great Chain of being, Oxford,Oxford Unirversity Press.
Lovejoy, A., (1993), “El estudio de la historia de las ideas” Buenos Aires, C.E.A.L.
Lovelock, J., (1993), Las edades de Gaia, Barcelona, Tusquets.
Low, R., (1984), “Evolución y conocimiento: trascendencia y limitaciones de la gnoseología
evolucionista, en Lorenz y Wuketits, 1984.
Luján López, J., (1996), “Teorías de la inteligencia y tecnologías sociales”, en González
García et al, 1996.
Lumsden, C.J. y Wilson, E.O., (1981), Genes,Mind and Culture: the Coevolutionary Process,
Cambridge, Mass., Harvard University Press.
Mac Lean y Estenós, R. (1952), “La eugenesia en América”, México, Cuadernos de
Sociología.
McKenzie, D. (1978), “Statistical Theory and Social Interests:a Case Studdy”, Social Studies
of Science, Vol 8, pp. 35- 83.
McKenzie, D. (1981), Statistics in Britain, 1865-1930: The Social Construction of Scientific
Knowledge, Edinburgh, Edinburgh University Press.
Maienschein, J. (2000), Biology and epistemology, Cambridge, Cambridge University Press.
Mannheim, K., (1952), Essays on the sociology of knowledge, Londres, Routledge and
Keagan Paul.
Mannheim, K., (1969), “Los determinantes políticos y sociales del conocimiento”, en
Horowitz, (comp.), 1969.
Marí, E., (1974), Neopositivismo e ideología, Buenos Aires, Eudeba.
Martínez, S. y Olivé, L. (comp.) (1997), Epistemologia evolucionista, México, Paidós.
Martínez, S., (1997a), “Una respuesta al desafio de Campbell”, en Martínez y Olivé (comp.),
1997.
Martínez, S., (1997b), De los efectos a las causas. Sobre la historia de los patrones de
explicacion cientifica, México, UNAM-Paidós.
Martinich, A., (1991), “A theory for metaphor”, en Davis, 1991.
Maturana, H., (1995), La realidad:¿objetiva o construida?, México, Anthropos.
Maturana, L., (1993), “Acerca de la referencia en el discurso metaforico”, en Escritos de
Filosofía Nº 23/24: Metáfora, Buenos Aires, Academia de Ciencias.
Maynard Smith, J. y Szathmary, E., (1999), The Origins of Life. From the Birth of Life to the
Origin of Language. Versión en español: Ocho hitos de la evolución, Barcelona, Tusquets,
2001.
Mayr, E., (1994), Typological vs. Population thinking, Massachusetts, MIT Press.
Mazlish, B., (1993), The Fourth Dicontinuity. The Co-evolution of Humans and Machines,
Yale University. Versión en español: La cuarta discontinuidad. La coevolución de hombres y
maquinas, Madrid, Alianza, 1995.
Medawar, P. B. y Medawar, J. S. (1983), Aristotle to zoos:a philosophical dictionary of
biology, Cambridge, Harvard University Press.
Merton, R., (1973), The Sociology of Science, Nueva York, FreePress. Versión en español:
La sociología de la ciencia, Madrid, Alianza, 1977.
Mirowski, P., (1989), More Heat Than Light: Economics and Social Physics; Physics as
Natures’s Economics, Cambridge/Nueva York, Cambridge University Press.
Molina, E., (1996), (edit), Evolución: aspectos interdisciplinares, Zaragoza, Mira Edit.
Mondolfo, R., (1974), El pensamiento antiguo, Buenos Aires, Losada.
Monod, J., (1970), Le Hasard et la nécessité, París, Ediciones du Seuil. Versión en español:
El azar y la necesidad, Barcelona, Tusquets, 1993.
Mosterin, J. (1978), “La estructura de los conceptos científicos”, en Conceptos y teorías en la
Ciencia, Madrid, Alianza P. 11-40.
Moulines, U. (1982), Exploraciones metacientificas, Mardid, Alianza.
Muguerza, J., (1975), ”La teoría de las revoluciones científicas”, en Lakatos y Musgrave,
(edit.) 1975.
Mulkay, M., (1985), “La ciencia y el contexto social”, en Olivé (comp.), 1985.
Nelson, R. R (1995), Recent Evolutionary Theorizing About Economic Change, Journal of
Economic Literature, vol XXXIII, marzo.
Nelson, R. y Winter, S. (1982) An Evolutionary heory of Economic Change, Cambridge,
Harvard University Press.
Nersessian, N.J., (1987), The Process of Science, Dordrecht, Kluwer.
Newton-Smith, W., (1981), The rationaliy of Science, Boston, Routledge and Kegan Paul Ltd.
Versión en español: La racionalidad de la ciencia, Barcelona, Paidós,1987.
Nisbet, R., (1976), Social Change and History, Nueva York, Oxford University Press. Versión
en español: Cambio social e historia, Barcelona, Editorial Hispano Europea, 1985.
Nudler, O. (comp.), La racionalidad: su poder y sus límites, Buenos Aires, Paidós.
Olivé, L. (comp.), (1985), La explicación social del conocimiento, México, U.A.M.
Olivé, L., (1985a), “Un programa fuerte realista y antinaturalista para la sociología”, en Olivé,
1985.
Orayen, R., (1991), “Indeteminacion de la traduccion y epistemología naturalizada”, Buenos
Aires, SADAF.
Ordóñez, J. y Rioja, A., (1991), Teorías del universo, Madrid, Themata.
Ortony, A., (1979), Metaphor and Thought, Cambridge, Cambridge University Press.
Pacho, J., (1995), ¿Naturalizar la razón?. Alcances y límites del naturalismo evolucionista,
Madrid, Siglo XXI.
Palma, H. (2002), Gobernar es seleccionar. Apuntes sobre la eugenesia, Buenos Aires, J.
Baudino ediciones.
Palma,H. (2003), “Notas preliminares a (una teoría de) la divulgación científica”, en
Wolovelsky, E. ¿???????
Panofsky, E. (1954): Galileo as a Critic of the Arts, La Haya, Martinus Nijhoff.
Paprotté, W. y Dirven, R. (eds.) (1985), The ubiquity of metaphor, La Haya, North Holland.
Parente, D., (2002), Márgenes del lenguaje. Metáfora y conocimiento, Mar del Plata,
Ediciones Suárez.
Passmore, J., (1957), 100 Years of Philosophy, Londres, G. Duckworth and Co.Versión en
español: Cien años de filosofía, Madrid, Alianza, 1981
Pepper, S. (1942), World Hypotheses, California, University of California Press.
Pera, M., (1994), The Discourses of Science, Chicago, University of Chicago Press.
Pérez Tamayo, R., (1993), ¿Existe el método científico?. Historia y realidad, México, FCE.
Pescador, J., (1986), Principios de filosofía del lenguaje, Madrid, Alianza.
Pickering, A. (1981), “The role of interests in high energy phisycs: the choice between
charm and colour”, en Knorr Cetina, Krohn & Whitley (eds.), 1981.
Pickering, A. (1984), Constructing quarks, Edinburgh, University of Edinburgh Press.
Pinch, T. (1981), “Theoreticians and the production of experimental anomaly”, en Knorr
Cetina, Krohn & Whitley (eds.),The social process of scientific investigation, Dordrecht,
Reidel.
Plotkin, H., (1987), “Evolutionary epistemology and the synthesis of biological and social
sciences”, en Callebaut y Pinxten. (edit), 1987.
Plotkin, M., (1996),”Psicoanalisis y política: la recepcion que tuvo el psicoanálisis en la
Argentina”, REDES, Buenos Aires, Universidad de Quilmes.
Popper, K., (1935-1958), The Logic of Scientific Discovery, Londres, Hutchinson (revisada
de 1958 del original alemán de 1935). Versión en español: La lógica de la investigación
científica, Madrid, Tecnos, 1999.
Popper, K., (1963), Conjectures and Refutations, Londres, Routledge and Kegan Paul.
Versión en español: Conjeturas y refutaciones. El desarrollo del conocimiento científico,
Buenos Aires, Paidós, 1989.
Popper, K., (1970), Objective Knowledge, Oxford, Clarendon. Versión en español:
Conocimiento objetivo. Un enfoque evolucionista, Madrid, Tecnos, 1988.
Popper, K., (1970a), “Normal Science and its Dangers”, en Lakatos y Musgrave (eds.)
(1970). Versión en español: “La Ciencia normal y sus peligros”, en Lakatos y Musgrave,
(edit.), 1975.
Popper, K., (1974), “Unended Quest: An Intelectual Autobiography”, en Schilpp (ed.) The
Philosophy of Karl Popper, La Salle, Open Court. Versión en español: Búsqueda sin término,
Madrid, Tecnos, 1994.
Popper, K., y Eccles, J., (1977), The Self and its Brain, Berlín, Springer-Verlag. Versión en
español: El Yo y su cerebro, Barcelona, Labor, 1993.
Popper, K., (1985), “La Racionalidad de las revoluciones científicas”, en Hacking, 1985.
Prego, C., (1995), Las bases sociales del conocimiento científico, Buenos Aires, C.E.A.L.
Preta, L. (edit), (1992), Immagini e metafore della scienza, Gius, Laterza e figli. Versión en
español: Imágenes y metáforas de la ciencia, Madrid, Alianza, 1993.
Putnam, H. (1995), “Why reason can’t be naturalized”, en Baynes, K., Bohman, J. y
MacCarthy, Th., 1995.
Putnam, H., (1981), Reason, Truth and History, Cambridge, Cambridge University Press.
Versión en español: Razón, verdad e historia, Madrid, Tecnos, 1988.
Pyle, A., (1995), Atomism and its critics, Bristol, Thoemmes Press.
Quine, W., (1960), World and Object, Cambridge, MIT Press.
Quine, W., (1969), Ontological Relativity and the Other Essays, Nueva York, Columbia
Universirty Press. Versión en español: La relatividad ontológica y otros ensayos, Madrid,
Tecnos, 1986.
Radnitzky, G. y Bartley, W., (edit) (1987), Evolutionary epistemology, rationality, and the
sociology of knowledge, Illinois, La Salle.
Radnitzky, G., (1987), “In defense of self-aplicable critical rationalism”, en Radnitzky y
Bartley (edit), 1987.
Randall, J., (1940), The Making of the Modern Mind, Boston, Houghton Mifflin (edición de
1926 revisada). Versión en español: La formación del pensamiento moderno, Buenos Aires,
M. Moreno,1981.
Regnault, J., (1922), “La eugénica”, en La Semana Médica, pp. 22-25, Buenos Aires.
Reichenbach, H., (1938), Experience and prediction, Chicago, University of Chicago Press.
Rescher, N., (1990), Evolution, Cognition and Realism, Lanham, University Press of
America
Rescher, N., (1984), The Limits of Science, Londres y California, University of California
Press. Versión en español: Los límites de la ciencia, Madrid, Tecnos, 1994.
Richards, I.A., (1936), The Philosophy of Rethoric, Oxford, Oxford University Press.
Richards, R., (1997), “El modelo de selección natural y otros modelos en la historia de la
ciencia”, en Martínez y Olivé (comp.). 1997.
Richards, R., (1992), The Meaning of Evolution. The Morphological Construction and
Ideological Reconstruction of Darwin’s Theory, Chicago, University of Chicago Press.
Versión en español: El significado de la evolución, Madrid, Alianza, 1998.
Richards, R., (2000), “The epistemology of historical interpretation: progressivity and
recapitulation in Darwin’s theory”, en Creath y Maienschein, 2000.
Ricoeur, P. (1975), La métaphore vive, París, Editions du Seuil. Versión en español: La
metáfora viva. Madrid, Cristiandad, 1980.
Riedl, R., (1984), Biology of Knowledge: teh Evolutionary Basis of Reason, Chichester, J.
Wiley and Sons.
Riedl, R., (1984a), “Evolución y conocimiento evolutivo: sobre la concordancia entre los
órdenes del pensamiento y de la naturaleza”, en Lorenz y Wuketits, 1984.
Riesco Le Grand, I. (1848), Tratado de embriología sagrada.
Rojo, R., (1993), “Metáfora y verdad”, en Escritos de Filosofía Nº 23/24: Metáfora, Buenos
Aires, Academia de Ciencias.
Rorty, R. (1979), Philosphy and the Mirror of Nature, Princeton, Princeton University Press.
Versión en español: La Filosofía y el espejo de la naturaleza, Madrid, Cátedra, 1995.
Rosenberg,A., (1994), “Does evolutionary theory give comfort or inspiration to economics?”,
en Natural Images in economics thought, editado por Philip Mirowsky, Cambridge
University Press, Cambridge, 1994.
Ruiz, R. Y Ayala, F., (1998), El método en las ciencias. Epistemología y darwinismo, México,
FCE.
Ruse, M., (1973), The Philosophy of Biology, Londres, Hutchinson and Co. Versión en
español: La filosofía de la biología, Madrid, Alianza, 1979.
Ruse, M., (1980), Sociobiology: Sense or Nonsense?, Dordrecht, Reidel. Versión en
español: Sociobiología, Madrid, Cátedra, 1989.
Ruse, M., (1986), Taking Darwin Seriously, Oxford, Basil Balckwell. Versión en español:
Tomándose a Darwin en serio, Barcelona, Salvat, 1987.
Ruse, M., (1998), “Evolución y progreso: crónica de dos conceptos”, en Wagensberg y
Agustí (edit.), 1998.
Ruse, M., (2000), “Darwin and the philosophers: epistemological factors in the
developmental and reception of the theory of the Origine of Species”, en Creath y
Maienschein, 2000.
Sambursky, S., (1990), El mundo físico de los griegos, Madrid, Alianza.
Sánchez Navarro, J, (1994), “Naturalización y factores sociales en la ciencia”, en Bustos, E.
de, García Bermejo y Pérez, 1994.
Sánchez Navarro, J., (1988), “Las sociologías del conocimiento científico”, Madrid, Revista
Española de Investigaciones Sociales.
Sánchez Navarro, J., (1996), “Ciencia y retórica”, Madrid, Isegoria, CSIC.
Sanchez Puerta, M. L. (1999), "El concepto de evolución en la historia del pensamiento
economico" (www. aaep.org/espa/anales/PDF_99/sanchez-puerta).
Schroedinger, E., (1944), What is the Life?. The Physical aspect ofthe living Cell, Cambridge,
Cambridge University Press. Versión en español: ¿Qué es la vida?, Madrid, Hyspamérica,
1985.
Schumpeter, J. (1943-1947), Capitalism, Socialism and Democracy, Nueva York, Harper and
Row.
Schuster, F., (1985), “La validez del conocimiento en ciencias sociales”, Buenos Aires,
SADAF.
Schuster, F., (1995), “Consecuencias métodológicas del contexto de aplicación”, REDES,
Buenos Aires, Unievrsidad de Quilmes.
Schuster, F., (1999), “Los laberintos de la contextualizacion en ciencia”, en Althabe y
Schuster, 1999.
Searle, J., (1991), “Metaphor”, en Davis, 1991.
Searle, J., (1995), “Mentes y cerebros sin programas”, en Rabosi, E. (ed.), Filosofía de la
mente y ciencia cognitiva, Barcelona, Paidós.
Serres, M. (edit), (1989), Eléments d’Histoire des Sciences, París, Bordas. Versión en
español: Historia de las ciencias, Madrid, Cátedra, 1991.
Sevilla Fernández, J., y Barrios Casares, M. (edit.) (2000), Metáfora y discurso filosófico,
Madrid, Tecnos.
Sevilla Fernández, M., (2000), “El filósofo es un decidor. En torno al decir metafórico y el
pensar epistemológico de Ortega y Gasset”, en Sevilla Fernández y Barrios Casares, 2000.
Shapin, S. (1975), “Phrenological knowledge and the social structure of early XIXth century
Edinburgh”, Annals of Sciences, Vol. 32, pp. 219-243
Shapin, S. (1979), “Homo phrenologicus: anthropological perspectives on a Historical
problem”, en Barnes & Shapin (Eds.), Natural Order: historical studies of scientific culture,
Londres, Sage
Shapin, S. (1982), “History of Science and its Sociological Reconstructions”, History of
Sciences, Vol. 20, pp. 157-211.
Shapin, S., (1993), “Hablar de historia. Reflexiones sobre análisis del discurso”, Buenos
Aires, C.E.A.L.
Shapin, S., (2000), La revolución cientifica. Una interpretacion alternativa, Barcelona,
Paidós.
Simpson, G. G., (1951), The Meaning of Evolution, Yale University Press. Versión en
español: El sentido de la evolución, Buenos Aires, Eudeba, 1987.
Sober, E. (edit), (1994), Conceptual issues in evolutionary biology, Massachusetts, MIT
Press.
Sober, E., (1993), Philosophy of Biology, Westview Press. Versión en español: Filosofía de
la biología, Madrid, Alianza,1996.
Sober, E., (1994a), “Evolution, population thinking, and essentialism”, en Sober (edit), 1994.
Sokal, A., (1996), "Experiment with Cultural Studies", en Lingua franca, 6, 4.
Sokal, A., (1998), "Transgressing the Boundaries: an afterword", Dissent Nº 43, 268280.
Sokal, A. y Bricmont, J., (1999), Imposturas intelectuales, Barcelona, Paidós.
Spengler, O., (1999), La decadencia de Occidente. Madrid, Espasa Calpe.
Spinoza, B., (1990), Tratado teológico político, México, Porrúa.
Stark, W. (1962), The fundamental forms of social thought, Londres, Routledge and Keegan
Paul.
Stroud, B., (1984), The Significance of Philosophical Scepticism, Oxford, Oxford University
Press. Versión en español: El escepticismo filosófico y su significación, México, FCE, 1991.
Suppe, F., (1974), The Structure of Scientific Theories, Illinois, University of Illinois Press. La
estructura de las teorías científicas, Madrid, Edit. Nacional, 1979.
Suppes, P., (1969), Studies in Methodology and Foundations of Science, Dordrecht, Reidel.
Suppes, P. (1969a), "Models of Data" en Suppes, 1969.
Taylor, H., (1980), The IQ Game: A Methodological Inquiry into the Heredity-Environment
Controversy, New Jersey, Rutgers University Press. Versión en español: El juego del
Cociente intelectual. Una investigación metodológica sobre la controversia herencia-medio,
Madrid, Alianza,1983.
Thagard, P., (1997), “En contra de la epistemología evolucionista”, en Martínez y Olivé
(comp.) 1997.
Thom, R., (1987), “Epistemology of evolutionary theories”, en Callebaut y Pinxten (edit)
(1987).
Thom, R., (1993), “La ciencia y el sentido”, en Preta (edit), 1993.
Thuillier, P., (1988), D’Archiméde á Eisntein.Les faces cahées de l’invention scientifique,
París, Librairie Arthéme Fayard. Versión en español: De Arquímedes a Einstein, Madrid,
Alianza.
Thuillier, P., (1983), Les savoirs ventriloques. Ou comment la culture parle á travers la
science, París, Editions du Seuil. Versión en español: El saber ventrílocuo, México, FCE,
1990.
Timasheff, N., (1955), Sociological Theory.Its Nature and Growth, Nueva York, Random
House. Versión en español: La teoría sociológica, México, FCE,1977.
Todorov, T., (1989), Nous et les autres. La réflexion française sur la diversité humaine,
Éditions du Seuil. Versión en español: Nosotros y los otros, México, Siglo XXI, 1991.
Toulmin, S., (1961), Foresight and understanding, Nueva York, Harper Torchbooks.
Toulmin, S., (1970), Human Understanding, Princeton, Princeton University Press. Versión
en español: La comprensión humana, Madrid, Alianza, 1977.
Toulmin, S., (1974), ”Rationality and Scientific Discovery”, en Scaffner y Cohen (comps.),
Boston Studies in the Philosophy of Science, Dordrecht, Reidel, 402-3.
Toulmin, S., (1975), “La distinción entre ciencia normal y ciencia revolucionaria, ¿resiste un
examen?, en Lakatos y Musgrave, (edit.), 1975.
Turbayne, C., (1962), The Myth of Metaphor. Versión en español: El mito de la metáfora,
México, FCE, 1974.
Ursúa, N., (1993), Cerebro y conocimiento: un enfoque evolucionista, Barcelona, Anthropos.
van Fraassen, B. C., (1987) “The Semantic Approach to Scientific Theories”, en Nersessian
(ed.) 1987, 107-124.
Vandamme, F., (1987), “Language and evolutionary or dynamic epistemology”, en Callebaut
y Pinxten, 1987.
Veblen, Th., (1965), A theoria da classe ociosa: um estudo economico das institucioes, Sao
Paulo, Pioneira.
Vianu,T., (1967), Los problemas de la metáfora, Buenos Aires, Eudeba
Vollmer, G., (1984), “Mesocosmos y conocimiento objetivo”, en Lorenz y Wuketits, 1984.
Vollmer, G., (1987), “On supossed circularities in an empirically oriented epistemology”, en
Radnitzky y Bartley, (edit), 1987.
Vollmer, G., (1987a), “What evolutionary epistemology is not?”, en Callebaut y Pinxten,
1987.
Waddington, C., (1966), “Teorías de la evolución”, en Barnett et al, 1966.
Wagensberg, J. Y Agustí, J., (edit) (1998), El progreso, Barcelona, Tusquets.
Wagner, G., (1984), “Sobre los fundamentos lógicos de la teoría evolutiva del conocimiento”,
en Lorenz y Wuketits, 1984.
Wallace, A., (1864), “El desarrollo de las razas humanas según las leyes de la selección
natural”.
Wartofsky, M. (1968), Conceptual Foundations of Scientific Thought. Versión en español:
Introducción a la filosofía de la ciencia 1, Madrid, Alianza, 1973.
Watson, J., (1968), The Double Helix, Middlesex, Penguin Books. Versión en español: La
doble hélice, Barcelona, Salvat, 1993.
Webster, Ch., (1982), From paracelso to Newton. Magic and the Making of Modern Science,
Cambridge, cambridge University Press. Versión en español: De Paracelso a Newton. La
magia en la creación de la ciencia, México, FCE, 1993.
Westfall, R. (1971), The Construction of Modern Science: Mechanism and Mechanic, Nueva
York, Londres, J. Wiley and Sons
Whewell, W., (1847), Philosophy of the Inductive Sciences, Londres, Parker.
Whitehead, A., (1925), Science an the Modern world, Nueva York, Macmillan Co. Versión en
español: La ciencia y el mundo moderno, Buenos Aires, Losada, 1949.
Wimsatt, W. (1974), “Reductive Explanation: A Functional Account”, PSA.
Wittgenstein, L., (1921), Tractatus lógico-philosophicus, Londres, Routledge and Kegan
Paul. Versión en español: Tractatus lógico-philosophicus, Barcelona, Altaya, 1994.
Woolgar, S., (1988), Science: the Very Idea, Londres, Tavistock. Versión en español:
Ciencia: abriendo la caja negra, Barcelona, Anthropos, 1993.
Wuketits, F., (1984), “Gnoseologia evolutiva: el nuevo desafío”, en Lorenz y Wuketits, 1984.
Wuketits, F., (1999), ”The history of the concept of life: a game of mind”, en Gutierrez
Lombardo et al 1999.
Ziman, J., (1986), Introducción al estudio de las ciencias, Barcelona, Ariel.
Descargar