Subido por wilson gutierrez

12-GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TGS Y ESTADÍSTICA

Anuncio
EPISTEMOLOGÍA
12
GLOSARIO DE
EPISTEMOLOGÍA, LÓGICA, TEORÍA
GENERAL DE SISTEMAS Y ESTADÍSTICA
Raúl Gustavo Eid Ayala Ph.D.
La Paz, Bolivia
Julio, 2005
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
ÍNDICE
I.
A manera de Introducción
……………………………………………………
Pág. 002
II.
Vocabulario de Epistemología ……………………………………………………
Pág. 003
III. Vocabulario de Lógica
……………………………………………………
IV. Vocabulario de Teoría General de Sistemas
Pág. 012
………………………………
Pág. 075
……………………………………………………
Pág. 195
VI. Bibliografía …………………………………………………………………………
Pág. 239
VII. Nota Final
Pág. 242
V.
Vocabulario de Estadística
…………………………………………………………………………
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
1
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
I.
A MANERA DE INTRODUCCIÓN
El presente compendio de términos usuales en Epistemología, Lógica, Teoría General de Sistemas
y Estadística, es el resultado de varios meses de trabajo de lectura, investigación y sistematización
orientado a dar un soporte como material de consulta para estudiantes, docentes, investigadores y
profesionales que necesitan conocer, repasar o afinar algunos de los principales conceptos que
intervienen casi invariablemente en cualquier trabajo de investigación.
Tanto los conceptos, como las definiciones en el presente documento, están enmarcadas de forma
que para quien solamente se encuentre a la búsqueda de dichos elementos su ubicación le
resultará más simple; adicionalmente, me he propuesto insertar en la descripción de algunos
términos, ciertos comentarios y explicaciones adicionales con la única finalidad de esclarecer un
poco más su comprensión, de esta manera, la mayoría de ellos se presenta como un pequeño
artículo, excepto en aquellos casos en los cuales su descripción, asumo, no amerita mayores
ampliaciones.
Debo destacar que la mayoría de las definiciones no son propias, de forma que inmediatamente
después de una cualquiera, se encuentra la fuente, excepto cuando el autor es quien escribe.
A fin de poder consignar en este glosario la mayor cantidad de términos posible, he procurado
reducir al mínimo indispensable el empleo de símbolos técnicos, sustituyéndolos con expresiones
del lenguaje usual.
Asumo que el momento es el alto grado propicio, para poder llevar el presente trabajo a la luz
publica, a la luz de la crítica y a la luz de la superación, el escenario donde hoy será difundido, un
curso de formación doctoral de la Universidad Mayor, Real y Pontificia de San Francisco Xavier de
Chuquisaca, es el lugar más indicado para someter el presente trabajo a la falsabilidad y
contrastación de las ideas que contiene
Pese al afán inicial de plantear un documento corto y manejable por el eventual lector, he tenido
que claudicar ante la necesidad de esbozar algo más bien completo dentro de los límites de lo
mínimo indispensable, así es que con las debidas disculpas por la aparente ampulosidad del
documento, y con la esperanza de que alguien en cualquier parte y en cualquier momento lo pueda
utilizar y servirse de él, les dejo con este intento de Glosario.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
2
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
II.
GLOSARIO DE EPISTEMOLOGÍA
TÉRMINOS
01. Ciencia
02. Ciencia Normal
03. Ciencia, Clasificación
04. Ciencias Culturales
05. Epistemología
06. Estructura
07. Filosofía de la Ciencia
08. Hipótesis
09. Inducción
10. Investigación en Ciencias Sociales
11. Paradigma
12. Paradigma de las Ciencias Naturales
13. Paradigma Interpretativo
14. Psicología
15. Racionalidad
16. Refutación
17.Revolución Científica
18. Teoría
01. CIENCIA
“La ciencia es conocimiento que busca leyes generales relacionando hechos particulares”.
Russell B (1986), La perspectiva científica, Sudamericana.
“La ciencia no es nada más que la búsqueda de la unidad en la salvaje variedad de la
naturaleza o, más exactamente, en la variedad de nuestra experiencia”.
J. Bronowski
La imagen tradicional de ciencia es la de una constelación de hechos, teorías y, métodos reunidos
en los libros de texto actuales, idea que implica que el desarrollo científico sería gradual o
acumulativo: los conceptos se van añadiendo, solos o en combinación, al caudal creciente de la
técnica y el conocimiento (op.cit.pág. 21). Sin embargo, la ciencia normal, lejos de desarrollarse
acumulativamente, evoluciona resolviendo enigmas, enfrentando anomalías y rompiendo
paradigmas, los cuales llevan a investigaciones extraordinarias que a su vez desembocarán en
revoluciones científicas, desde donde se iniciará una nueva ciencia normal (op.cit.págs. 23-27).
Kuhn Thomas (1975) La estructura de las revoluciones científicas. Madrid: Fondo de Cultura Económica.
02. CIENCIA NORMAL
Según Kuhn, la Ciencia Normal es:
“la investigación basada firmemente en una o más realizaciones científicas pasadas,
realizaciones que alguna comunidad científica particular reconoce, durante cierto tiempo,
como fundamento para su práctica posterior”.
Kuhn Thomas opus citate pág. 33.
03. CIENCIAS, CLASIFICACIÓN
La división entre ciencias formales y fácticas, que data por lo menos del siglo XIX incluye una
subdivisión de las ciencias fácticas (o ciencias que estudian hechos), en ciencias naturales y
ciencias sociales (culturales, del espíritu, del hombre, o humanas). Mientras las ciencias naturales
estudian hechos no producidos por el hombre (un árbol, un terremoto), las ciencias sociales
estudian las producciones humanas, es decir, la cultura en sentido amplio. Por ejemplo, la
conducta, las sociedades, las leyes y los hechos históricos son producidos por el hombre, y de
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
3
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
ellos se ocupan respectivamente la psicología, la sociología, el derecho y la historia. Por tanto, las
ciencias sociales abarcan todas estas disciplinas y otras más, como la lingüística, la economía, la
ingeniería, la antropología o la geología.
04.
CIENCIAS CULTURALES
“Las ciencias de la cultura son al mismo tiempo comprensivas y causales. De acuerdo con
los casos, la relación de causalidad es histórica o sociológica. El historiador trata de
sopesar la eficacia causal de los distintos antecedentes en una coyuntura única, y el
sociólogo procura establecer relaciones de consecución que se repiten o que pueden
repetirse. El instrumento principal de la comprensión (…), pues el objetivo de las ciencias
de la cultura es siempre comprender los sentidos subjetivos, es decir, en último análisis, el
significado que los hombres han atribuido a su existencia”.
Aron Raymond, Las etapas del pensamiento sociológico. Buenos Aires: Fausto, pág. 253.
05. EPISTEMOLOGÍA
Estudio crítico de los principios, hipótesis y resultados científicos, para determinar su origen lógico,
valor y alcance objetivo. Dentro de la epistemología de las ciencias hay dos enfoques:
i.
Es el estudio del método científico según cada comunidad histórica. El positivismo, por
ejemplo, considera que el método propio de nuestra época es el de las ciencias naturales, y
especialmente el de la física, y en psicología, el método conductista.
ii.
Como reflexión sobre las fuentes de creación del conocimiento: su interacción con la práctica,
las emociones, el entorno social y los procesos inconcientes. Ejemplo: epistemólogos sajones
y franceses.
Celener Graciela, Fundamentos teóricos para la inclusión de láminas en blanco (Ort-Tat), publicación interna de la Cátedra de
Técnicas psicodiagnósticas II de la Facultad de Psicología de la Universidad de Buenos Aires, 1996.
06. ESTRUCTURA
La noción de estructura puede definirse a partir de cuatro características:
i.
Es un sistema ligado: el cambio producido en un elemento provoca un cambio en los otros
elementos;
ii.
Es un sistema latente: no se exterioriza a simple vista porque es un modelo para hacer
entendibles los hechos observados;
iii. Es un modelo local: cada estructura sirve a determinado tipos de objetos, lo cual no impide
que en el futuro puedan elaborarse estructuras más generales; y
iv. Es un sistema sincrónico: la estructura se estudia en un corte temporal relativamente estático.
En análisis posteriores podrá recomponerse la secuencia temporal, la historia, mediante
comparación de distinta estructuras.
La importancia epistemológica de la noción de estructura radica en el hecho de que es un
concepto que puede permitir la unificación de todas las ciencias en torno a una forma común de
entender la realidad (forma que sería el método estructural).
Bastide (1968) Qué es estructura? Incluído en Bastide y otros, Sentidos y usos del término estructura. Buenos Aires: Paidós.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
4
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
07. FILOSOFÍA DE LA CIENCIA
La filosofía de la ciencia, para algunos sinónimo de epistemología, se ocupa del estudio del
conocimiento científico, de sus características, sus condiciones, sus diferencias con otros tipos de
conocimiento, de su papel en la sociedad, del descripción, justificación, difusión y aplicación de las
ideas científicas hoy y en todas las épocas, etc. Aristóteles fue el primero en sistematizar el saber
epistemológico en “Segundos Analíticos” (una parte de su “Organon”). Hoy en día, existen varias
escuelas de epistemología y varios autores importantes, entre los que cabe mencionar a Popper,
Feyerabend, Kuhn, Lakatos, Bachelard, Piaget, Bunge, etc. Algunas escuelas son prescriptivas, es
decir, formulan como debe ser el conocimiento científico, mientras que otras son descriptivas y
explicativas, es decir, buscan formular como es y porqué es así el conocimiento científico.
08. HIPÓTESIS
Una hipótesis es una respuesta sugerida, una suposición elaborada sobre la base de hechos
presentes en la situación original donde el problema surgió. Puede haber varias hipótesis para
resolver un mismo problema, y la primera suele aparecer en forma espontánea en la mente,
siguiendo luego otras.
De dónde provienen la hipótesis? Probablemente debamos reconocer tres fuentes:
i.
Experiencias pasadas individuales específicas. Esto es cierto tanto en sentido negativo
(quien no aprendió a dividir, difícilmente podrá resolver un problema práctico matemático),
como en su sentido positivo (cuanto más experiencia y conocimientos tiene alguien sobre un
área determinada, más se puede esperar de él fluidez y eficiencia para resolver problemas en
dicha área). Según Thorndicke, en primer lugar hay que tener presente que no siempre tener
conocimientos implica saber usarlos, o sea, habilidad para saber seleccionar, relacionar y
organizar el saber en función de la resolución de un problema; en lo que a mi concierne, tener
conocimientos es lo mismo que tener dinero, si no se sabe utilizarlos, no sirven de nada. En tal
sentido debe distinguirse el aprendizaje significativo del aprendizaje repetitivo (entre otras
cosas, el primero permite la posibilidad de transferir lo aprendido a nuevas situaciones).
Además, en segundo lugar, la forma en que se adquirió el conocimiento influye sore la aptitud
para aplicarlos en la resolución de problemas.
ii.
Maduración individual y habilidad intelectual. Madurez intelectual y riqueza de información
corren paralelas, pero además de la experiencia se requiere una facilidad para aprehender
relaciones entre objetos o conceptos. Según Torrence, todos tenemos en grado variable un
poco de pensamiento divergente y de pensamiento convergente. El primero es la capacidad de
percibir lagunas, usar caminos diferentes para resolver un problema apelando a recursos
propios. El segundo implica resolver problemas usando recetas que se le han enseñado o que
obedecen a la tradición. El pensamiento divergente es una capacidad innata, cuyo desarrollo
es inhibido por la educación sistematizada.
iii. Factores que la misma dinámica de la situación problemática engendra. De forma que
ante una porción de la realidad evidente, resulta simple apelar al conocimiento formal para
encontrar la posible o posibles respuestas.
Vera María Teresa, "El aprendizaje por resolución de problemas", incluído en Sanjurjo L. y Vera M., "Aprendizaje significativo y
enseñanza en los niveles medio y superior", Rosario, Homo Sapiens Ediciones, 1995.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
5
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
09. INDUCCIÓN
El problema de la inducción. La afirmación "es más probable que nos equivoquemos en
nuestras generalizaciones que en nuestras observaciones particulares" intenta ser una crítica a la
inducción como procedimiento inferencial. Cuando percibimos que después de un relámpago se
escucha un trueno, nuestra afirmación “después de este relámpago escuché un trueno” es cierta,
y es el producto de una observación particular. En cambio, si a partir de esa observación afirmo
que “después de cualquier relámpago siempre se escucha un trueno”, en tanto la afirmación se
refiere a hechos futuros no observados, se trata de una afirmación probable, y por tanto aumenta
la posibilidad de equivocarnos. Si esta última generalización hubiese resultado de haber
observado cinco casos particulares donde luego de un relámpago venía un trueno, es más
probable que sea verdadera, aunque tampoco es totalmente verdadera porque siempre cabe la
posibilidad de que un futuro relámpago que observemos no esté acompañado de un trueno. Las
generalizaciones de este tipo nunca serán ‘totalmente’ verdaderas, es decir, no tendrán certeza,
por cuanto el número de casos observados es siempre menor al número de casos posibles. Este
problema es lo que se conoce en epistemología como el problema de la inducción. Cabe
recordar que la inducción es un tipo de razonamiento donde se parte de observaciones
particulares y se llega a una conclusión general de carácter probable.
Tanto en los razonamientos inductivos que hacemos en la vida cotidiana como los que hacemos
en la ciencia, las personas pueden hacer estimaciones de la ‘verdad’ de la generalización. Por
ejemplo, muchos dudarían del razonamiento “Si Juan se cae al río y se ahoga, por lo tanto toda
persona que caiga al río se ahogará”, pero no dudarían del razonamiento “Si suelto esta piedra se
cae, por lo tanto cualquier piedra que tire también caerá”.
Finalmente, otra forma de plantear la misma cuestión es la siguiente: nuestras generalizaciones
deben basarse en afirmaciones particulares verdaderas, pero ello no garantiza la verdad de la
generalización. En la inducción no hay ninguna garantía que la verdad se transporte desde las
premisas particulares a la conclusión general. Algunos pensadores como Popper admiten que la
inducción puede ser útil en el contexto de descubrimiento (por ejemplo para ‘descubrir’
regularidades en los fenómenos observados), pero no sirve en el contexto de justificación, es
decir, hecho que no permite ‘justificar’ o validar la regularidad expresada en la conclusión general.
Otros autores como Hempel están más dispuestos a aceptar la inducción como medio para validar
generalizaciones si se la acepta en un ‘sentido amplio’, por utilizar una expresión de Hempel (1): las
reglas de la inducción determinarían la fuerza de apoyo que las observaciones particulares
prestan a la hipótesis general, y pueden expresar ese apoyo en términos de probabilidades.
Nota
(1) Hempel K, (1977), Filosofía de la ciencia natural. Madrid: Alianza, 3° edición, págs. 36-37.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
6
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
10. INVESTIGACIÓN EN CIENCIAS FÁCTICAS
“Una de las ideas asumidas acríticamente por una gran parte de la comunidad científica es
la forma en que se concibe la metódica de la investigación en las ciencias fácticas
copiando el modelo dominante en las ciencias naturales. Este modelo supone que a partir
de una serie de informaciones o datos, el científico elabora una hipótesis y que todo el
trabajo posterior deberá limitarse a verificar o comprobar empíricamente (normalmente
empleando la estadística) la verdad o consistencia de la hipótesis. Esta forma de
comprender el trabajo de investigación es admitida como normativa o prescriptiva
obligatoriamente, algo así como un "dogma" infalible, que no puede ni ser cuestionado. Y
consecuentemente también se pasa luego a valorar el trabajo científico, por ejemplo en una
tesis doctoral, o en un proyecto docente, simplemente aplicando ese modelo de lo que debe
ser la investigación científica”.
Rodríguez de Rivera J (2000) Epistemología o Teoría de la Ciencia y Reflexión Crítica sobre los Fundamentos de las Ciencias de la
Organización (en cuanto se refiere a ciencias fácticas). Universidad de Alcalá.
11. PARADIGMA
Según Kuhn, los paradigmas son:
“realizaciones científicas universalmente reconocidas que, durante cierto tiempo,
proporcionan modelos de problemas y soluciones a una comunidad científica.”
(pág. 13).
Un paradigma “es una realización científica que comparte dos características esenciales: a)
su logro carecía suficientemente de precedentes como para haber podido atraer a un grupo
duradero de partidarios, alejándolos de los aspectos de competencia de la actividad
científica”, y b) “simultáneamente, eran lo bastante incompletas para dejar muchos
problemas para ser resueltos por el redelimitado grupo de científicos”
(págs. 33-34).
Siete años más tarde (en la Posdata de 1969), Kuhn llega a especificar que el término paradigma
se utiliza en dos sentidos diferentes:
i.
Como una constelación de acuerdos de grupo (sentido sociológico):
“Constelación de creencias, valores, técnicas, y así sucesivamente, compartidos por
los miembros de una comunidad dada”.
ii.
O como ejemplos compartidos:
“paradigma denota una especie de elemento en tal constelación, las solucionesenigmas concretas que empleadas como modelos o ejemplos, pueden reemplazar a
reglas explícitas como base para la solución de los enigmas restantes de la ciencia
normal”.
(op.cit.pág. 269).
Kuhn Thomas (1975) La estructura de las revoluciones científicas. Madrid: Fondo de Cultura Económica.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
7
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
12. PARADIGMA DE LAS CIENCIAS NATURALES
Para este paradigma, la ciencia es una construcción objetiva, acumulativa y lineal de saber
teórico. Considera que hay una realidad externa independiente del hombre, de la cual se
descubren leyes universales. El investigador debe ser objetivo y neutral frente a los valores, y su
interés es la verificación racional y empírica. El paradigma de las ciencias naturales es a-histórico
y asocial, pues busca leyes universales.
La crítica post-empirista al paradigma de las ciencias naturales: esta crítica viene sobre todo
de Kuhn, para quien el paradigma dominante define ciertos valores, creencias y actitudes. Los
científicos no son individuos aislados que buscan la verdad, sino una 'verdad' que se corresponde
con el paradigma, dentro de un contexto de valores y expectativas. O sea, la ciencia no es neutral.
Las teorías cambian no porque no hayan sido verificadas en los hechos, sino porque cambia el
contexto socio-histórico y sus valores. El conocimiento es creado, y no simplemente descubierto.
Usher R y Bryant I, (1992) La educación de adultos como teoría, práctica e investigación. El triángulo cautivo. Capítulo 2: Crítica de
los modelos tradicionales de investigación. Morata, Madrid.
13. PARADIGMA INTERPRETATIVO
Este paradigma cuestiona la utilidad de las ciencias naturales como modelo para las ciencias
sociales, pues las primeras tienen una visión del hombre donde no le reconocen su capacidad
para interpretar el mundo, de imponerle significados mediante sistemas simbólicos como el
lenguaje. La sociedad se crea en y a través de significados, mientras que las ciencias naturales
tienden a ver al hombre asocialmente, aislado. No consideran que el hombre pueda reflexionar
sobre su propia conciencia, y, por tanto, cambiarla. Intentan explicarlo, en vez de interpretarlo o
comprenderlo (Dilthey). Tratan de objetivizarlo en vez de considerar su subjetividad, la cual sólo
puede ser entendida dentro de un contexto social.
La investigación no consiste en partir de una teoría y luego verificarla, sino en basar la teoría en la
interacción social: así emerge de la investigación, en vez de precederla. Además, la teoría no se
juzga en criterios exteriores a la sociedad, y sus investigaciones son cualitativas más que
cuantitativas.
Se debe incluir en el paradigma interpretativo la comprensión hermenéutica: como los textos, los
significados subyacentes a las prácticas no siempre resultan claros, y por ello hay que hallarlos
con la interpretación, pero esta siempre se realiza desde la localización histórica presente: no se
puede abolir los prejuicios por un acto de voluntad. Los prejuicios, dice Gadamer, son una
condición de la comprensión del ser humano. El círculo hermenéutico es un proceso donde el todo
se comprende desde las partes, y estas a partir del todo: comprendiendo las cosas se puede
comprender y cambiar los prejuicios. Todo el conocimiento está históricamente localizado y
situado, toda la comprensión es interpretación. La comprensión hermenéutica es el modo primario
de ser en el mundo. Las ciencias fácticas tienen una doble hermenéutica: se interesan por los
significados, pero también por lo objetos de la observación del científico social.
Usher R y Bryant I, opus citate.
14. PSICOLOGÍA
Status científico de la psicología. La psicología es considerada ciencia? Las opiniones están
divididas: hay quienes la consideran ciencia, y otros no. En general, estas opiniones descansan
sobre la idea de verificabilidad. Por ejemplo, para los más escépticos, la psicología no es ciencia
porque presenta una serie de afirmaciones especulativas que no se pueden demostrar o verificar
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
8
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
en la realidad, sea mediante experimentos o por simple observación, como por ejemplo el
psicoanálisis.
El método científico en psicología. La historia del método científico en psicología comienza
cuando ésta se convierte en una ciencia, es decir, durante la segunda mitad del siglo XIX. Los
primeros intentos fueron recoger los métodos de las ciencias ya constituidas, como la física o la
biología, y fue así que se introdujo el método experimental en la psicología. Sin embargo, dado el
particular objeto de estudio de esta disciplina, se requerían métodos más adecuados, y fueron
apareciendo por ejemplo el método de la introspección (Wundt, 1879), el método interpretativo
(Freud, 1900), el método comprensivo (Dilthey) y el método fenomenológico (Husserl). Más tarde,
hacia la década del 30 y como consecuencia del perfeccionamiento de la estadística (Fisher y
otros), la psicología incorpora métodos y técnicas más refinados para probar sus teorías. La
psicología también adoptó el método clínico de la medicina, sólo que se centró más en una clínica
de la escucha que en una clínica de la mirada, por usar palabras de Foucault (al paciente hay que
escucharlo para indagar su mente, mientras que hay que mirarlo para indagar su cuerpo).
Para profundizar el tema de la evolución del método en psicología hay que recurrir a un texto de
historia de la psicología (para aquellos interesados, se recomienda: “Historia de la psicología”, de
Brett), o bien un diccionario especializado. Para un panorama actual de los diferentes métodos
que se usan en psicología, se puede consultar O’Neil W, “Introducción al método en psicología”,
Eudeba, Buenos Aires, 1968.
Psicología y epistemología. La expresión puede vincularse por lo menos a dos cuestiones
diferentes, que se pueden expresar en forma de dos preguntas, respectivamente, ambas referidas
a problemas epistemológicos en psicología.
i.
Como se llega a construir psicológicamente el conocimiento científico?
ii.
Como se puede examinar la cientificidad de una teoría sobre la mente?
En el primer caso, Piaget se ha planteado ese tipo de problemas, habiendo respondido, por
ejemplo, que el concepto de causa que usan los científicos es el resultado de una construcción
que comienza en la infancia, y que no es innata, ya que el niño no ha nacido con la idea de
causalidad. En el segundo caso, el psicólogo puede plantearse si es o no científica la teoría de la
telepatía o la precognición, o el psicoanálisis mismo. Se han dado muchas respuestas a esta
cuestión, las cuales dependen en última instancia del criterio de cientificidad que uno elija, es
decir, de un criterio epistemológico.
Aportes de la ciencia a la psicología. En realidad, la psicología misma es una ciencia, por lo que
esta pregunta se puede entender de dos maneras:
i.
Qué aporte se hizo desde la ciencia a la psicología? En oposición a los aportes realizados
por las ‘seudo ciencias’ como la astrología y otras. Desde este punto de vista la tradición
positivista ha permitido el aporte de muchas teorías para explicar o predecir la conducta
humana y un método empírico para verificarlas, aún cuando algunos pensadores creen que
ciertas teorías como el psicoanálisis no han verificado suficientemente sus hipótesis.
ii.
Qué aportes hicieron otras ciencias a la psicología? Muchas ideas de la física, la biología,
la antropología, la sociología, etc., han sido aprovechadas para enriquecer el saber
propiamente psicológico. En este breve espacio sería imposible enumerarlas a todas, aunque
puede bastar recordar la idea de campo de la física, la de instinto de la biología, la de cultura
de la antropología y la etnología o la de rol o status de la sociología, entre otras muchas.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
9
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
15. RACIONALIDAD
El racionalismo no puede ser defendido en forma racional: no existe ninguna prueba científica de
la ciencia misma. Feyerabend sostiene que no puede haber ninguna teoría del conocimiento y de
la ciencia que sea a la vez adecuada e informativa prescindiendo de qué ingredientes sociales,
económicos, etc., quiera uno añadir a la teoría. Y todo esto se debe a dos razones:
i.
El mundo es demasiado complejo para ser entendido por teorías que obedecen a principios
epistemológicos, y
ii.
Los científicos, los políticos, etc., en base a lo anterior, violan esas reglas universales y
distorsionan el conocimiento obtenido. Esto es casi siempre algo inconciente, porque
concientemente se objetiviza la ciencia y se la muestra como racional.
La ciencia no se explica desde una teoría inventada, sino desde la práctica, y el análisis del
conocimiento científico debe tener en cuenta tanto las condiciones externas (ideas de la época,
condiciones materiales) como internas (subjetivas, como por ejemplo el temperamento del
científico).
Quienes teorizan sobre la ciencia hablan de un ‘método científico’ infalible que lleva a la verdad,
pero tal método en realidad no existe, ya que el proceder del científico está más bien guiado por
circunstancias ideológicas de la época y por factores subjetivos propios de él como ser humano
que es. Entonces, hablar de una ‘forma correcta de pensar’ es solo una ilusión. Esta creencia en
la racionalidad de la ciencia, incluso entre el pueblo, hace que la palabra del científico tenga tanto
poder.
La ciencia avanza no porque utilice principios abstractos, teóricos, referidos a cómo debe ser la
ciencia, sino que avanza por continua práctica, por la acción. Desde luego que el científico actúa
en función de ideas, pero estas fueron modificadas por las subjetividades (deseos, sueños,
emociones, etc).
Feyerabend Paul, Adiós a la razón (ítem Razón y práctica: págs. 69-81)
16. REFUTACIÓN
Proceso por el cual se declara falsa una hipótesis o una teoría sobre la base elementos de juicio
principalmente empíricos. La refutabilidad o falsabilidad (posibilidad de refutación) es una
característica esencial de las teorías científicas para Popper.
No debe confundirse una teoría anticuada con una teoría falsa. Las teorías falsas son eliminadas,
mientras que las anticuadas pueden tornarse nuevamente vigentes bajo ciertas condiciones. Por
ejemplo, el lammarkismo empieza hoy a ser reivindicado frente al darwinismo. No era
necesariamente falsa: simplemente quedó desplazada por el darwinismo, en parte por influencia
de la revolución industrial del siglo XIX. Otros ejemplos ilustran teorías que fueron abandonadas
por ser falsas, como la teoría de Ptolomeo (sustituida por la de Copérnico) o la del flogisto
(sustituida por la teoría cinética del calor de Runford).
17. REVOLUCIÓN CIENTÍFICA
Entre las más conocidas explicaciones sobre las revoluciones científicas se cuenta la de Thomas
Kuhn. Este epistemólogo norteamericano ha sostenido que la historia de la ciencia puede
describirse como una alternancia entre momentos de ciencia ‘normal’ y momentos de revolución
científica. Esta última se produce cuando un paradigma es reemplazado total o parcialmente por
otro, una vez que el anterior mostró suficientes anomalías y una vez que el nuevo paradigma es
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
10
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
aceptado (casi se diría a un nivel afectivo) por la comunidad científica. Kuhn formuló esta
concepción principalmente en relación con las ciencias ‘duras’, como por ejemplo la física. En tal
sentido, indudablemente las revoluciones han hecho avanzar la física, en el sentido que la han
llevado a formular nuevos paradigmas que parecen ser más adecuados para describir y explicar la
realidad. El caso de las ciencias sociales parece ser distinto, ya que estarían en un periodo
preparadigmático y, estrictamente hablando, entonces no cabría hablar de revoluciones científicas
en este ámbito.
18. TEORÍA
Una teoría es un sistema de enunciados ordenados jerárquicamente desde los más generales
hasta los más particulares y donde los últimos de derivan deductivamente de los primeros. Todos
los enunciados se refieren a un determinado sector de la realidad, y la teoría en su conjunto tiene
como finalidad suministrar explicaciones y/o predicciones acerca de los fenómenos a los que se
refieren sus enunciados. Ejemplos: teoría psicoanalítica, teoría cinética de los gases, teoría de la
evolución de Darwin, teoría atómica de Dalton, teoría de Copérnico, etc.
Etimológicamente, el término 'teoría' significa 'mirada', es decir, la teoría es una forma de mirar las
cosas: el psicoanálisis, el cognitivismo, el conductismo son teorías distintas porque tienen
diferentes maneras de 'mirar' un síntoma o una conducta cualquiera. No es una mirada con el ojo
sino con la mente, es decir, la teoría es un acercamiento a la conducta desde una cierta
perspectiva mental.
A partir de aquí hay muchos tipos de teorías, como por ejemplo nuestras teorías cotidianas o las
teorías filosóficas y las científicas. En la vida cotidiana, en efecto, cada uno puede tener su propia
teoría sobre cómo cocinar la carne, o como lograr algo de las personas (premiándolas,
castigándolas, etc.). También se pueden tener diferentes teorías filosóficas (por ejemplo acerca de
si existe o no la realidad), y hay también teorías científicas, que pueden ser físicas, químicas,
astronómicas, psicológicas, etc. según el tipo de fenómeno que traten de explicar o predecir.
Justamente la teoría científica es una construcción mental destinada a dar una explicación de los
hechos y/o a predecir su ocurrencia.
Hay quienes sostienen que las teorías deben ser verdaderas (las suposiciones teóricas deben
realmente expresar lo que sucede en la realidad) y otros para quienes lo importante de las teorías
es que sean útiles (la teoría permite predecir acontecimientos, lo cual permite la posibilidad de
controlar o no su ocurrencia, o, al menos, estar preparados para cuando sucedan).
NOTA FINAL DEL CAPÍTULO.
La Epistemología, por ser la “Ciencia que Estudia a la Ciencia”, es una rama de la
filosofía que se encuentra en plena construcción y desarrollo, de forma que el
lector deberá considerar para cada uno de los 18 artículos precedentes, que al
igual que en la Ciencia misma, no existen ni verdades absolutas ni conocimientos
terminados.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
11
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
III. GLOSARIO DE LÓGICA
TÉRMINOS
01. Análisis Lógico
02. Axioma
03. Deducción
04. Enunciado
05. Estructura Lógica
06. Falacia
07. Formalización
08. Inducción
09. Lógica
10. Lógica Difusa
11. Lógica de Términos
12. Lógica Proposicional
13. Principio Lógico
14. Razonamiento
15. Razonamiento Analógico
16. Razonamiento Inmediato
17. Razonamiento no Deductivo
18. Silogismo
19. Simbolización
20. Sistema Formal
21. Término
22. Validez
23. Validez, Prueba de
Los siguientes conceptos se pueden encontrar en otros artículos según el siguiente detalle:
Axioma ver
Condicional ver
Conjunción ver
Consistencia ver
Cuadro de oposición ver
Demostración ver
Disyunción ver
Entimema ver
Función proposicional ver
Inferencia ver
Juicio ver
Lógica cuantificacional ver
Lógica de clases ver
Lógica de predicados
Lógica de relaciones ver
Lógica funcional ver
Lógica bivalente ver
Lógica trivalente ver
Lógica polivalente ver
Meta lógica ver
Modelo ver
Negación ver
Pensamiento ver
Proposición ver
Petición de principio ver
Sofisma ver
Teorema ver
Término primitivo ver
………………………………
………………………………
………………………………
………………………………
………………………………
………………………………
………………………………
………………………………
………………………………
………………………………
………………………………
………………………………
………………………………
………………………………
………………………………
………………………………
………………………………
………………………………
………………………………
………………………………
………………………………
………………………………
………………………………
………………………………
………………………………
………………………………
………………………………
………………………………
Sistema Formal y Principio lógico
Lógica Proposicional
Lógica Proposicional
Sistema Formal y Validez
Razonamiento Inmediato
Axioma y Sistema Formal
Lógica Proposicional
Razonamiento Inmediato
Lógica de Términos
Razonamiento
Enunciado
Lógica de Términos
Lógica de Términos
Lógica de Términos
Lógica de Términos
Lógica de Términos
Enunciado
Enunciado
Enunciado
Formalización
Sistema Formal
Lógica Proposicional
Razonamiento
Enunciado
Falacia
Falacia
Sistema Formal y Principio Lógico
Sistema Formal
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
12
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
01. ANÁLISIS LÓGICO
Proceso de descomposición de razonamientos en enunciados, y, eventualmente, de éstos
en términos. Conjuntamente con la simbolización y la formalización, el análisis lógico crea
las condiciones para determinar la validez de los razonamientos, objetivo central de la
lógica.
i.
Generalidades. En general, analizar significa descomponer un todo en partes. El análisis
lógico en particular, es aquel que descompone un razonamiento en enunciados, y a veces
también llega a descomponer los enunciados en sus términos, con el fin de establecer la
validez de los razonamientos.
ii.
El análisis en la lógica proposicional. A los efectos de comprobar el carácter válido o
inválido de una inferencia, lo primero que intentará hacer el lógico es descomponer el
razonamiento en enunciados, ya que sabe que la validez o la invalidez depende de cómo
están los enunciados relacionados entre sí (y, desde ya, para examinar estas relaciones hay
que identificar primero cuáles son los elementos relacionados, es decir, los enunciados). Esta
es la gran tarea de la llamada lógica proposicional, ya que procura identificar los componentes
del razonamiento llamados enunciados o proposiciones. La lógica proposicional es
considerada la lógica más básica y fundamental, en el sentido que es la primera que el lógico
utilizará en sus intentos por determinar la validez de una inferencia.
iii. El análisis en la lógica de términos. Lamentablemente puede suceder que, aún cuando el
lógico haya identificado los enunciados componentes y sus mutuas relaciones, y aún cuando
haya agotado todas las pruebas de validez que conoce para estos casos, todavía no consiga
averiguar si el razonamiento es válido o no.
En estos casos, el lógico sospecha que la validez está también dependiendo de la estructura
interna de los enunciados, los que hasta entonces, con la lógica proposicional, habían sido
tomados como unidades últimas de análisis sin examinarlos internamente. Consiguientemente,
se debe aquí dar un segundo paso analítico y descomponer los enunciados en sus términos
componentes, que es la tarea importante de la llamada Lógica de Términos.
Estos dos pasos sucesivos permiten explicar la clasificación de la lógica en dos grandes
capítulos: la Lógica Proposicional y
la Lógica de Términos.
iv. Limitaciones de la lógica. Desde ya,
aún cuando hayamos descompuesto
el enunciado en términos y aplicado
todas las pruebas de validez
conocidas para estos casos, puede
ocurrir que todavía no hayamos
podido determinar la validez o la
invalidez de la inferencia. En estos
casos el lógico, procede:
i.
o bien encarando un último y extremo
análisis, examinando si los términos
en sí mismos, por su carácter vago o
ambiguo pueden estar determinando
la invalidez del razonamiento, o
ii.
esforzándose por diseñar nuevas
pruebas de validez (ver Validez,
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
13
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Prueba de), de aquí que la lógica se empeña continuamente, en un nivel técnico, por
perfeccionar o diseñar nuevas pruebas de validez cada vez más sofisticadas y eficaces.
Cuando con cualquiera de estas pruebas no puede demostrarse que un razonamiento es
válido, esto no significa, desde luego, que sea inválido, del mismo modo que si no podemos
demostrar la inocencia del acusado, ello no significa que es culpable.
02. AXIOMA
Los axiomas son enunciados que se aceptan como verdaderos e indemostrables por simple
convención para derivar, a partir de ellos, otros enunciados llamados teoremas.
Los axiomas son las primeras afirmaciones que se proponen para inferir, derivar, deducir, etc., a
partir de ellas, otras afirmaciones que pueden fundamentarse o probarse mostrándose,
precisamente, que derivan de aquellos axiomas (proceso denominado demostración). Además, son
indemostrables, pues si se pudiera demostrar deberían probárselos mediante afirmaciones más
fundamentales, y entonces los axiomas ya dejarían de ser las 'primeras' afirmaciones.
Por ejemplo, un axioma de la lógica puede ser el principio de identidad, según el cual todo
elemento es idéntico a sí mismo (A=A), y un axioma de la geometría euclidiana puede ser la
afirmación según la cual por dos puntos sólo puede pasar una y sólo una recta.
Antiguamente se pensaba que los axiomas debían ser evidentes por sí mismos, indubitables. Pero
conforme avanzó la historia de la lógica y la matemática esta idea fue cambiando poco a poco, y
hoy en día los axiomas son propuestos más como verdades por convención que como verdades
por convicción.
Esta nueva idea sobre los axiomas fue creciendo solidariamente con la importancia que se les fue
asignando al estudio de los sistemas formales (ver Sistema formal). En estos, se parte de una
serie de axiomas arbitrarios y luego se derivan a partir de ellos y mediante reglas explícitas, ciertos
otros anunciados llamados teoremas. Cuanto mayor cantidad y diversidad de teoremas puedan
deducirse, más fecundo será el conjunto de los axiomas.
Esta relatividad de los axiomas se pone de manifiesto, por ejemplo, en los siguientes hechos:
i.
un enunciado que figura como axioma en un sistema formal puede aparecer como un teorema
de menor nivel en otro sistema formal distinto;
ii.
a un sistema formal se le puede cambiar un axioma y no se produce ninguna hecatombe:
simplemente se transforma en otro sistema formal. Tal lo que sucedió cuando a la geometría
euclidiana le cambiaron el quinto axioma y quedó transformada en una geometría no
euclidiana.
03. DEDUCCIÓN
Tipo de razonamiento donde la conclusión se pretende o se espera que se derive de la o las
premisas con carácter de necesidad lógica. La deducción puede ser válida o inválida.
Sinónimo: razonamiento deductivo.
i.
Caracterización. Como muchas palabras que terminan en "ción", la deducción designa una
acción o un efecto, y en este caso, la acción o efecto de deducir. La deducción como acción es
el acto mismo de desarrollar un razonamiento deductivo, y en todo caso tiene interés para el
psicólogo. En cambio, lo que al lógico le interesa es el resultado de esa acción, es decir, el
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
14
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
razonamiento en sí, más allá de la acción de haberlo llevado a cabo. Tal es el sentido que nos
interesará.
En la vida cotidiana solemos decir "deduje" tal o cual cosa, cuando en realidad muchas veces
hemos utilizado razonamientos que no eran deductivos. La lógica asigna a la expresión
"deducción" un significado muy preciso, que pasamos a considerar brevemente.
Cuando se habla de deducción, suele hacerse referencia a las siguientes tres características,
que explicaremos trazando al mismo tiempo sus diferencias con el razonamiento no deductivo
(diferencias sintetizadas en el esquema adjunto):
a.
La deducción es un razonamiento que va de premisas más generales y derivar desde ella
una conclusión más particular. En palabras simples, la deducción va de lo general a lo
particular, mientras que el razonamiento no deductivo va de lo particular a lo general. En
los ejemplos siguientes se ve claro el diferente nivel de generalidad entre premisa y
conclusión:
Ejemplo de razonamiento deductivo:
"Todos los perros ladran;
por lo tanto,
algunos perros ladran".
Ejemplo de razonamiento no deductivo:
"Algunos perros ladran;
por lo tanto,
todos los perros ladran".
Esta primera caracterización de la deducción es de inspiración aristotélica, hoy
prácticamente en desuso a pesar de que, inexplicablemente, se la sigue repitiendo en
algunos ámbitos educativos. Las que hoy tienen vigencia son las siguientes dos
caracterizaciones.
b.
La deducción es un razonamiento donde la conclusión se pretende que sea necesaria
respecto de las premisas, es decir que, dadas las premisas, se espera que la conclusión
se desprenda necesariamente de ellas. El razonamiento no deductivo, en cambio,
pretende para la conclusión solamente un cierto grado de probabilidad.
En los ejemplos anteriores, la conclusión "algunos perros ladran" se deriva
necesariamente de la premisa "Todos los perros ladran", porque si es cierto que todos los
perros ladran, entonces forzosamente algunos deben ladrar, pues son perros. En cambio,
en el caso del razonamiento no deductivo, la conclusión de que "todos los perros ladran" a
partir de que algunos lo hacen es sólo probable, del mismo modo que el hecho de que
una persona sea mala no significa que todas lo sean.
Esta nueva definición de deducción basada en la idea de necesariedad da por tierra con la
vieja definición que se basaba en lo general y lo particular. En efecto, es posible
encontrar:
*
Razonamientos con conclusión necesaria donde premisas y conclusión tengan el
mismo grado de generalidad, o también razonamientos también deductivos que se
extiendan de lo particular a lo general, y,
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
15
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
*
c.
Razonamientos con conclusión probable donde la premisa no es menos general que
la conclusión, como el caso de los razonamientos analógicos.
La deducción es un razonamiento donde se pretende que las premisas sean necesarias y
suficientes para demostrar fehaciente o necesariamente la conclusión. En el razonamiento
no deductivo, en cambio, las premisas pueden ser necesarias pero no son suficientes
para semejante aseveración, lo que convierte a la conclusión en un enunciado probable.
Aplicando esta definición a los ejemplos anteriores, podemos decir que la premisa "Todos
los perros ladran" es necesaria y suficiente para demostrar la conclusión, es decir, no se
precisan agregar más premisas para seguir "reforzando" la misma: con esa sola premisa
es suficiente. En el caso del razonamiento no deductivo, en cambio, la premisa de que
"Algunos perros ladran", si bien necesaria, no alcanza a ser suficiente prueba de la
conclusión "Todos los perros ladran", del mismo modo que el hecho de que en un
supermercado hayamos encontrado productos de calidad, no prueba que todos sus
productos lo sean. Por tanto, en los razonamientos no deductivos siempre podemos
seguir agregando premisas para seguir reforzando la conclusión, es decir, siempre
podemos comprobar que otros productos son también buenos para reforzar aún más la
conclusión de que todos los productos lo son.
Otra manera de expresar lo dicho es la siguiente: En el razonamiento deductivo, la verdad
de las premisas es garantía suficiente para la verdad de la conclusión, y en los
razonamientos no deductivos la verdad de las premisas nunca es garantía para dicha
verdad de la conclusión.
Las dos últimas caracterizaciones del razonamiento deductivo (puntos b y c), son en
realidad dos caras de la misma moneda y apuntan a lo mismo: simplemente en un caso
se hace referencia a cómo debe ser la conclusión (necesaria), y en el otro a cómo deben
ser las premisas (necesarias y suficientes).
Otra diferencia entre razonamientos deductivos y no deductivos está relacionada con la
cuestión de la validez (1), y que aparece sintetizada en el esquema adjunto: en los
razonamientos deductivos su validez (o invalidez) es puramente formal, y puede decidirse
mediante ciertas técnicas especialmente diseñadas por los lógicos (ver Validez, Prueba de).
En cambio, para decidir acerca de la validez de los razonamientos no deductivos debemos
recurrir al método científico (experimentos, etc.), con lo cual ingresamos en un extenso y
variado capítulo de la epistemología, que no es el cometido del presente Glosario.
Finalmente, señalemos un enfoque de la deducción que tiene un interés sobre todo
epistemológico: se ha dicho a veces que la deducción no procura conocimiento nuevo, porque
estamos repitiendo en la conclusión lo que ya habíamos dicho en las premisas. Por ello se ha
calificado a la deducción como un razonamiento tautológico (tautos= repetición). Si a partir de
que "Todos los perros ladran" concluimos que "Algunos ladran" nos dirán ¡Chocolate por la
noticia!... En este ejemplo es obvia la falta de conocimiento nuevo que la deducción aporta,
pero hay razonamientos deductivos más complicados (es decir, cadenas inferenciales más
largas) donde la relación entre la primera premisa y la conclusión no es tan evidente, y
entonces nos da la impresión de que obtenemos nueva información, pero se trata solamente
de una apreciación subjetiva, porque si el razonamiento es efectivamente deductivo, lo dicho
en la conclusión no hará siempre más que repetir, aunque de manera no tan evidente a veces,
lo ya dicho en las premisas. Si extremamos las cosas, inclusive muchos razonamientos
deductivos no sólo no aportan nuevo conocimiento sino que hasta 'disminuyen' nuestro saber,
como cuando partimos de "Todos los perros ladran" y concluimos que "Algunos perros ladran".
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
16
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Diferencias entre razonamientos deductivos y razonamientos no deductivos
Razonamiento deductivo
ii.
Razonamiento no deductivo
De premisas generales se deriva una
conclusión más particular.
Las premisas no son más particulares que la conclusión.
La conclusión es necesaria.
La conclusión es probable.
Las premisas son necesarias y suficientes para
demostrar con seguridad la conclusión.
Las premisas son necesarias pero no suficientes para
demostrar con seguridad la conclusión.
Su validez puede decidirse por métodos
puramente lógicos y de manera definitiva,
porque la validez depende de la forma lógica
del razonamiento y no de su contenido.
Su ‘validez’ no puede decidirse por métodos lógicos; se
requieren métodos extralógicos para establecerla, y sólo
provisionalmente. ello es debido a que la ‘validez’ depende
aquí del contenido informativo de sus enunciados y de su
adecuación a los hechos a los que los enunciados hacen
referencia.
Todo lo que se dice en la conclusión está de
algún modo ya dicho en las premisas.
Todo o parte de lo que se dice en la conclusión es algo que no
ha sido dicho en las premisas.
Ejemplo:
“Todos los perros ladran;
Fido es un perro;
por lo tanto, Fido ladra”.
Ejemplo:
“Un perro ladra;
por lo tanto, todos los perros ladran”.
Clasificación. Los razonamientos deductivos pueden ser válidos o inválidos. En la definición
dada de deducción, se dice que se "pretende" que la conclusión se derive necesariamente de
las premisas porque no se puede presuponer que la deducción sea siempre válida. El
razonamiento deductivo será válido cuando cumpla ciertos requisitos formales relativos a la
relación entre las premisas y la conclusión (ver Validez). Ejemplos de razonamientos
deductivos válidos elementales son el Modus Ponens y el Modus Tollens.
Nota
(1)
Colacilli de Muro M y J, "Elementos de lógica moderna y filosofía", Buenos Aires, Estrada, 1979, página 103.
Lecturas complementarias sugeridas
Cazau Pablo, "Acerca de la inteligencia lógica" (El Observador N° 17, página 334). Donde se muestran ejemplos de razonamientos
inductivos y deductivos aplicados a un problema de lógica.
Salama Alicia, "Lógica simbólica y elementos de metodología de la ciencia", Buenos Aires, El Ateneo, 1979, 3° edición. Capítulo 2,
punto 10: "Los razonamientos deductivos".
04. ENUNCIADO
Expresión lingüística de la cual tiene sentido decir que es verdadera, falsa o probable. Junto
a los términos y a los razonamientos, constituye una de las tres estructuras lógicas básicas.
Sinónimos y expresiones asociadas: proposición, juicio, sentencia.
i.
Generalidades. Un enunciado se caracteriza por ser una afirmación (o una negación) de algo
acerca de algo, y por ello tiene sentido predicar de él la verdad, la falsedad o aún la
probabilidad. La expresión "loro" no es ni verdadera ni falsa: es un simple término, pero en
cambio "mi tía es un loro" ya es un enunciado porque puede ser verdadero o falso. Otra forma
de reconocer un enunciado tiene relación con la presencia de un verbo que funcione como tal.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
17
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
En este sentido, una sola palabra puede ser un enunciado, como "llueve", y varias palabras
pueden no alcanzar para constituir un enunciado, como "el cantar de los cantares". Esta última
expresión tiene un verbo sustantivado, vale decir, no funciona como verbo sino como
sustantivo.
Si bien todo enunciado incluye un verbo, no toda expresión con verbos es un enunciado en el
sentido de la lógica que aquí se esta viendo. Por ejemplo "Abra la puerta" incluye un verbo,
pero es algo de lo cual carece de sentido decir que sea verdadero o falso, porque es
simplemente una orden, no una afirmación. La lógica que se pretende examinar en este
Glosario no se ocupa del uso imperativo del lenguaje sino de su empleo declarativo o
enunciativo, donde la intención es formular afirmaciones y, por consiguiente, comunicar
información, que podrá ser verdadera, falsa o probable.
Cuando de los enunciados se dice que son verdaderos o falsos, esto quiere decir que hay
únicamente dos valores de verdad para estos últimos: V o F, siempre que se esté en el
contexto de una lógica bivalente. Una extensión de esta lógica es la llamada lógica trivalente,
que incorpora un tercer valor de verdad: la probabilidad, de manera que según ella los
enunciados podrán ser verdaderos, falsos o probables. Existen también lógicas polivalentes,
algunas de las cuales fueron especialmente diseñadas para el psicoanálisis, mientras que
otras encuentran su total y completa aplicación en las ciencias de la Inteligencia Artificial, tal el
caso de la Lógica Difusa.
Se debe tener presente, en suma, que está mal decir "enunciado válido" o "razonamiento
verdadero". La validez es una propiedad exclusiva del razonamiento, y la verdad, de los
enunciados.
Habitualmente, los enunciados se representan mediante letras minúsculas a partir de la 'p',
probablemente porque con 'p' empieza 'proposición', un término asociable a 'enunciado'.
Suele distinguirse proposición (significado) y enunciado (significante). Por ejemplo, dos
enunciados diferentes pueden tener el mismo significado, es decir, corresponder a la misma
proposición: "el lápiz es azul" y "the pencil is blue". Desde ya, a la lógica no le interesan estas
distinciones idiomáticas, y su única preocupación en este sentido es saber si los diferentes
enunciados tienen o no el mismo significado, sea cual fuere éste, es decir, le interesa la
proposición más que el enunciado porque es a partir de la primera que se podrá determinar su
verdad, falsedad o probabilidad. En suma, el enunciado es la expresión lingüística de la
proposición. Otros vocablos asociados con proposición y enunciado son juicio y sentencia.
Términos, enunciados y razonamientos son tres estructuras básicas de la lógica, establecidos
de la siguiente forma:
Los Términos son unidades de significación;
Los Razonamientos son unidades de argumentación;
y,
Los Enunciados son unidades de interpretación.
Si bien esta expresión es sumamente ambigua, pues hasta llega a incluir el sentido
psicoanalítico, se la mantiene más por una cuestión de tradición: uno de los capítulos del
"Organon", el tratado de lógica de Aristóteles", fue traducido como "Perihermeneias" o también
como "De Interpretatione", y se ocupa precisamente de los enunciados. Los enunciados,
efectivamente, van un poco más allá de los meros términos, porque intentan una explicación o
una aclaración (es decir, una interpretación). Por ejemplo, no es lo mismo decir "oso" (término)
que decir "el oso es grande" (enunciado).
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
18
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Se debe tener presente que el enunciado es una estructura intermedia: varios términos forman
un enunciado, y varios enunciados forman un razonamiento. Todas las características de los
enunciados precedentemente indicadas y sus diferencias con el término y el razonamiento
aparecen sintetizadas en el esquema que acompaña al artículo Estructura Lógica.
ii.
Clasificación de los enunciados. Para los enunciados, se citan algunas clasificaciones
importantes. Las cuatro primeras corresponden a la tradición aristotélica, las dos siguientes a
la tradición kantiana, y la última es propia de la lógica proposicional (ver esquema adjunto).
a.
Afirmativos y negativos. "Un mono es un mamífero" es un enunciado afirmativo, y "Un
mono no es un invertebrado" es un enunciado negativo. En rigor, desde cierto punto de
vista todo juicio es afirmativo (decir que un mono no es un invertebrado es afirmar que no
lo es), y con el mismo criterio, también es cierto que todo juicio es negativo (decir que un
mono es mamífero es negar que sea otra cosa distinta).
b.
Universales, particulares y singulares. Los juicios universales afirman (o niegan) algo
acerca de 'todos' los individuos de una clase, como "Todos los animales son seres vivos".
Los juicios particulares se refieren solamente a algunos, como "Algunos perros son
grandes". Los juicios singulares hacen referencia, finalmente, a un solo individuo de la
clase, como el caso de "Esta mujer es bella".
c.
Apodícticos, asertóricos y problemáticos. El juicio apodíctico afirma una relación
forzosa, es decir, que 'es así y no puede ser de otra manera', como por ejemplo cuando
se afirma que "un triángulo tiene tres lados". Un juicio asertórico afirma simplemente que
de hecho 'algo es así', por lo que deja abierta la posibilidad que pueda ser de otra
manera, como por ejemplo en "este gato es agresivo". Finalmente, lo juicios problemáticos
no afirman una conexión necesaria ni de hecho, sino probabilística, es decir, 'algo podría
ser así', o sea que "las cosas podrían ser así", como cuando decimos "este docente tal
vez sea sicótico".
d.
Categóricos, hipotéticos y disyuntivos. Un juicio categórico afirma (o niega)
simplemente algo de algo, y por tanto tiene la forma "S es P". Un juicio hipotético
establece, en cambio, una condición: "Si S entonces P", mientras que el enunciado
disyuntivo establece una alternativa: "S es P o Q".
e.
Analíticos y sintéticos. Juicio analítico es aquel en el cual el predicado ya está incluido
en el sujeto ("un triángulo tiene tres ángulos"), y por lo tanto no aporta conocimiento
nuevo. Juicio sintético es, en cambio, aquel que sí aporta información novedosa porque el
predicado no está incluido o implícito en el sujeto ("Juan está sentado").
f.
A priori y a posteriori. Los juicios a priori son formulables independientemente de la
experiencia, y los juicios a posteriori son consecuencia de la experiencia. Kant relacionó
esta clasificación con la anterior, concluyendo que los juicios pueden ser analíticos a
priori, analíticos a posteriori, sintéticos a priori y sintéticos a posteriori. Para él, resultaba
evidente que un juicio analítico fuera a priori (no necesitamos ver un triángulo o tener una
experiencia de él para saber que tiene tres ángulos, ya que tener tres ángulos está
implícito en la idea de triángulo), y también resultaba evidente que un juicio sintético fuese
a posteriori (sólo después de ver a Juan puedo afirmar que está sentado, porque la
propiedad de estar sentado no forma parte implícitamente de la idea de Juan). El
problema se presentó con los juicios sintéticos a priori, problema cuya respuesta fue la
notable teoría kantiana del conocimiento, expuesta en su "Crítica de la Razón Pura" (1).
g.
Atómicos y moleculares. Enunciados o proposiciones atómicas son aquellas que no
pueden subdividirse en proposiciones más elementales, como por ejemplo "Llueve". En
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
19
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
cambio, las proposiciones moleculares son aquellas formadas por dos o más
proposiciones, como por ejemplo "Llueve y hay relámpagos". Estas denominaciones
provienen de la química, ya que aquí se considera que una molécula está constituida por
átomos. Las proposiciones atómicas y moleculares también se denominan,
respectivamente, simples y compuestas.
Esta clasificación tiene especial interés para la lógica proposicional, parte de la lógica que se
ocupa de descomponer proposiciones moleculares en proposiciones atómicas para examinar
cómo están relacionadas entre sí y, sobre esta base, decidir acerca de la validez o invalidez de
los razonamientos (ver Lógica Proposicional).
Algunas clasificaciones de enunciados
Aristóteles
Afirmativos y negativos
Universales, particulares y singulares
Apodícticos, asertóricos y problemáticos
Categóricos, hipotéticos y disyuntivos
Kant
Analíticos y sintéticos
A priori y a posteriori
Lógica Proposicional
Atómicos y moleculares
Nota
(1) Véase Cazau Pablo, "La síntesis kantiana", El Observador Psicológico, Tomo I, N° 5, página 228.
Lecturas complementarias
Quine W, "Filosofía de la lógica", Madrid, Alianza Editorial, 1973. Capítulo 1: "Significación y verdad".
Fatone Vicente, "Lógica e introducción a la filosofía", Buenos Aires, Kapelusz, 1969, 9° edición. En el Capítulo 2 ("El juicio") se hace
una caracterización de los enunciados y se desarrollan algunas clasificaciones de los mismos.
Ferrater Mora J, "Lógica Matemática", México, FCE, 1975. Capítulo 2, punto 6: "Juicio, proposición y sentencia".
Colacilli de Muro M y J, "Elementos de lógica moderna y filosofía", Buenos Aires, Estrada, 1979. Capítulo 5: "Las proposiciones".
Salama Alicia, "Lógica simbólica y elementos de metodología de la ciencia", Buenos Aires, El Ateneo, 1979, 3° edición. Capítulo 2,
punto 8: "Las proposiciones".
05. ESTRUCTURA LÓGICA
Conjunto de elementos en tanto mantienen entre sí relaciones lógicas, como por ejemplo
relaciones de implicación, deducción, subalternación, etc. Las estructuras lógicas más
abarcativas son los sistemas formales, que a su vez incluyen como subestructuras a los
razonamientos, los enunciados y los términos.
i.
Generalidades. Las estructuras lógicas más elementales son, en orden de complejidad
creciente, el término, el enunciado y el razonamiento, que están relacionadas entre sí de la
misma forma que un ladrillo, una pared y una casa: varios términos forman un enunciado, y
varios enunciados forman un razonamiento. En el esquema adjunto se pueden ver algunos
ejemplos, además de otras características que el lector también podrá consultar en los
respectivos artículos (ver Término, Enunciado, Razonamiento).
Cabría preguntarse porqué, si la lógica se interesa por los razonamientos, también debe
interesarse por los enunciados y los términos? Respuesta: porque la lógica sabe que la validez
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
20
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
de un razonamiento va a depender que los enunciados y de cómo ellos estén relacionados
entre sí, e incluso, también hasta de los términos, y de cómo estos estén relacionados entre sí
dentro del enunciado.
Ciertos capítulos de la lógica tienen aspiraciones más vastas, interesándose por aquellas
estructuras lógicas más abarcativas llamadas sistemas formales, como por ejemplo los
sistemas axiomático-deductivos en ciencias formales, o los sistemas hipotético-deductivos en
ciencias fácticas. En esta instancia, la lógica deja de ser una mera técnica para comprobar la
validez o la invalidez de los razonamientos, los cuales pasan a ser, con los enunciados y los
términos, simples sub-estructuras de un sistema formal (ver Sistema Formal). Si los términos,
enunciados y razonamientos son el ladrillo, la pared y la casa, el sistema formal pasaría a ser
entonces la ciudad.
ii.
Estructuras lógicas y psicogénesis. Resulta interesante constatar que, a medida que la
inteligencia y el lenguaje progresan en el sujeto humano, van apareciendo correlativamente
primero las estructuras más simples y luego las más complejas. Al comienzo, el niño balbucea
palabras sueltas (los 'términos' de la lógica), luego arma oraciones (los 'enunciados'),
después pueden construir razonamientos y finalmente, si de adulto se dedica a la investigación
lógica, podrá construir las estructuras más abarcativas llamadas sistemas formales, como los
que armaron Peano, Hilbert o Russell.
Esto no significa que los niños no hayan podido construir estos sistemas formales, sino que no
lo hicieron en forma conciente: las estructuras lógicas que Piaget llama por ejemplo
agrupamientos, grupos artiméticos, etc., están construidas ya en un niño aún antes de la
adolescencia, sólo que forman parte de lo que Piaget denomina su 'inconciente
cognoscitivo'. “Lo que el niño puede hacer 'concientemente' es desarrollar algunos
razonamientos lógicos o aritméticos sencillos, que constituyen subestructuras o aplicaciones
concretas de aquellos sistemas inconcientes”.
Las tres estructuras lógicas básicas
ESTRUCTURA
METAFORA
EJEMPLOS
SIMBOLIZACIÓN
IDEAS
RELACIONADAS
UNIDAD DE
TERMINO
Ladrillo
‘Hombre’
‘Sócrates’
‘es’
S, P, X, etc.
Concepto
Significación
PROPIEDADES
Son o no son
CLASIFICACIÓN
Objetivos
Funcionales
ENUNCIADO
Pared
‘Todos los hombres son
mortales’
p, q, r, s, etc.
O bien ‘S es P’, etc.
Proposición, juicio,
sentencia
Interpretación
Son verdaderos, falsos,
probables
Aristóteles
Kant
(ver Enunciado)
RAZONAMIENTO
Casa
‘Todos los hombres son mortales’
‘Sócrates es hombre’
‘Sócrates es mortal’
p, q / r
O bien
S es P
X es S
X es P
Inferencia
Argumentación
Son válidos o inválidos
Deductivos / No deductivos
Inmediatos / Mediatos
Lecturas complementarias
Colacilli de Muro M y J, "Elementos de lógica moderna y filosofía", Buenos Aires, Estrada, 1979. En el capítulo III sobre "La lógica
formal", se desarrolla el tema de las estructuras lógicas.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
21
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
06. FALACIA
Razonamiento que aparenta ser correcto pero que, tras un cuidadoso análisis, no lo es. Las
falacias pueden clasificarse en formales y no formales, según dependan de la estructura
lógica misma del razonamiento o no. Ideas similares: sofisma, paralogismo.
i.
Caracterización. Las falacias son a la lógica lo que los pacientes son a los psicólogos: así
como para el psicólogo en el paciente hay algo que anda mal, para el lógico en la falacia
también hay algo que anda mal, que es preciso no sólo explicitar sino también demostrar el
porqué. Falacias y pacientes son desafíos para el lógico y el psicólogo, respectivamente.
Dentro de la lógica, se suele definir la falacia como un razonamiento que, aunque incorrecto,
es psicológicamente persuasivo. Un razonamiento evidentemente incorrecto y que no
convence a nadie no es una falacia.
Quien plantea una falacia puede intentar engañar en forma deliberada, o hacerlo
inadvertidamente: en el primer caso la falacia se llama sofisma, y en el segundo
paralogismo (1). Esta distinción no reviste interés lógico, y en todo caso podrá interesar a la
psicología, lo mismo que los motivos que una persona podría tener para emplear una falacia:
una motivación conciente en el sofisma, una motivación inconciente en el paralogismo.
Lo que no debe confundirse es falacia con falsa creencia (o idea equivocada). Creer que todos
los hombres son honestos es una creencia falsa pero no es una falacia porque es una simple
afirmación o enunciado, no un razonamiento. Si yo me propusiese 'probar' mediante un
razonamiento persuasivo aunque incorrecto que todos los hombres son honestos, entonces
estaría utilizando una falacia.
ii.
Clasificación. Aristóteles (1) clasificaba las falacias en dos grandes grupos: las que resultaban
del lenguaje, y las que dependían del tema mismo de que trata el razonamiento.
Entre las primeras encontramos, por ejemplo, el empleo de una palabra con sentidos
diferentes dentro del mismo razonamiento, como por ejemplo el equívoco: "El fin de una cosa
es su perfección; la muerte es el fin de la vida; por lo tanto, la muerte es la perfección de la
vida". En esta falacia se usó la palabra "fin" en dos sentidos diferentes: como objetivo o
propósito, y como acontecimiento cronológicamente último. El objetivo: por ejemplo persuadir a
alguien o a uno mismo de las bondades de la muerte.
Las falacias resultantes del tema mismo se dan cuando por ejemplo quien razona desconoce o
ignora el asunto de que trata, como en "la ciencia no es beneficiosa para la humanidad, pues
ha conducido a la bomba atómica".
Una clasificación más abarcativa de las falacias la encontramos por ejemplo en Copi
las clasifica como formales y no formales (ver esquema adjunto).
(2)
, quien
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
22
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Clasificación de las falacias (versión Copi)
FORMALES
NO FORMALES
DE ATINENCIA
NO FORMALES
DE AMBIGÜEDAD
Silogística
Afirmación del consecuente
Etc.
Argumentum ad baculum (apelación a la fuerza)
Argumentum ad hominem (ofensivo)
Argumentum ad cincumstatia (circunstancial)
Argumentum ad ignorantiam (por la ignorancia)
Argumentum ad misericordiam (llamado a la piedad)
Argumentum ad populum (llamado a la piedad)
Argumentum ad verecundiam (apelación a la autoridad)
Accidens (accidente)
Accidens inversus (Accidente inverso - generalización apresurada)
La causa falsa
Petitio Principii (petición de principio)
La pregunta compleja
Ignoratio elenchi (conclusión inatinente)
Etc.
Equívoco
Anfibología
Énfasis
Composición
División
Etc.
Las falacias formales dependen, como su nombre lo indica, de la forma misma que adopta el
razonamiento más allá de los contenidos de que trata. Podemos considerar como sinónimo de
falacia formal a razonamiento inválido (ver Validez), ya que en lógica se acostumbra a
relacionar la validez o la invalidez con la forma, no con el contenido de los razonamientos. Un
ejemplo de falacia formal es el siguiente silogismo (3):
"Todos los comunistas son partidarios de la medicina socializada;
algunos miembros del gobierno son partidarios de la medicina socializada;
por lo tanto,
algunos miembros del gobierno son comunistas".
Este razonamiento silogístico es inválido solamente en virtud de su forma. Por ejemplo, tiene
la misma forma que este otro razonamiento:
"Todos los conejos son muy veloces;
algunos caballos son muy veloces;
por lo tanto,
algunos caballos son conejos".
Las falacias no formales no dependen, en cambio, de la forma del razonamiento, sino del
modo en que usamos el lenguaje con diversos fines (falacias de atinencia) o bien del empleo
de expresiones ambiguas (falacias de ambigüedad).
La falacia de atinencia se comete cuando la premisa es lógicamente inatinente al propósito de
probar la conclusión. No se trata de una inatinencia psicológica, porque precisamente la falacia
busca engañar o persuadir, es decir, quien escucha el razonamiento cae en la trampa y no ve
la inatinencia entre premisa y conclusión.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
23
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Un ejemplo es la petición de principio, donde se toma como premisa la misma conclusión que
se quiere probar (la conclusión afirma lo que ya estaba dicho en la premisa). Por ejemplo,
cuando alguien afirma que Cervantes es más notable que García Márquez porque la gente de
buen gusto prefiere a Cervantes, y luego, define el buen gusto como aquel que elige a
Cervantes en vez de a García Márquez.
Puede inducir a confusión la expresión 'lógicamente inatinente' que usa Copi para definir las
falacias de atinencia, pues da la impresión que se trata de una falacia formal y no de una
falacia no formal. La petición de principio es, en realidad, un razonamiento válido, porque si la
conclusión afirma lo dicho en la premisa, la conclusión es necesaria. No obstante, la premisa
es inatinente desde el punto de vista de su utilidad para probar la conclusión, del mismo modo
que resulta válido pero inatinente probar que un loro es verde argumentando... que un loro es
verde.
La falacia de ambigüedad se comete, por su parte, cuando el razonamiento contiene frases o
palabras ambiguas, cuyos significados cambian en forma más o menos sutil mientras se
razona. Son las que en la clasificación de Aristóteles se designaban como falacias debidas al
lenguaje.
Un ejemplo es el énfasis, donde la variación sutil del significado está dada por el énfasis que
se pone en determinados vocablos. Se entiende una cosa cuando se dice "No debemos hablar
mal de nuestros amigos", y otra cosa distinta cuando se dice lo mismo enfatizando el término
"nuestros amigos", es decir, dando a entender que podemos hablar mal de cualquier otro que
no sea nuestro amigo.
Finalmente, consignemos que mientras las falacias formales se detectan y evitan
sometiéndolas a las llamadas pruebas de validez (ver Validez, Prueba de), las falacias no
formales se pueden evitar (4) aprendiendo a reconocer los diferentes usos del lenguaje (en el
caso de las falacias no formales de atinencia), o aprendiendo a definir adecuadamente los
términos para que adquieran univocidad (en el caso de las falacias no formales de
ambigüedad)
Notas
(1) Fatone Vicente, "Lógica e introducción a la filosofía", Buenos Aires, Kapelusz, 1969, 9° edición, página 70.
(2) Copi Irving, "Introducción a la lógica", Buenos Aires, Eudeba, 1974, 15° edición, página 82. Otros autores llaman falacias
materiales a las falacias no formales, como por ejemplo Colacilli de Muro M y J, "Elementos de lógica moderna y filosofía", Buenos
Aires, Estrada, 1979, página 98.
(3) Copi Irving, "Introducción a la lógica", Buenos Aires, Eudeba, 1974, 15° edición, página 210-211.
(4) Copi Irving, "Introducción a la lógica", Buenos Aires, Eudeba, 1974, 15° edición, página 116.
Lecturas complementarias
_Copi Irving, "Introducción a la lógica", Buenos Aires, Eudeba, 1974, 15° edición. Capítulo 3: "Falacias no formales".
07. FORMALIZACIÓN
Proceso mediante el cual se especifica o explicita un lenguaje, mediante un metalenguaje.
Entre otras finalidades, junto con el análisis lógico y la simbolización permite crear las
condiciones para instrumentar pruebas de validez para razonamientos.
i.
Generalidades. Señala Ferrater Mora que "formalizar un lenguaje L, equivale a
especificar, mediante un metalenguaje L1, la estructura de L" (1). En principio se puede
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
24
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
formalizar cualquier lenguaje: el lenguaje de la lógica, el del deporte, el de la diplomacia, el
inglés, etc. Tomemos como ejemplo el lenguaje castellano.
Si yo digo que el lenguaje castellano está formado por las letras a, b, c, d, etc, y digo también
por ejemplo que en el lenguaje castellano antes de una 'p' no puede venir nunca una 'n'
('campo' no se escribe 'canpo'), entonces he comenzado a formalizar el lenguaje castellano, es
decir, he comenzado a explicitar, a poner de manifiesto su estructura, esto es, sus elementos
(a, b, c, etc.) y sus relaciones (por ejemplo entre p y m). Se trata de una formalización porque,
explicitando su estructura, estoy atendiendo a su forma, más allá de los contenidos semánticos
de las palabras que lo constituyen.
Esta formalización sólo puede llevarse a cabo utilizando otro lenguaje diferente, es decir, 'un
lenguaje que hable acerca del lenguaje castellano', y que recibe el nombre de metalenguaje.
Con el mismo criterio, también podemos hacer una formalización del lenguaje de la lógica,
diciendo por ejemplo que utiliza ciertos símbolos como 'p', 'q', '{', ')', etc., que sólo ciertas
combinaciones de estos símbolos son aceptables, como por ejemplo 'p . q' y otras no otras,
como '))p', etc., o que sólo ciertas transformaciones de combinaciones de símbolos son
aceptables, como pasar de 'Todo p es q' a 'algún p es q'.
Al explicitar estos símbolos y ciertas relaciones aceptables entre ellos hemos elaborado el
metalenguaje de la lógica, o 'lenguaje que habla sobre el lenguaje lógico'.
ii.
Utilidad. La idea de formalización es tal vez una de las más importantes de la lógica, y no
solamente por su utilidad práctica sino también por sus implicancias teóricas.
a.
Utilidad práctica. Junto con el análisis lógico y la simbolización, permite crear las
condiciones para determinar la validez de un razonamiento mediante alguna prueba de
validez.
Por ejemplo, si queremos averiguar si el razonamiento de Fulano es válido, deberemos
seguir dos pasos:
* Hacer un análisis lógico, es decir descomponerlo en sus elementos constituyentes
como pueden serlos las premisas y conclusión; hacer una simbolización, es decir
simbolizar esos elementos mediante simples letras como p, q, r, etc.; y hacer una
formalización, es decir, explicitar las reglas que permiten pasar lícitamente de las
premisas a la conclusión; y
* El segundo paso no es más que aplicar alguna de las muchas pruebas de validez
(ver Validez, Prueba de) para ver si efectivamente, al pasar de las premisas a la
conclusión, se han respetado las reglas lógicas ya explicitadas.
b.
Utilidad teórica. Pero la lógica no se ocupa solamente de averiguar si los razonamientos
que usamos diariamente son o no válidos, sino que también aborda el estudio de los
sistemas formales. En este contexto, la formalización permite explicitar sus símbolos
primitivos, sus axiomas y sus reglas de formación y transformación (ver Sistema Formal),
lo cual abrió un campo grande y fecundo en la investigación teórica. Lo que se llama
metalógica no es más que la meta-teoría de la lógica, o sea una teoría acerca de la
lógica que: "considera los lenguajes y los sistemas formales y sus interpretaciones
como sus objetos de estudio y que por una u otra razón interesan al lógico, y
consiste en un cuerpo de verdades y conjeturas acerca de esos objetos" (2). O para
decirlo en los términos de Ferrater Mora:
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
25
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
La metalógica es el estudio del vocabulario lógico, o de la lógica en sí, y como tal es
un metalenguaje (3).
Notas
(1) Ferrater Mora José, "Diccionario de Filosofía", Madrid, Alianza, 1979, Tomo II, página 1276.
(2) Hunter Geoffrey, "Metalógica: Introducción a la metateoría de la lógica clásica de primer orden", Madrid, Paraninfo, 1981, pág. 24.
(3) Ferrater Mora José, "Diccionario de Filosofía", Madrid, Alianza, 1979, Tomo III, página 2213.
Lecturas complementarias
Cazau Pablo, "Lenguaje y metalenguaje", El Observador Psicológico, Tomo I, N° 3, página 136.
Hunter Geoffrey, "Metalógica: Introducción a la metateoría de la lógica clásica de primer orden", Madrid, Paraninfo,1981, págs 17 a 28.
Ferrater Mora J, "Lógica Matemática", México, FCE, 1975. Capítulo 8: "Metalógica".
08. INDUCCIÓN
Tipo de razonamiento no deductivo donde la conclusión es más general que las premisas y
donde estas últimas no pueden garantizar la verdad de la conclusión más que con un cierto
grado de probabilidad. Sinónimo: razonamiento inductivo, inferencia inductiva,
generalización inductiva.
i.
Generalidades. Veamos los siguientes ejemplos de razonamiento inductivo:
Ejemplo 1: concluir que 'todos' los esquizofrénicos tienen alucinaciones visuales, sobre la
base de haber visto 'algunos' casos de esquizofrénicos con esas características.
Ejemplo 2: concluir que siempre después del relámpago vendrá el trueno, porque cada vez
que ví un relámpago después escuché un trueno.
Ejemplo 3: concluir que siempre que iré a la parada del micro el micro vendrá, sobre la base
de que hasta ahora siempre me ocurrió lo mismo.
Los ejemplos nos ilustran sobre las dos características que definen al razonamiento inductivo:
van de lo particular a lo general, y su conclusión es probable.
a.
La inducción va de lo particular a lo general: como puede verse por los ejemplos, la
inducción extiende las conclusiones sobre los casos 'observados' a todos los casos
'posibles'.
Sin embargo, si esta fuera la única característica de la inducción deberíamos incluir otros
razonamientos que también van de lo particular a lo general, pero donde sus conclusiones
son necesarias, no probables. No son razonamientos propiamente inductivos por este
motivo, a pesar de que a veces en la literatura lógica aparecen con este nombre. Citemos
dos ejemplos:
*
La inducción completa o aristotélica. Parte de cada caso y llega a todos los casos.
Esto significa que se ha hecho una enumeración completa de todos los casos
recorriéndolos de a uno por vez, y por tanto, en estas condiciones, la conclusión ha
de ser forzosamente necesaria. Por ejemplo concluir que todas las bolitas de esta
caja son rojas porque he visto cada una de ellas y efectivamente lo eran. Este tipo de
razonamiento no existe en la ciencia, porque el número de casos posibles es infinito.
Si quisiera demostrar que todos los cuervos son negros debería recorrer todos y cada
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
26
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
uno de los casos de cuervos posibles, pasados, presentes y futuros, lo que
obviamente no se puede hacer.
*
b.
ii.
La inducción matemática. Sin embargo, se puede ir de lo particular a lo general
aunque el número de casos sea infinito. Poincaré, por ejemplo, hablaba de un
razonamiento por recurrencia, y que aproximadamente puede expresarse así:
"después del número 1 viene el 2, después del 2 viene el 3, etc., por lo tanto, después
de todo número siempre viene otro". Evidentemente esta conclusión es segura
porque la cantidad de números es infinita. Si no lo fuera, habría un último número y
entonces después de él no podría venir otro. Por ser la conclusión necesaria o
forzosa, no entra tampoco dentro de lo que llamamos inducción.
La inducción tiene conclusión probable: los ejemplos del esquizofrénico, el relámpago y la
parada del micro nos ilustran sobre este hecho. La deducción tiene la ventaja de llevarnos
a conclusiones seguras, pero no aporta nuevo conocimiento. La inducción, en cambio, nos
'conduce' (inducir significa originalmente 'llevar hacia', como cuando alguien 'induce' a otro
a drogarse) hacia un conocimiento nuevo, aunque el precio que debamos pagar por ello
sea un conocimiento tan solo probable. Con la inducción, en efecto, ampliamos nuestro
conocimiento, ya que no es lo mismo saber que un cuervo es negro a saber que todos lo
son. En todo caso, este nuevo saber deberá ser verificado, pero se trata de una cuestión
que no veremos aquí por no ser estrictamente lógica.
Tipos de inducción. A título de ejemplo, citemos dos clasificaciones.
a.
La inducción puede ser de primer grado o de segundo grado (3). La primera se extiende de
casos observados a generalizaciones (de ver 'algunas' ratas que aprenden por ensayo y
error se concluye la ley del aprendizaje por ensayo y error para 'todas' las ratas), mientras
que la segunda se extiende desde esas generalizaciones hasta generalizaciones más
amplias (la ley del ensayo y error sobre las ratas se puede extender a todas las otras
especies animales).
b.
La inducción puede ser de varios casos a todos, de un caso a todos, o de ningún caso
a todos (1). La primera es la llamada inducción baconiana, la segunda es la inducción
galileana y la tercera, es una inducción que tiene todas las características de una
invención.
Cada uno de estos tipos de inducción tiene sus ventajas y sus problemas. Por ejemplo, puesto
que la conclusión siempre será probable, mayormente puede no interesar para algunos
cuántos casos tomemos, y tal vez tomando un solo caso muy característico y e investigándolo
en profundidad lleguemos al mismo grado de probabilidad que habiendo estudiado muchos
casos. Sin embargo, tampoco el estudio de algunos o de un solo caso sirve para ciertas
hipótesis para las cuales, simplemente, no hay casos observables. Por ejemplo, no se pueden
observar "cuerpos sobre los cuales no actúen fuerzas", pues no hay cuerpos de ese tipo que
puedan ser observados, con lo cual en estos casos nos serviría muy bien la inducción que no
va de ningún caso a una generalización, es decir, estaríamos propiamente en un acto de
invención.
iii. El 'problema de la inducción'. Este polémico problema puede plantearse por ejemplo así:
¿como podemos estar seguros de concluir para todos los casos posibles lo mismo que
constatamos en algunos casos particulares observados? ¿Cómo podemos estar seguros de
que todos los cuervos son negros luego de haber visto algunos cuervos de ese color?
Para resolver este problema se intentaron diversas teorías, que pueden agruparse en dos
grandes tipos (1):
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
27
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
a.
Inductivismo: que sostiene, con diversas variantes, el llamado principio de inducción.
Una de sus versiones dice, por ejemplo, que lo observado en un caso ha de cumplirse en
todos los casos, porque el mundo tiene leyes estrictas que garantizan una regularidad
universal. Este principio ha sido cuestionado de muy diversas maneras, que aquí no
veremos.
b. Deductivismo-hipotético: esta postura, representada sobre todo por Popper (2), encara el
problema de la inducción... restándole importancia. En efecto, en realidad "no se parte de
casos individuales para luego llegar a una generalización inductiva; se parte de la formulación
de una hipótesis general, y luego se deducen de ella consecuencias directamente
contrastables por la experiencia. Las hipótesis pueden ser simples conjeturas de las cuales no
podemos decir si son verdaderas o falsas; partimos de ellas suponiéndolas verdaderas y,
mediante procedimientos de la lógica deductiva, obtenemos conclusiones singulares que
habrán de confrontarse con la realidad, y no ser contradichas por ella para poder seguir
manteniendo la hipótesis" (1). Popper propone así que el método propiamente científico no es
la inducción, sino el método hipotético-deductivo.
Notas
(1) Colacilli de Muro M y J, "Elementos de lógica moderna y filosofía", Buenos Aires, Estrada, 1979, página 109 y 111.
(2) Popper K., "La lógica de la investigación científica", Madrid, Tecnos, 1962.
(3) Bunge Mario, "La investigación científica: su estrategia y su filosofía", Barcelona, Ariel, 1969, página 861.
Lecturas complementarias
_Copi Irving, "Introducción a la lógica", Buenos Aires, Eudeba, 1974, 15° edición. Tercera Parte: "La inducción".
_Colacilli de Muro M y J, "Elementos de lógica moderna y filosofía", Buenos Aires, Estrada, 1979, páginas 107-112.
09. LOGICA
A. En sentido amplio, es la disciplina que estudia las formas del pensamiento, o bien el
pensamiento bajo el punto de vista formal. En tal sentido, abarca muchos tipos de
lógica: deductiva, deóntica, dialéctica, etc.
B. En sentido más restringido, la lógica propiamente dicha se ocupa del estudio de los
razonamientos desde el punto de vista de su validez o invalidez. A partir de aquí, es
posible definir la lógica como la disciplina que estudia las condiciones bajo las cuales
se transporta la verdad de un enunciado a otro. En tal sentido abarca las lógicas
deductivas y no deductivas, y es el sentido que desarrollamos en la presente Guía. En
ésta, y salvo indicación en contrario, nos referiremos a la lógica propiamente dicha
simplemente como 'lógica'.
i.
La lógica en sentido amplio. La gran variedad de 'lógicas' existentes dificulta definir esta
disciplina en sentido amplio. No obstante, y ateniéndonos a uno de sus significados
etimológicos (logos Î razón, pensamiento), se la puede caracterizar genéricamente como el
estudio del pensamiento desde el punto de vista de su forma, no de su contenido. Atiende,
entonces, al 'cómo' debemos pensar más que al 'qué' pensamos.
Dentro de este amplio espectro hay muchos tipos de lógica: hay una lógica material, una
modal, etc., y aún hay lógicas creadas especialmente en el contexto de determinadas teorías,
como la lógica trascendental de Kant, la dialéctica de Hegel o la fenomenológica de Husserl.
Incluso hasta se habla, en psicoanálisis, de una lógica del inconciente. Aquí no nos
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
28
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
ocuparemos de estas lógicas más 'especializadas', sino de la lógica a secas, o propiamente
dicha, relacionada con las anteriores en forma directa en algunos casos, y en otros no tanto.
ii.
La lógica propiamente dicha. A la lógica propiamente dicha la llamaremos simplemente
"lógica", sin ningún agregado, porque vamos a adentrarnos en lo que habitualmente
entendemos por lógica cuando decimos "fulano piensa con lógica", o "este razonamiento es
lógico", etc. Es la disciplina que todos alguna vez hemos estudiado en Medio cuando vimos los
silogismos, las tablas de verdad y otras menudencias, y cuya sistematización comenzara hace
2300 años con Aristóteles.
Ya que se trata de la lógica que estudia los razonamientos deductivos y no deductivos,
esta lógica abarca las llamadas lógica deductiva y lógica inductiva. La primera estudia
las condiciones de validez de los razonamientos deductivos, y la segunda encara el
estudio de una variedad de razonamientos no deductivos, entre los que están la
inducción y el razonamiento analógico (o razonamiento por analogía).
Para caracterizar esta lógica podemos partir de una definición sencilla y tradicional, que dice lo
siguiente:
"La lógica es la disciplina que estudia los razonamientos desde el punto de vista de su
validez o invalidez".
Hay muchas disciplinas que también estudian los razonamientos. La psicología, por ejemplo,
los estudia desde el punto de vista de su génesis psicológica (como hace Piaget), o desde sus
motivaciones inconcientes (como hace el psicoanálisis). A la lógica, en cambio, le interesará
solamente la validez del razonamiento, más allá de quién es la persona que razona y la
temática sobre la cual lo hace. La validez depende, como veremos, de la forma, y no del
contenido del razonamiento, por lo que la 'idea fija' del lógico será investigar el cómo
razonamos, más que el qué razonamos o el porqué lo hacemos.
Los dos conceptos más importantes de la definición dada son, entonces, "razonamiento" y
"validez", y remitimos al lector a los respectivos artículos. Solamente aclararemos aquí que un
razonamiento válido es una especie de máquina de producir verdades (Nudler, página 12): si
partimos de una premisa verdadera sólo obtendremos, vía razonamiento válido, otra verdad
como conclusión. En cambio si partimos de premisas falsas, la máquina 'se descompone',
pues podrá generar conclusiones tanto verdaderas como falsas. Por este motivo, tal vez lo que
más fielmente transmita la esencia de la lógica es esta otra definición que hemos construido
para la presente Guía:
"La lógica estudia las condiciones bajo las cuales se transporta la verdad de un
enunciado a otro".
iii. Clasificaciones de la lógica. De todos los diversos modos en que puede clasificarse la lógica,
seleccionamos tres de los más habituales:
a.
Desde un punto de vista histórico, se acostumbra hablar de una lógica clásica, iniciada
por Aristóteles en su tratado "Organon" y que se siguió desarrollando en diversas
direcciones hasta el siglo XIX, y de una lógica moderna (o simbólica, o matemática), que
comienza en el siglo XIX y se extiende en el siglo XX con pensadores como Boole, Frege,
Russell, y otros.
b.
Desde el punto de vista del tipo de razonamiento estudiado, hay una lógica deductiva,
que estudia el razonamiento homónimo (ver Deducción), y una lógica no deductiva, que
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
29
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
estudia otras formas de razonamiento (ver Inducción y Razonamiento analógico). Tanto
la lógica clásica como la moderna han estudiado todos estos tipos de razonamiento.
c.
Desde el punto de vista de la unidad de análisis considerada, hay una lógica
proposicional o sentencial (que descompone los razonamientos en proposiciones,
sentencias o enunciados), y una lógica de términos, llamada a veces lógica de predicados
o cuantificacional (que descompone los razonamientos en términos). Dentro de la lógica
de términos, a su vez, suele diferenciarse una lógica de clases y una lógica de relaciones.
Clasificaciones habituales de la lógica
CRITERIO
Según su historia
Según el razonamiento estudiado
Según la unidad de análisis considerada
CLASIFICACION
Clásica (Siglo III AC) Aristóteles en adelante
Moderna (Siglo XIX-XX) Boole, Frege, Russell
Deductiva
No deductiva
Proposicional
De Términos
Cuantificacional
De clases
De relaciones
iv. Utilidad del estudio de la lógica. Para desenvolvernos en nuestra vida cotidiana, saber lógica
no tiene prácticamente ninguna utilidad: si razonamos correctamente no es porque hayamos
estudiado lógica sino porque es el resultado natural del desarrollo de nuestra inteligencia.
Sin embargo, para determinadas personas el estudio de la lógica puede tener un interés
teórico (por ejemplo para el lógico o el epistemólogo), o un interés práctico (por ejemplo para el
ingeniero, el psicólogo o para los profesionales de la computación). Especifiquemos algunas
de estas utilidades.
a.
Utilidad para el epistemólogo. Una de las preocupaciones de la epistemología es el
fundamento del conocimiento científico y, en particular, cómo los investigadores han
razonado para llegar a sus conclusiones. Por lo tanto, el conocimiento de la lógica permite
al epistemólogo comprender el fundamento lógico de los métodos científicos.
b.
Utilidad para el ingeniero. Básicamente son tres las áreas del conocimiento ingenieril en
las cuales se requiere un sólido fundamento de lógica: el Diseño; en Modelado y la
simulación, sin dejar de lado todo lo relacionado con la experimentación. Es decir, el
conocimiento fáctico concreto, no basta para el adecuado uso de estas disciplinas dentro
de las funciones ingenieriles.
c.
Utilidad para el psicólogo. Por lo menos en tres áreas de la psicología son necesarios
conocimientos de lógica: en psicodiagnóstico, en la teoría psicoanalítica y en la teoría
piagetiana de la inteligencia.
El análisis de tests de inteligencia exige conocer conceptos lógicos tales como
razonamiento deductivo o inductivo, abstracción y generalización, etc. En el psicoanálisis,
la lógica nos provee un marco de referencia a partir del cual poder distinguir entre proceso
primario y proceso secundario. Principios fundamentales de la lógica como el de identidad
o el de no contradicción no se cumplen, por ejemplo, en el proceso primario, pero sí en el
secundario.
El estudio y la profundización de la teoría piagetiana exigen conocimientos mínimos de
lógica deductiva e inductiva para la comprensión de la inteligencia operatoria.
Indudablemente, la teoría de Piaget también estudia periodos pre-lógicos, que la lógica no
estudia, ocupada en el pensamiento adulto normal. Por ejemplo, cuando en lógica
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
30
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
hablamos de razonamiento nos estamos refiriendo al razonamiento adulto, y no al
razonamiento transductivo de un niño de 5 o 6 años, frente al cual el lógico se horrorizaría
por su 'falta de lógica'. El estudio de estos razonamientos pre-lógicos es importante para
la psicología porque constituyen el antecedente genético del razonamiento definitivo de la
edad adulta.
Si consideramos la lógica en sentido amplio, también para ver Piaget es importante la
lógica deóntica y la lógica dialéctica. La primera en cuanto es una lógica construida por el
sujeto para desarrollar su moral y su socialización, y la segunda en cuanto es la lógica que
utiliza el mismo Piaget para investigar y concebir la génesis de la inteligencia.
d.
Utilidad para la informática. Existe una analogía entre las relaciones lógicas y los
circuitos electrónicos. Gracias a esta analogía, es posible dotar a las computadoras de la
capacidad de realizar inferencias lógicas: esto lo saben bien los constructores de
microchips (hardware), y los programadores, que deben conocer muy bien el significado
de las conectivas lógicas como la conjunción y la disyunción (software).
En el esquema adjunto se puede apreciar la semejanza entre ciertas conectivas lógicas y
ciertos circuitos electrónicos. Por ejemplo, tomemos la conjunción "canto y bailo" (p Λ q).
Para que esta afirmación sea verdadera debe ser verdad que canto y debe ser verdad que
bailo. Esto equivale a un circuito electrónico montado en serie: si ambos son verdaderos,
entonces pasa corriente y por tanto la conjunción "p Λ q" es verdadera.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
31
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
iv. Lógica y lenguaje. Son al menos dos maneras en las que pueden relacionarse la lógica con
el lenguaje:
a.
Considerando a la lógica como un lenguaje en sí mismo, y como tal, tiene sus propias
reglas sintácticas y sus propios símbolos (ver Sistema Formal). La lógica es, como la
música, un lenguaje universal: si un lógico boliviano lee las simbolizaciones de un libro de
lógica inglés o alemán, las entenderá perfectamente; y
b.
Considerando la relación de la lógica con nuestro lenguaje cotidiano. En la medida
en que el lógico se interesa por la validez de los razonamientos, también habrá de
interesarse por el lenguaje cotidiano, y no solamente porque los razonamientos se
expresan mediante dicho lenguaje sino también porque los usos 'defectuosos' del mismo
pueden dar origen a razonamientos inválidos con apariencia de válidos, es decir, a
falacias no formales (donde 'no formales' significa que dependen del mal uso del lenguaje,
del contenido del mismo y no de su forma).
Lecturas complementarias
Ferrater Mora J., "Lógica", artículo incluido en el "Diccionario de Filosofía", Tomo III, página 2002, Madrid, Alianza Editorial, 1979.
Ferrater Mora J., "Lógica y realidad", artículo incluido en el "Diccionario de Filosofía", Tomo III, página 2020, Madrid, Alianza Editorial,
1979.
Prior Arthur, "Historia de la lógica", Madrid, Editorial Tecnos, 1976.
Cazau Pablo, "La dialéctica como estrategia de investigación (III)", (El Observador, N°16, página 276). Se presentan algunas
diferencias entre lógica analítica y lógica dialéctica.
Cazau Pablo, "Psicología, Derecho y Ética", El Observador Psicológico, Tomo 2, N°22, página 77). Se hace una distinción entre la
lógica tratada en esta Guía, que es una lógica de la verdad, y la llamada lógica modal.
Copi Irving, "Introducción a la lógica", Primera Parte, Buenos Aires, Eudeba, 1974, 15° edición. La primera parte de este texto incluye
consideraciones sobre la lógica en general, y sus relaciones con el lenguaje cotidiano.
Nudler T y O, "Elementos de lógica simbólica", Buenos Aires, Kapelusz, 1973. Capítulo 1: "El objeto de la lógica"
Quine W, "Filosofía de la lógica", Madrid, Alianza Editorial, 1973. Capítulos 5 y 6: "El alcance de la lógica" y "Lógicas divergentes".
Ferrater Mora J, "Lógica Matemática", México, FCE, 1975. Capítulo 1: "Naturaleza de la lógica".
Moreno A, "Lógica matemática: antecedentes y fundamentos", Buenos Aires, Eudeba, 1971, 2° edición. En este texto se desarrollan
las diferencias entre la lógica no matemática, el álgebra de la lógica y la lógica matemática. Asimismo, en el capítulo 1 se desarrolla la
noción general de lógica.
Fatone Vicente, "Lógica e Introducción a la filosofía", Buenos Aires, Kapelusz, 1969, 9° edición. Capítulo 1: "La lógica".
10. LÓGICA DIFUSA
i.
Introducción. La Lógica Borrosa o Lógica Difusa es una rama de la inteligencia artificial que
se funda en el concepto "Todo es cuestión de grado", lo cual permite manejar información
vaga o de difícil especificación si quisiéramos hacer cambiar con esta información el
funcionamiento o el estado de un sistema específico. Es entonces posible con la lógica borrosa
gobernar un sistema por medio de reglas de 'sentido común' las cuales se refieren a
cantidades indefinidas.
Las reglas involucradas en un sistema borroso, pueden ser aprendidas con sistemas
adaptativos que aprenden al ' observar ' como operan las personas los dispositivos reales, o
estas reglas pueden también ser formuladas por un experto humano.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
32
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
En general la lógica borrosa se aplica tanto a sistemas de control como para modelar cualquier
sistema continuo de ingeniería, física, biología o economía
La lógica borrosa es entonces definida como un sistema matemático que modela funciones no
lineales, que convierte unas entradas en salidas acordes con los planteamientos lógicos que
usan el razonamiento aproximado.
Se fundamenta en los denominados conjuntos borrosos y un sistema de inferencia borroso
basado en reglas de la forma: "SI....... ENTONCES...", donde los valores lingüísticos de
la premisa y el consecuente están definidos por conjuntos borrosos, es así como las reglas
siempre convierten un conjunto borroso en otro.
ii.
Historia. Los conjuntos difusos fueron introducidos por primera vez en 1965; la creciente
disciplina de la lógica difusa provee por sí misma un medio para acoplar estas tareas. En cierto
nivel, la lógica difusa puede ser vista como un lenguaje que permite trasladar sentencias
sofisticadas en lenguaje natural a un lenguaje matemático formal. Mientras la motivación
original fue ayudar a manejar aspectos imprecisos del mundo real, la práctica temprana de la
lógica difusa permitió el desarrollo de aplicaciones prácticas. Aparecieron numerosas
publicaciones que presentaban los fundamentos básicos con aplicaciones potenciales. Esta
frase marcó una fuerte necesidad de distinguir la lógica difusa de la teoría de probabilidad. Tal
como la entendemos ahora, la teoría de conjuntos difusos y la teoría de probabilidad tienen
diferentes tipos de incertidumbre.
En 1994, la teoría de la lógica difusa se encontraba en la cumbre, pero esta idea no es nueva,
para muchos, estuvo bajo el nombre de lógica difusa durante 25 años, pero sus orígenes se
remontan hasta 2,500 años. Aún Aristóteles consideraba que existían ciertos grados de
veracidad y falsedad. Platón había considerado ya grados de pertenencia.
En el siglo XVIII el filósofo y obispo anglicano Irlandés, George Berkeley y David Hume
describieron que el núcleo de un concepto atrae conceptos similares. Hume en particular, creía
en la lógica del sentido común, el razonamiento basado en el conocimiento que la gente
adquiere en forma ordinaria mediante vivencias en el mundo. En Alemania, Immanuel Kant,
consideraba que solo los matemáticos podían proveer definiciones claras, y muchos principios
contradictorios no tenían solución. Por ejemplo la materia podía ser dividida infinitamente y al
mismo tiempo no podía ser dividida infinitamente. Particularmente la escuela americana de la
filosofía llamada pragmatismo fundada a principios de siglo por Charles Sanders Peirce, cuyas
ideas se fundamentaron en estos conceptos, fue el primero en considerar ''vaguedades'', más
que falso o verdadero, como forma de acercamiento al mundo y a la forma en que la gente
funciona.
La idea de que la lógica produce contradicciones fue popularizada por el filósofo y matemático
británico Bertrand Russell, a principios del siglo XX. Estudio las vaguedades del lenguaje,
concluyendo con precisión que la vaguedad es un grado. El filosofo austriaco Ludwing
Wittgenstein estudió las formas en las que una palabra puede ser empleada para muchas
cosas que tienen algo en común. La primera lógica de vaguedades fue desarrollada en 1920
por el filósofo Jan Lukasiewicz, visualizó los conjuntos con un posible grado de pertenencia
con valores de 0 y 1, después los extendió a un número infinito de valores entre 0 y 1. En los
años sesentas, Lofti Zadeh inventó la lógica difusa, que combina los conceptos de la lógica y
de los conjuntos de Lukasiewicz mediante la definición de grados de pertenencia.
iii. Conceptos básicos de Lógica Difusa
a.
Conjuntos difusos. La mayoría de los fenómenos que encontramos cada día son
imprecisos, es decir, tienen implícito un cierto grado de difusidad en la descripción de su
naturaleza. Esta imprecisión puede estar asociada con su forma, posición, momento,
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
33
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
color, textura, o incluso en la semántica que describe lo que son. En muchos casos el
mismo concepto puede tener diferentes grados de imprecisión en diferentes contextos o
tiempo. Un día cálido en invierno no es exactamente lo mismo que un día cálido en
primavera. La definición exacta de cuando la temperatura va de templada a caliente es
imprecisa -no podemos identificar un punto simple de templado, así que emigramos a un
simple grado, la temperatura es ahora considerada caliente. Este tipo de imprecisión o
difusidad asociado continuamente a los fenómenos es común en todos los campos de
estudio: sociología, física, biología, finanzas, ingeniería, oceanografía, psicología, etc.
b. Conceptos imprecisos. Aceptamos la imprecisión como una consecuencia natural de ''la
forma de las cosas en el mundo''. La dicotomía entre el rigor y la precisión del modelado
matemático en todos los campos y la intrínseca incertidumbre de ''el mundo real'' no es
generalmente aceptada por los científicos, filósofos y analistas de negocios. Nosotros
simplemente aproximamos estos eventos a funciones numéricas y escogemos un
resultado en lugar de hacer un análisis del conocimiento empírico. Sin embargo
procesamos y entendemos de manera implícita la imprecisión de la información fácilmente.
Estamos capacitados para formular planes, tomar decisiones y reconocer conceptos
compatibles con altos niveles de vaguedad y ambigüedad. Considérese las siguientes
sentencias:
•
La temperatura está caliente
•
La inflación actual aumenta rápidamente
•
Los grandes proyectos generalmente tardan mucho
•
Nuestros precios están por abajo de los precios de la competencia
•
IBM es una compañía grande y agresiva
•
Alejandro es alto pero Ana no es bajita
Estas proposiciones forman el núcleo de nuestras relaciones con ''la forma de las cosas
en el mundo''. Sin embargo, son incompatibles con el modelado tradicional y el diseño de
sistemas de información. Si podemos incorporar estos conceptos logramos que los
sistemas sean potentes y se aproximen más a la realidad.
Pero, es la imprecisión un concepto artificial utilizado para aumentar o disminuir en uno o
más las propiedades de los fenómenos? O es una parte intrínseca del fenómeno en sí
mismo?
Esta es una pregunta importante ya que es la parte fundamental de las medidas de la
teoría difusa. Como veremos la fusificación es independiente de cualquier capacidad para
medir, ya que un conjunto difuso es un conjunto que no tiene límites bien definidos.
Un conjunto difuso tiene muchas propiedades intrínsecas que afectan la forma del
conjunto, su uso y como participa en un modelo. Las propiedades más importantes de un
conjunto difuso son las concernientes a las dimensiones verticales del conjunto difuso
(altura y normalización) y las dimensiones horizontales (conjunto soporte y cortes "alpha").
La altura de un conjunto difuso es como máximo un grado de pertenencia y es una cota
cercana al concepto de normalización. La superficie de la región de un conjunto difuso es
el universo de valores. Todos estos conceptos se tratarán más adelante.
Es decir un conjunto difuso A se considera como un conjunto de pares ordenados, en los
que el primer componente es un número en el rango [0,1] que denota el grado de
pertenencia de un elemento u de U en A, y el segundo componente especifica
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
34
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
precisamente quién es ése elemento de u. En general los grados de pertenencia son
subjetivos en el sentido de que su especificación es una cuestión objetiva. Se debe
aclarar que aunque puede interpretarse como el grado de verdad de que la expresión
''u A'' sea cierta, es más natural considerarlo simplemente como un grado de pertenencia.
Puede notarse además que:
•
Mientras más próximo está (u) a el valor 1, se dice que u pertenece más a A (de
modo que 0 y 1 denotan la no pertenencia y la pertenencia completa,
respectivamente).
•
Un conjunto en el sentido usual es también difuso pues su función característica u es
también una función u [0,1]; o sea que los conjuntos difusos son una generalización
de los conjuntos usuales.
Ejemplo: Sea U =11, 2, 3, 4, 5, 6, 7, 8, 9, entonces los conjuntos definidos a
continuación son difusos:
•
POCOS = (.4/1, .8/2, 1/3, .4/4)
•
VARIOS = (.5/3, .8/4, 1/5, 1/6, .8/7, .5,8)
•
MUCHOS =(.4/6, .6/7, .8/8, .9/9,1/10)
Note que el elemento 4 pertenece en grado .4 al conjunto POCOS, en grado .8 al conjunto
VARIOS y en grado .0 a MUCHOS. Zadeh ha hecho algunas extensiones a los conceptos
de conjuntos difusos ordinarios que se han explicado; por ejemplo los conjuntos difusos
de nivel-m y los conjuntos difusos tipo-n. Para un conjunto difuso de nivel-m se considera
como su universo de discusión al conjunto de conjuntos difusos de nivel-(m-1),
sobreentendiendo que los conjuntos difusos de nivel-1 son conjuntos difusos ordinarios.
Para los conjuntos difusos tipo-n, los valores de las funciones de pertenencia son
conjuntos difusos de tipo-(n-1) del intervalo [0,1] (en lugar de ser puntos de [0,1]).
También los conjuntos difusos tipo-1 son equivalentes a los conjuntos difusos ordinarios.
c.
Operaciones. En la lógica Booleana tradicional, los conjuntos son considerados como
sistemas bivalentes con sus estados alternando entre inclusión y exclusión. La
característica de la función discriminante refleja este espacio bivaluado
Esto indica que la función de pertenencia para el conjunto A es cero si x no es un
elemento en A y la función de pertenencia es si x es un elemento en A. Dado que existen
solamente dos estados, la transición entre estos dos estados es siempre inmediata. La
pertenencia de estos conjuntos está siempre totalmente categorizada y no existe
ambigüedad o dicotomía acerca de la pertenencia. Existen 4 operaciones básicas de
conjuntos en esta lógica: unión, intersección, complemento y unión exclusiva.
Al igual que en los conjuntos convencionales, existen definiciones específicas para
combinar y especificar nuevos conjuntos difusos. Este conjunto de funciones teóricas
provee las herramientas fundamentales de la lógica.
En el caso usual, con las operaciones comunes de intersección, unión y complemento, el
conjunto de conjuntos de U forman un álgebra booleana, es decir se cumplen las
condiciones de asociatividad, conmutatividad, elementos neutros, ídem potencia,
absorción, distributividad, complemento y las leyes de Morgan.
Las tres operaciones mencionadas se pueden extender de varias formas a conjuntos
difusos, de modo que al restringirlas a los conjuntos usuales, coincidan con las comunes.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
35
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Estas extensiones resultantes satisfacen en forma general sólo a algunas de las
condiciones listadas anteriormente, y para mantener la vigencia de alguna, será
obligatorio sacrificar a otras. En el sistema se optó por extender las operaciones en el
sentido clásico, es decir, dados dos conjuntos difusos A y B, se definen las operaciones
extendidas de la siguiente forma
Dado que los conjuntos difusos no se particionan en el mismo sentido que los conjuntos
Booleanos, estas operaciones son aplicadas al nivel de pertenencia, como una
consecuencia de los conjuntos difusos. Decidir si un valor es o no es miembro de
cualquier conjunto difuso en particular, requiere algunas nociones de cómo esta
construido el conjunto, del universo y de los límites de éste.
d.
Las etiquetas lingüísticas y operadores. El centro de las técnicas de modelado difuso
es la idea de variable lingüística. Desde su raíz, una variable lingüística es el nombre de
un conjunto difuso. Si tenemos un conjunto difuso llamado ''largo'' éste es una simple
variable lingüística y puede ser empleada como una regla-base en un sistema basado en
la longitud de un proyecto en particular
Si duración-proyecto es largo entonces la-terminación-de-tareas es DECRECIENTE; Una
variable lingüística encapsula las propiedades de aproximación o conceptos de
imprecisión en un sistema y da una forma de computar adecuada. Esto reduce la aparente
complejidad de describir un sistema que debe concordar con su semántica. Una variable
lingüística siempre representa un espacio difuso.
Lo importante del concepto de variable lingüística es su estimación de variable de alto
orden más que una variable difusa. En el sentido de que una variable lingüística toma
variables difusas como sus valores.
En el campo de la semántica difusa cuantitativa al significado de un término "x" se le
representa como un conjunto difuso M(x) del universo de discusión. Desde este punto de
vista, uno de los problemas básicos en semántica es que se desea calcular el significado
de un término compuesto
La idea básica sugerida por Zadeh es que una etiqueta lingüística tal como ''muy'', ''más o
menos'', ''ligeramente'', etc... Puede considerarse como un operador que actúa sobre un
conjunto difuso asociado al significado de su operando. Por ejemplo en el caso de un
término compuesto ''muy alto'', el operador ''muy'' actúa en el conjunto difuso asociado al
significado del operando ''alto''. Una representación aproximada para una etiqueta
lingüística se puede lograr en términos de combinaciones o composiciones de las
operaciones básicas explicadas en la sección anterior. Es importante aclarar que se hará
mayor énfasis en que estas representaciones se proponen principalmente para ilustrar el
enfoque, más que para proporcionar una definición exacta de las etiquetas lingüísticas.
Zadeh también considera que las etiquetas lingüísticas pueden clasificarse en dos
categorías que informalmente se definen como sigue:
•
Tipo I: las que pueden representarse como operadores que actúan en un conjunto
difuso: ''muy'', ''más o menos'', ''mucho'', ''ligeramente'', ''altamente'', ''bastante'', etc. y,
•
Tipo II: las que requieren una descripción de cómo actúan en los componentes del
conjunto difuso (operando): ''esencialmente'', ''técnicamente'', ''estrictamente'',
''prácticamente'', ''virtualmente'', etc.
En otras palabras, las etiquetas lingüísticas pueden ser caracterizadas cómo operadores
más que construcciones complicadas sobre las operaciones primitivas de conjuntos
difusos.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
36
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
e. Ejemplos de etiquetas tipo I. De acuerdo a éste punto de vista y sabiendo que el
lenguaje natural es muy rico y complejo, tomamos el operador ''muy'' que podemos
caracterizar con un significado de que aún cuando no tenga validez universal sea sólo una
aproximación. Asumimos que si el significado de un término x es un conjunto difuso A,
entonces el significado de muy X.
f.
Más y menos. Se pueden definir etiquetas lingüísticas artificiales, por ejemplo: más,
menos, que son instancias de lo que puede llamarse acentuador y desacentuador
respectivamente, cuya función es proporcionar ligeras variantes de la concentración y la
dilatación.
Los exponentes se eligen de modo que se de la igualdad aproximada: más más x =
menos muy x, y que, además, se pueden utilizar para definir etiquetas lingüísticas cuyo
significado difiere ligeramente de otras, ejemplo:
g. Más o menos. Otra etiqueta lingüística interesante es ''más o menos'' que en sus usos
más comunes como ''más o menos inteligente'', ''más o menos rectangular'' etc., juega el
papel de difusificador.
h. Ligeramente. Su efecto es dependiente de la definición de proximidad u ordenamientos
en el dominio del operando. Existen casos, sin embargo, en los que su significado puede
definirse en términos de etiquetas lingüísticas tipo I, bajo la suposición de que el dominio
del operando es un conjunto ordenado linealmente.
i.
Clase de. Es una etiqueta lingüística que tiene el efecto de reducir el grado de pertenencia
de los elementos que están en el ''centro'' (grados de pertenencia grandes) de una clase x
e incrementa el de aquellos que están en su periferia (grados de pertenencia pequeños).
j.
Regular. Es una etiqueta que tiene el efecto de reducir el grado de pertenencia de
aquellos elementos que tienen tanto un alto grado de pertenencia al conjunto como de
aquellos que lo tienen pequeño, y sólo aumenta el grado de pertenencia de aquellos
elementos que tienen un grado de pertenencia cercano.
k. Etiquetas tipo II. Su caracterización envuelve una descripción de forma que afectan a los
componentes del operando, y por lo tanto es más compleja que las del tipo I. En general,
la definición de una etiqueta de este tipo debe formularse como un algoritmo difuso que
envuelve etiquetas tipo I. Su efecto puede describirse aproximadamente como una
modificación de los coeficientes de ponderación de una combinación convexa. Como la
magnitud de las ponderaciones es una medida del atributo asociado, intuitivamente una
etiqueta de este tipo tiene el efecto de aumentar las ponderaciones de los atributos
importantes y disminuir los que relativamente no lo son.
iv. ¿Que es la Lógica Difusa? Un tipo de lógica que reconoce más que simples valores
verdaderos y falsos. Con lógica difusa, las proposiciones pueden ser representadas con
grados de veracidad o falsedad. Por ejemplo, la sentencia "hoy es un día soleado", puede ser
100% verdad si no hay nubes, 80% verdad si hay pocas nubes, 50% verdad si existe neblina y
0% si llueve todo el día.
La Lógica Difusa ha sido probada para ser particularmente útil en sistemas expertos y otras
aplicaciones de inteligencia artificial. Es también utilizada en algunos correctores de voz para
sugerir una lista de probables palabras a reemplazar en una mal dicha.
La Lógica Difusa, que hoy en día se encuentra en constante evolución, nació en los años 60
como la lógica del razonamiento aproximado, y en ese sentido podía considerarse una
extensión de la Lógica Multivaluada. La Lógica Difusa actualmente está relacionada y
fundamentada en la teoría de los Conjuntos Difusos. Según esta teoría, el grado de
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
37
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
pertenencia de un elemento a un conjunto va a venir determinado por una función de
pertenencia, que puede tomar todos los valores reales comprendidos en el intervalo [0,1].
a.
Ejemplo de una función de pertenencia a un Conjunto Difuso. La Lógica Difusa
(llamada también Lógica Borrosa por otros autores) o Fuzzy Logic es básicamente una
lógica con múltiples valores, que permite definir valores en las áreas oscuras entre las
evaluaciones convencionales de la lógica precisa: Si / No, Cierto / Falso, Blanco / Negro,
etc.
Se considera un súper conjunto de la Lógica Booleana. Con la Lógica Difusa, las
proposiciones pueden ser representadas con grados de certeza o falsedad. La lógica
tradicional de las computadoras opera con ecuaciones muy precisas y dos respuestas: Si
o no, uno o cero. Ahora, para aplicaciones de computadores muy mal definidas o
sistemas vagos se emplea la Lógica Difusa.
Por medio de la Lógica Difusa pueden formularse matemáticamente nociones como: “un
poco caliente” o “muy frío”, para que sean procesadas por computadoras y cuantificar
expresiones humanas vagas, tales como "Muy alto" o "luz brillante". De esa forma, es un
intento de aplicar la forma de pensar humana a la programación de los computadores.
Permite también cuantificar aquellas descripciones imprecisas que se usan en el lenguaje
y las transiciones graduales en electrodomésticos como ir de agua sucia a agua limpia en
una lavadora, lo que permite ajustar los ciclos de lavado a través de sensores.
b. La habilidad de la Lógica Difusa para procesar valores parciales de verdad ha sido de gran
ayuda para la ingeniería. En general, se ha aplicado a:
•
Sistemas Expertos
•
Verificadores de ortografía, los cuales sugieren una lista de palabras probables para
reemplazar una palabra mal escrita.
•
Control de sistemas de tráfico
Los operadores lógicos que se utilizarán en Lógica Difusa (AND, OR, etc.) se definen
también usando tablas de verdad, pero mediante un "principio de extensión" por el cual
gran parte del aparato matemático clásico existente puede ser adaptado a la manipulación
de los Conjuntos Difusos y, por tanto, a la de las variables lingüísticas.
La operación más importante para el desarrollo y creación de Reglas Lógicas es la
implicación, simbolizada por " → " que representa el "Entonces" de las reglas heurísticas:
Si (...) Entonces ( → ) (...).
Así, en la Lógica Difusa hay muchas maneras de definir la implicación. Se puede elegir
una "función (matemática) de implicación" distinta en cada caso para representar a la
implicación.
La última característica de los sistemas lógicos es el procedimiento de razonamiento, que
permite inferir resultados lógicos a partir de una serie de antecedentes. Generalmente, el
razonamiento lógico se basa en silogismos, en los que los antecedentes son por un lado
las proposiciones condicionales (nuestras reglas), y las observaciones presentes por otro
(serán las premisas de cada regla).
Los esquemas de razonamiento utilizados son "esquemas de razonamiento aproximado",
que intentan reproducir los esquemas mentales del cerebro humano en el proceso de
razonamiento. Estos esquemas consistirán en una generalización de los esquemas
básicos de inferencia en Lógica Binaria (silogismo clásico).
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
38
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Tan importante será la selección de un esquema de razonamiento como su
representación material, ya que el objetivo final es poder desarrollar un procedimiento
analítico concreto para el diseño de controladores difusos y la toma de decisiones en
general.
Una vez que dispongamos de representaciones analíticas de cada uno de los elementos
lógicos que acabamos de enumerar, estaremos en disposición de desarrollar formalmente
un controlador "heurístico" que nos permita inferir el control adecuado de un determinado
proceso en función de un conjunto de reglas "lingüísticas", definidas de antemano tras la
observación de la salida y normas de funcionamiento de éste.
v.
Conjuntos Difusos: Lógica Difusa.
a.
Predicados Vagos y Conjuntos Difusos. Los conjuntos clásicos se definen mediante un
predicado que da lugar a una clara división del Universo de Discurso X en los valores
"Verdadero" y "Falso". Sin embargo, el razonamiento humano utiliza frecuentemente
predicados que no se pueden reducir a este tipo de división: son los denominados
predicados vagos.
Por ejemplo, tomando el Universo de Discurso formado por todas las posibles
temperaturas ambientales en la ciudad de Huelva, se puede definir en dicho universo el
conjunto A como aquél formado por las temperaturas "cálidas".
Por supuesto, es imposible dar a A una definición clásica, ya que su correspondiente
predicado no divide el universo X en dos partes claramente diferenciadas. No podemos
afirmar con rotundidad que una temperatura es "cálida" o no lo es. El problema podría
resolverse en parte considerando que una temperatura es "cálida" cuando su valor supera
cierto umbral fijado de antemano. Se dice que el problema tan sólo se resuelve en parte, y
de manera no muy convincente, por dos motivos: de una parte el umbral mencionado se
establece de una manera arbitraria, y por otro lado podría darse el caso de que dos
temperaturas con valores muy diferentes fuesen consideradas ambas como "cálidas".
Evidentemente, el concepto "calor" así definido nos daría una información muy pobre
sobre la temperatura ambiental.
La manera más apropiada de dar solución a este problema es considerar que la
pertenencia o no pertenencia de un elemento x al conjunto A no es absoluta sino gradual.
En definitiva, definiremos A como un Conjunto Difuso. Su función de pertenencia ya no
adoptará valores en el conjunto discreto {0,1} (lógica booleana), sino en el intervalo
cerrado [0,1]. En conclusión podemos observar que los Conjuntos Difusos son una
generalización de los conjuntos clásicos.
Mediante notación matemática se define un Conjunto Difuso B como:
B = { ( x , µB( x ) ) / x ∑ X }
µB: X→ [0,1]
La función de pertenencia se establece de una manera arbitraria, lo cual es uno de los
aspectos más flexibles de los Conjuntos Difusos. Por ejemplo, se puede convenir que el
grado de pertenencia de una temperatura de "45ºC" al conjunto A es 1, el de "25º C" es
0.4 , el de "6º C" es 0, etc.: cuanto mayor es el valor de una temperatura, mayor es su
grado de pertenencia al conjunto B.
b.
Tipos de funciones de pertenencia. En la figura se pueden observar dos tipos de
funciones de pertenencia de todos los posibles: el tipo triangular, que puede ser un caso
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
39
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
concreto del trapezoidal en el que los dos valores centrales son iguales, y el de forma de
campana gaussiana.
Tómese ahora el Universo de Discurso de la edad. El Conjunto Difuso "Joven" representa
el grado de pertenencia respecto al parámetro juventud que tendrían los individuos de
cada edad. Es decir, el conjunto expresa la posibilidad de que un individuo sea
considerado joven. Un Conjunto Difuso podría ser considerado como una distribución de
posibilidad, que es diferente a una distribución de probabilidad.
Se puede observar que los Conjuntos Difusos de la figura 3 se superponen, por lo que un
individuo xl podría tener distintos grados de pertenencia en dos conjuntos al mismo
tiempo: "Joven" y "Maduro". Esto indica que posee cualidades asociadas con ambos
conjuntos. El grado de pertenencia de x en A, como ya se ha señalado anteriormente, se
representa por µA(x). El Conjunto Difuso A es la unión de los grados de pertenencia para
todos los puntos en el Universo de Discurso X, que también puede expresarse como:
Bajo la notación de los Conjuntos Difusos, µA(x)/x es un elemento del conjunto A. La
operación µx representa la unión de los elementos difusos µA(x)/x. Los Universos de
Discurso con elementos discretos utilizan los símbolos "+" y "-" para representar la
operación unión.
Veamos un ejemplo: Ejemplo de Conjuntos Difusos en el universo de la edad.
Tómese un individuo x cuya edad sea de 20 años. Como se puede observar en la figura,
pertenece al Conjunto Difuso "Joven" y al Conjunto Difuso "Maduro". Se puede observar
que posee un grado de pertenencia µA(x) de 0.6 para el Conjunto Difuso "Joven" y un
grado de 0.4 para el Conjunto Difuso "Maduro"; también posee un grado de 0 para "Viejo".
De este ejemplo se puede deducir que un elemento puede pertenecer a varios Conjuntos
Difusos a la vez aunque con distinto grado. Así, nuestro individuo x tiene un grado de
pertenencia mayor al conjunto "Joven " que al conjunto "Maduro"(0.6 > 0.4), pero no se
puede decir, tratándose de Conjuntos Difusos, que x es joven o que x es maduro de
manera rotunda.
vi. Operaciones entre Conjuntos Difusos. Los Conjuntos Difusos se pueden operar entre sí del
mismo modo que los conjuntos clásicos. Puesto que los primeros son una generalización de
los segundos, es posible definir las operaciones de intersección, unión y complemento
haciendo uso de las mismas funciones de pertenencia:
µAµ B (x) = minµA(x), µB(x) )
µAµ B (x) = max ( µA(x), µB(x) )
µµA (x) = 1 - µA(x)
En realidad, estas expresiones son bastante arbitrarias y podrían haberse definido de muchas
otras maneras. Esto obliga a considerar otras definiciones más generales para las operaciones
entre los Conjuntos Difusos. En la actualidad se considera correcto definir el operador
intersección mediante cualquier aplicación t-norma y el operador unión mediante cualquier
aplicación s-norma. <
a.
Variables Lingüísticas. La Teoría de Conjuntos Difusos puede utilizarse para representar
expresiones lingüísticas que se utilizan para describir conjuntos o algoritmos. Los
Conjuntos Difusos son capaces de captar por sí mismos la vaguedad lingüística de
palabras y frases comúnmente aceptadas, como "gato pardo" o "ligero cambio". La
habilidad humana de comunicarse mediante definiciones vagas o inciertas es un atributo
importante de la inteligencia.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
40
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Una Variable Lingüística es aquella variable cuyos valores son palabras o sentencias que
van a enmarcarse en un lenguaje predeterminado. Para estas variables lingüísticas se
utilizará un nombre y un valor lingüístico sobre un Universo de Discurso. Además, podrán
dar lugar a sentencias generadas por reglas sintácticas, a las que se les podrá dar un
significado mediante distintas reglas semánticas.
Los Conjuntos Difusos pueden utilizarse para representar expresiones tales como:
•
X es PEQUEÑO.
•
La velocidad es RÁPIDA.
•
El ganso es CLARO.
Las expresiones anteriores pueden dar lugar a expresiones lingüísticas más complejas
como:
•
X no es PEQUEÑO.
•
La velocidad es RÁPIDA pero no muy RÁPIDA.
•
El ganso es CLARO y muy ALEGRE.
Así, se pueden ir complicando las expresiones. Por ejemplo, la expresión "x no es
PEQUEÑO" puede calcularse a partir de la original calculando el complemento de la
siguiente forma:
µ_no_PEQUEÑA (x) = 1- µ_PEQUEÑO (x)
Tratando de esta forma los distintos modificadores lingüísticos (muy, poco, rápido, lento...)
pueden ir calculándose todas las expresiones anteriores.
11. LÓGICA DE TÉRMINOS
Parte de la lógica que se ocupa de la determinación de la validez de los razonamientos
partiendo de la estructura interna de la proposición, es decir, del examen de la relación entre
sus términos constituyentes.
i.
Generalidades. Los dos grandes capítulos de la lógica son la lógica proposicional y la lógica
de términos. La primera descompone el razonamiento en proposiciones, sin llegar más allá. La
segunda, en cambio, avanza más descomponiendo las proposiciones en términos.
ii.
Clasificación. La lógica de términos abarca distintos tipos de análisis, correspondientes a
diferentes modos de investigar las relaciones entre los términos dentro del enunciado. Estas
diferentes 'lógicas' de términos, según cada época y cada autor fueron diferenciadas,
consideradas idénticas, confundidas, reunidas, jerarquizadas entre sí, independizadas
mutuamente y algunas veces hasta excluidas del territorio de la lógica, como hizo alguien con
la lógica de clases. No es propósito del autor examinar este complejo panorama, sino
simplemente mostrar brevemente cuáles son estas 'lógicas' de términos y porqué reciben el
nombre que tienen.
a.
Lógica de predicados: Así denominada porque dentro de la proposición identifica ciertos
términos como "predicados". Por ejemplo, en el enunciado "Juan es bueno", el predicado
del sujeto Juan es 'bueno'.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
41
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
b.
Lógica cuantificacional: Así llamada porque dentro de la proposición identifica ciertos
términos llamados cuantificadores, como por ejemplo "todos", "algunos", etc.
c.
Lógica funcional: Así llamada porque se ocupa de construir 'funciones proposicionales',
es decir, esquemas o moldes que pueden ser ocupados por muchas proposiciones del
mismo tipo. Las funciones proposicionales son expresiones donde figuran elementos
indeterminados que, si se les asigna un determinado valor, convierten a la función
proposicional en una proposición. Por ejemplo "x es un filósofo" es una función
proposicional, pero si reemplazamos x por Sócrates, obtenemos una proposición, la cual
entonces sí adquiere la propiedad de ser verdadera o falsa.
d.
Lógica de clases: Mientras la lógica funcional atiende a la comprensión de los términos,
la lógica de clases atiende a su extensión (1). Por ejemplo, en "Sócrates es un filósofo", a
la lógica funcional le interesa 'filósofo' en la medida en que es una característica o
propiedad del individuo Sócrates, mientras que a la lógica de clases le interesará 'filósofo'
en la medida en que es una clase (la clase de los filósofos), dentro de la cual está el
individuo Sócrates.
e.
Lógica de relaciones: Es otra manera distinta de analizar un enunciado. Por ejemplo (2),
si consideramos la función proposicional "x es mayor que y", la podemos ver desde dos
puntos de vista:
*
Desde la lógica de clases consideramos que hay dos elementos: un sujeto x, y la
propiedad que tiene de ser mayor que y.
*
En cambio, desde la lógica de relaciones consideraremos tres elementos: el sujeto x,
el sujeto y, y la relación "es mayor que". Cuando a la función proposicional la
consideramos con un solo sujeto, la denominamos función monádica (mono = uno), y
cuando la consideramos con dos o más sujetos, la denominamos poliádica (poli =
muchos). La lógica de relaciones trata entonces, de las funciones poliádicas.
Notas
(1) Fatone Vicente, "Lógica e Introducción a la filosofía", Buenos Aires, Kapelusz, 1969, 9° edición, página 90.
(2) Colacilli de Muro M y J, "Elementos de lógica moderna y filosofía", Buenos Aires, Estrada, 1979, página 220.
Lecturas complementarias
Nudler T y O, "Elementos de lógica simbólica", Buenos Aires, Kapelusz, 1973. Capítulos 3, 4 y 5: "Lógica de funciones", "Lógica de
clases" y "Lógica de relaciones". En la página 89 se distingue la lógica de clases de otros tipos de lógica.
Strawson P, "Introducción a una teoría de la lógica", Buenos Aires, Nova, 1969. Capítulos 4-5-6-7: "Clases: una interpretación
alternativa del sistema tabular", "Fórmulas predicativas y cuantificadores", "Sujetos, predicados y existencia", y "Enunciados generales
y relaciones".
Ferrater Mora J, "Lógica Matemática", México, FCE, 1975. Capítulos 3, 5, 6 y 7: "Lógica cuantificacional", "Lógica de clases", "Lógica
de relaciones", "Lógica cuantificacional superior".
Fatone Vicente, "Lógica e Introducción a la filosofía", Buenos Aires, Kapelusz, 1969, 9° edición. Capítulo 9: "La lógica simbólica". El
autor diferencia en este capítulo la lógica funcional, la lógica de clases y la lógica de relaciones.
Colacilli de Muro M y J, "Elementos de lógica moderna y filosofía", Buenos Aires, Estrada, 1979. En este texto se habla de las
relaciones entre lógica proposicional y de predicados (página 139), entre la lógica de clases y la proposicional (páginas 186/7), y entre
la lógica de clases y la lógica de relaciones (páginas 219-220). Para consultas más generales ver los capítulos 8, 9 y 10 referidos,
respectivamente, a la lógica de predicados, la lógica de clases y la lógica de relaciones.
Copi Irving, "Introducción a la lógica", Buenos Aires, Eudeba, 1974, 15° edición. Capítulo 10: "Teoría de la cuantificación".
Salama Alicia, "Lógica simbólica y elementos de metodología de la ciencia", Buenos Aires, El Ateneo, 1979, 3° edición. Capítulos 4-56: "Lógica cuantificacional", "Lógica de clases" y "Lógica de relaciones".
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
42
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
12. LÓGICA PROPOSICIONAL
Es la parte más fundamental de la lógica que se ocupa de la determinación de la
condiciones de validez de los razonamientos, considerando en estos como unidades
últimas de análisis a los enunciados o proposiciones. Sinónimos: lógica sentencial, lógica
de enunciados.
i.
Generalidades. La lógica proposicional parte del estudio de un razonamiento y los
descompone en sus enunciados componentes. Como un razonamiento está formado por
varias proposiciones, también podemos decir que parte del estudio de una proposición
molecular (varias proposiciones unidas entre sí) para llegar a las proposiciones atómicas que
lo componen. Pero, ¿para qué quiere llegar a estas proposiciones atómicas?
El supuesto fundamental de la lógica proposicional es que la validez del razonamiento (o sea,
la verdad de la proposición molecular), depende de la verdad o la falsedad de las
proposiciones atómicas que lo componen. En otras palabras, los valores de verdad (V o F) se
'extienden' desde las proposiciones atómicas a toda la proposición molecular. Por estos
motivos, se dice que la lógica proposicional es una lógica 'extensional' o, también, una lógica
'funcional-veritativa' (de 'veritas' = verdad), vale decir, la verdad de la proposición molecular es
'función' (depende-de) la verdad de las proposiciones atómicas que lo componen.
ii.
Un ejemplo de cómo procede la lógica proposicional. Sea el razonamiento del esquema 1,
constituido por dos premisas y la conclusión. Analizar este razonamiento significa identificar
cuáles son las proposiciones componentes, y cuáles son las conexiones entre ellas:
a.
Las proposiciones componentes son "Juan está arriba" y "Juan está abajo";
b.
Las conexiones son "o", porque conecta "Juan está arriba" y "Juan está abajo"; otra
conexión es "y", porque aunque no figure en el razonamiento, está tácita: mediante la
conexión "y" se unen las premisas entre sí; otra conexión es "no", porque aunque en
realidad afecta solamente a "Juan está abajo", en la conclusión, se considera que
'conecta' a esta proposición consigo misma, negándola. Finalmente, otra conexión es "por
lo tanto", que conecta el conjunto de las premisas con la conclusión.
Esquema 1 – Simbolización progresiva de un razonamiento
Juan está arriba o Juan está abajo;
Juan está arriba;
Por lo tanto,
Juan está abajo.
↓
poq
p
⇒
~q
↓
[ (p ω q) Λ p] Æ ~q
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
43
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
iii. Variables proposicionales y conectivas proposicionales. A las proposiciones componentes
así identificadas las simbolizamos por letras 'p', 'q', etc., que se llaman 'variables
proposicionales' pues pueden representar proposiciones cualesquiera; a las conexiones "o",
"y", "no", y "por lo tanto" y otras que aquí no figuran las representamos con ciertos símbolos
(esquema 1) que se llaman 'conectivas proposicionales' porque conectan proposiciones. Estas
conectivas son 'constantes proposicionales' porque significan siempre lo mismo.
Si reemplazamos en nuestro razonamiento original las proposiciones por variables
proposicionales y las conexiones entre ellas por los símbolos de las conectivas
proposicionales, obtenemos en definitiva la proposición molecular final del esquema, que
representa el razonamiento completo.
En el esquema 2 figuran las diferentes conectivas proposicionales y su traducción en el
lenguaje cotidiano, con los ejemplos correspondientes.
iv. Tablas de verdad. Dijimos que las conectivas proposicionales eran constantes
proposicionales porque significaban siempre lo mismo. Este significado constante viene
definido por las denominadas tablas de verdad de cada una de las conectivas (esquema 2).
Por ejemplo, el significado de la conectiva negación es que si la proposición original p es
verdadera, su negación significa que p es falsa, y viceversa. En otro ejemplo, el significado de
la conectiva conjunción es que la conjunción de dos proposiciones es verdadera solamente si
ambas proposiciones lo son. Finalmente, el significado de la conectiva condicional es que la
relación condicional entre dos proposiciones es verdadera en cualquier caso, excepto cuando
la primera proposición es verdadera y la última falsa. Todos estos ejemplos pueden apreciarse
en las tablas de verdad del esquema 2.
Esquema 2 Lógica proposicional o funcional-veritativa
Tablas de verdad de las conectivas lógicas
p
V
V
F
F
q
V
F
V
F
Disyunción
inclusiva
Disyunción
exclusiva
“no”
“…o…” en
sentido
inclusivo
“…o…” en
sentido
exclusivo
“…y…”
No llueve
Llueve
o truena
(o ambas
cosas)
Llueve
o no llueve
Llueve y
truena
Negación
~p
F
F
V
V
pvq
V
V
V
F
pωq
F
V
V
F
Conjunción
pΛq
V
F
F
F
Implicación
o
condicional
“si...
entonces...”
Si llueve,
entonces
habrá
cosecha
p→q
V
F
V
V
Doble
Negación Negación
implicación o
conjunta alternativa
bicondicional
“...si y sólo
“ni... ni...” “No es
si...”
cierto a la
vez que…
y …”
Habrá
Ni llueve No es
cosecha si y
ni truena cierto que
sólo si llueve
llueva y
truene al
mismo
tiempo
p↔q
p↓q
p⏐q
V
F
F
F
F
V
F
F
V
V
V
V
A los efectos de la construcción de las tablas de verdad se presupone:
a.
que toda proposición atómica puede ser verdadera o falsa (lógica bivalente), no
admitiéndose el valor intermedio de la probabilidad;
b.
que los valores de verdad de las proposiciones moleculares están determinados por los
valores de verdad de sus proposiciones componentes: por ejemplo, en la tabla del
bicondicional, la proposición molecular bicondicional es verdadera solamente cuando
ambas proposiciones componentes con verdaderas, o cuando son ambas falsas; y
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
44
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
c.
v.
que las tablas de verdad pertenecen al metalenguaje de la lógica, porque hablan acerca
del mismo lenguaje lógico. Por ejemplo, en las tablas de verdad no se 'usan' las
conectivas, solamente se la 'menciona' definiéndolas.
Prueba de validez. Ahora sí estamos en condiciones de establecer la validez de un
determinado razonamiento a partir de si sus proposiciones atómicas componentes y las
conectivas que las unen son verdaderas o falsas. En el esquema 3 aparece esquematizada
esta prueba, llamada prueba del condicional asociado (1), aplicada al razonamiento del
esquema 1.
Esquema 3 – Método del condicional asociado
p
V
V
F
F
q
V
F
V
F
[
(
1
p
V
V
F
F
3
ω
F
V
V
F
1
q
V
F
V
F
)
4
Λ
F
V
F
F
1
p
V
V
F
F
]
5
→
V
V
V
V
2
F
V
F
V
1
q
V
F
V
F
Para realizar esta prueba, primero de todo colocamos dos columnas, una para p y otra para q
(porque en nuestro razonamiento hay solamente dos proposiciones), y ubicamos todas las
combinaciones posibles de V y F, que son en este caso cuatro: VV, VF, FV y FF (2). A
continuación, se plantea todo el razonamiento simbolizado en el encabezamiento de la
siguiente columna. Hasta aquí, hemos preparado las cosas como para comenzar a hacer la
prueba. Esta prueba consiste en una serie de pasos que hemos indicado, para mayor claridad,
con números correlativos.
Así, en primer lugar (paso 1) colocamos debajo de todas la p o todas las q que aparezcan en
el razonamiento los mismos valores que hay en las dos primeras columnas: es un simple paso
mecánico donde hay que copiar con atención. En segundo lugar nos concentramos
exclusivamente en la conclusión (por ser más sencilla que las premisas, aunque podríamos
haber comenzado también con éstas últimas). En la conclusión (paso 2), debajo del símbolo
de la negación colocamos los valores V o F que correspondan: cuando q vale V pondremos F,
y viceversa, ya que eso es lo que prescribe la tabla de verdad de la negación (esquema 2).
A continuación nos concentramos en las premisas, o sea, en todo lo que está a la izquierda del
símbolo del condicional. Allí encontraremos corchetes y paréntesis y, como hacíamos en el
colegio secundario, primero resolvemos lo que está entre paréntesis y luego lo que está entre
corchetes. Por lo tanto, nuestro siguiente paso 3 será colocar debajo del símbolo de la
disyunción exclusiva los correspondientes valores según la tabla de verdad de esa conectiva.
Luego pasamos al paso 4 haciendo lo mismo fuera del paréntesis con la conectiva de la
conjunción, pero atención, relacionando la disyunción excluyente resultante del paso anterior
con p.
El último paso es siempre relacionar las premisas con la conclusión mediante el condicional
(paso 5), cuidando de relacionar lo que resultó del paso anterior (conjunción de las premisas)
con lo que resultó del paso 2 (negación de q). En otras palabras, relacionamos las columnas 4
y 2, y obtenemos, en este caso, todos los valores de verdad verdaderos (V).
vi. Tautología, contradicción y contingencia. Si en el resultado final (columna 5 en el ejemplo
anterior) obtenemos todos valores V, entonces decimos que el razonamiento es válido y lo
llamamos tautología. Tal es el caso del ejemplo anterior. Si obtenemos todos valores F
decimos que el razonamiento es inválido y lo llamamos contradicción. Finalmente, si
obtenemos al menos un valor V y al menos uno F estamos en presencia de una contingencia,
momento en el cual la prueba de validez no nos sirve porque no podemos decidir si el
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
45
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
razonamiento es válido o no (está lógicamente indeterminado), Los tres casos están
ejemplificados en el esquema 4.
Esquema 4 – Tautología, contradicción, contingencia
TAUTOLOGÍA (Verdad
formal)
Lógicamente
determinada
p
V
V
F
F
ω
V
V
V
V
p
FV
FV
VF
VF
CONTRADICCIÓN
(Falsedad formal)
Lógicamente
determinada
p
V
V
F
F
Λ
F
F
F
F
p
FV
FV
VF
VF
CONTINGENCIA (Verdad
o falsedad fáctica)
Lógicamente
indeterminada
p
V
V
F
F
p
Λ
V
F
F
F
V
V
F
F
La tautología es una verdad formal, porque el conjunto de proposiciones que representan al
razonamiento tautológico es siempre verdadero, sean cuales fueren los valores V o F de sus
proposiciones componentes. La contradicción es una falsedad formal, porque el conjunto de
proposiciones que representan al razonamiento contradictorio es siempre falso, sean cuales
fueren los valores de verdad V o F de sus proposiciones componentes.
La contingencia puede ser, finalmente, una verdad o una falsedad fáctica porque no podemos
determinar lógicamente su verdad o falsedad: para ello debemos confrontar las diferentes
proposiciones con los hechos para saber si estamos frente a una proposición verdadera o
frente a una falsa.
Notas
(1) Llamada así porque se transforma el razonamiento en una proposición molecular donde el conjunto de las premisas y la conclusión
están unidos entre sí por el condicional: es el condicional que está 'asociado' a ese razonamiento.
(2) Si nuestro razonamiento contuviese tres proposiciones como p, q y r, entonces la cantidad de combinaciones no serían cuatro sino
ocho (es decir, tendríamos ocho hileras horizontales en vez de cuatro). En general, el número de combinaciones es igual a 2 elevado
a la n, siendo n la cantidad de proposiciones.
Lecturas complementarias
Strawson P, "Introducción a una teoría de la lógica", Buenos Aires, Nova, 1969. Capítulo 3: "Las funciones veritativas".
Ferrater Mora J, "Lógica Matemática", México, FCE, 1975. Capítulo 2: "Lógica sentencial".
Colacilli de Muro M y J, "Elementos de lógica moderna y filosofía", Buenos Aires, Estrada, 1979. Capítulo 7: "Elementos de lógica
proposicional".
Salama Alicia, "Lógica simbólica y elementos de metodología de la ciencia", Buenos Aires, El Ateneo, 1979, 3° edición. Capítulo 3:
"Lógica proposicional".
13. PRINCIPIO LÓGICO
Afirmación de validez universal y evidente por sí misma que hace posible el pensamiento
mismo. Clásicamente, los principios lógicos son tres: identidad, no contradicción, y tercero
excluido, aunque a veces se agrega el principio de razón suficiente. Hoy en día, se tiende a
relativizar la importancia de estos principios.
i.
Definición. Los principios lógicos, según las definiciones clásicas que vienen repitiéndose
desde los griegos, son:
a.
Afirmaciones autoevidentes, es decir, se puede 'ver' inmediatamente que son
verdaderos y por tanto no requieren ser demostrados por principios más fundamentales o
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
46
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
anteriores. Por ejemplo: "A=A" (principio de identidad). Por lo demás, no sólo no requieren
demostración sino además tampoco pueden ser demostrados, porque entonces no serían
los primeros principios que son. En todo caso, los principios lógicos sirven para demostrar
cualquier otro pensamiento derivado de ellos, tal como pensaba Aristóteles.
b.
ii.
Afirmaciones que hacen posible el acto mismo de pensar, sea lo que fuere en lo que
pensemos (validez universal). Por ejemplo, no podríamos pensar en un gato si un gato no
fuese un gato, es decir, si se violara el principio de contradicción.
Los tres principios lógicos y el principio de razón suficiente. Existen muchas maneras de
expresar los principios lógicos, de las cuales elegiremos una de rápida comprensión.
Principio de identidad:
"A es igual a A".
Principio de no contradicción:
"A no puede ser A y no-A".
Principio de tercero excluido:
"A, o es A, o es no-A",
es decir, una tercera posibilidad queda excluida.
Principio de razón suficiente:
"Todo tiene su razón de ser: nada ocurre porque sí".
Este principio parece no ser necesario al pensamiento,
pero sí lo es, pues afirma que cuando pensamos que algo
es verdadero o falso, por alguna razón lo estamos
pensando.
No se debe confundir el segundo y el tercer principio. El segundo principio dice que una afirmación
no puede ser verdadera y al mismo tiempo ser falsa, mientras que el tercero dice que esas son las
únicas dos posibilidades que la afirmación tiene. Desde ya, este principio está pensado en el
contexto de una lógica bivalente que admite sólo la verdad y la falsedad, obviando la probabilidad
como valor intermedio.
Los tres primeros principios son clásicos, mientras que el cuarto fue presentado más tarde y
considerado por Leibniz como el 'gran principio'.
iii. Principio lógico, ley lógica, axioma. Las modernas investigaciones lógicas han puesto de
manifiesto que los 'principios lógicos' son bastante más que los tres o cuatro indicados
anteriormente, y que ninguno de todos ellos es más o menos fundamental que los tres
principios clásicos. Copi (1) llega incluso a decir que, a los efectos de utilizar principios para las
pruebas de validez de razonamientos, algunos 'principios' son más fructíferos que los tres
clásicos.
Tradicionalmente se distingue un principio de una ley señalándose que el principio es más
fundamental y abarcativo que la ley. De acuerdo a lo dicho, entonces, los tres principios
lógicos no están por encima del resto de las leyes lógicas sino que todas las afirmaciones
tienen el mismo rango, no siendo ninguna más básica que la otra: en todo caso, como hemos
dicho, algunas podrán ser más útiles o menos útiles para determinados propósitos lógicos. Hoy
día, entonces, los lógicos hablan solamente de un gran conjunto de leyes lógicas y, si aluden
alguna vez a los 'principios' lógicos, la alusión tiene solamente el valor de una referencia
histórica.
Los principios o las leyes lógicas se parecen a los llamados axiomas, pero solamente en
cuanto todos ellos son puntos de partida para demostrar otros enunciados de ellos derivados.
Se considera que, a diferencia de una simple ley lógica, el axioma es el punto de partida de un
sistema formal, mientras que ley lógica es como un enunciado aislado que se toma o se
desecha según sirva o no para demostrar la validez de algún razonamiento. Si una ley lógica
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
47
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
es incluida como punto de partida indemostrable de un sistema formal, pasa a ser un axioma
(ver Sistema formal, y Axioma). E incluso más: esa misma ley lógica puede aparecer como
un enunciado derivado (teorema) dentro de otro sistema formal distinto, lo cual una vez más
pone de relieve la relatividad de la importancia de los principios y las leyes.
Notas
(1) Copi Irving, "Introducción a la lógica", Buenos Aires, Eudeba, 1974, 15° edición, página 251.
Lecturas complementarias
Cazau Pablo, "Identidad (I)" (El Observador N°3, página 114). Aquí se hace referencia al principio de identidad.
Fatone Vicente, "Lógica e introducción a la filosofía", Buenos Aires, Kapelusz, 1969, 9° edición. Capítulo 5: "Los principios lógicos".
Colacilli de Muro M y J., "Elementos de lógica moderna y filosofía", Buenos Aires, Estrada, 1979, páginas 37 a 42.
14. RAZONAMIENTO
Conjunto de enunciados donde uno de los cuales, llamado conclusión, se espera que se
derive necesaria o probabilísticamente del resto de los enunciados llamados premisas. Los
razonamientos se clasifican a grandes rasgos como deductivos y no deductivos, válidos e
inválidos, inmediatos y mediatos. Sinónimo: inferencia.
i.
Caracterización. En la definición de razonamiento se hace referencia a tres cuestiones:
a.
La definición se refiere a un conjunto de enunciados: un razonamiento es un todo
cuyos elementos constitutivos se llaman enunciados o proposiciones. El siguiente
razonamiento, por ejemplo, está formado por tres enunciados conectados entre sí:
"Todos los mamíferos son animales;
todos los gatos son mamíferos;
por lo tanto,
todos los gatos son animales".
Los dos primeros reciben el nombre de premisas, y el último se llama conclusión. Como
se ve, las premisas y la conclusión están unidas mediante expresiones que, como "por lo
tanto", o "en consecuencia", indican que la conclusión de deriva o se desprende de alguna
forma de las premisas.
Todo razonamiento debe tener siempre una conclusión, sea válida o inválida. En lo que
puede variar, en cambio, es en el número de premisas. En el ejemplo anterior hay dos
premisas, pero podría haber tenido más, o también podría haber tenido una sola premisa.
Por ejemplo, si nos dicen que un razonamiento tiene 20 enunciados, entonces con
seguridad uno será la conclusión, y 19 serán premisas.
Si seguimos un ordenamiento lógico, primero deben indicarse las premisas y después la
conclusión. Algunas veces en la vida cotidiana no seguimos este orden, y decimos
primero la conclusión y luego las premisas: "los gatos son animales, porque todos los
gatos son mamíferos y todos los mamíferos son animales". Como vemos, al afirmar
primero la conclusión y luego las premisas, debemos interponer expresiones como
"porque", o "debido a que", etc., mientras que si expresamos primero las premisas y
después la conclusión, interpondremos expresiones como "por lo tanto", "en
consecuencia", etc. En la lógica se sigue siempre este último ordenamiento, y ambas
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
48
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
formas de expresar los razonamientos no corresponden a dos razonamientos distintos: se
trata del mismo razonamiento expresado de dos maneras diferentes.
Premisa y conclusión no son términos absolutos. La conclusión, dijo alguna vez alguien,
es el lugar donde llegamos cuando nos cansamos de pensar, lo cual entre otras cosas
ilustra sobre el hecho de que una conclusión puede a su vez convertirse en premisa de un
nuevo razonamiento, si acaso nos decidimos a derivar nuevas conclusiones. De hecho, el
mismo enunciado puede funcionar como premisa en un razonamiento y como conclusión
en otro. Por ejemplo:
"Todos los gatos son animales;
Mizifuz es un gato;
por lo tanto,
Mizifuz es un animal".
El enunciado "Todos los gatos son animales" es premisa de este último razonamiento, per
o es conclusión en el primer razonamiento que dimos como ejemplo.
b.
En la definición se indica que la conclusión se espera que se deriva "necesaria o
probabilísticamente" de las premisas: tal expresión procura incluir dentro de la
definición de razonamiento a los razonamientos deductivos (de conclusión necesaria) y a
los no deductivos (de conclusión probable). El lector no deberá confundirse si en diversos
manuales de lógica no se hace alusión al carácter probable de la conclusión, ya que son
textos que toman como referencia la lógica bivalente y no la trivalente (la que incluye un
tercer valor: "probable", además de los clásicos "verdadero" y "falso").
c.
En la definición se indica que la conclusión "se espera" que se derive de las
premisas: dicha expresión indica que no estamos definiendo razonamiento válido sino
razonamiento en general, ya que en un razonamiento válido la conclusión es con
seguridad necesaria (ver Validez). Esta consideración se aplica especialmente al caso de
la derivación necesaria, y no tanto a la probabilística.
Hechas estas aclaraciones sobre la definición de razonamiento, examinemos ahora
algunas otras características, que aparecen sintetizadas y ejemplificadas en el esquema
que acompaña al artículo Estructura lógica (y donde se muestran al mismo tiempo las
diferencias del razonamiento con el término y el enunciado).
Los razonamientos pueden simbolizarse usando expresiones que designan términos, o
expresiones que designan enunciados, lo cual dependerá del capítulo de la lógica en el
que estemos trabajando (en la lógica de términos o en la lógica proposicional,
respectivamente).
Muchas veces se utiliza como sinónimo de razonamiento la expresión "inferencia", y así lo
consideramos en esta Guía. Lo que sí no debe confundirse es razonamiento con
pensamiento. Pensar significa tanto razonar como armar enunciados o construir
conceptos, de manera que es una idea más abarcativa que razonamiento. Inclusive llega
a veces a decirse que pensar es también imaginar o dejar divagar la mente y, cuando lo
hacemos, no estamos necesariamente razonando sobre ello. Hay razonamiento cuando,
como veremos pronto, hay un propósito explícito de derivar un enunciado a partir de otros
intentando fundamentarlo o justificarlo a partir de ellos. En la asociación libre del
tratamiento psicoanalítico, se derivan unos enunciados a partir de otros pero no existe la
intención de fundamentar los segundos a partir de los primeros. No es una asociación
sujeta al régimen de las leyes lógicas sino, como su nombre lo indica, está 'libre' de ellas.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
49
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Como señala Copi, la diferencia entre un razonamiento y un simple conjunto de
enunciados que no constituyen un razonamiento es principalmente de finalidad o interés,
a saber, la de fundamentar la conclusión a partir de premisas.
Al respecto, el mismo autor da un ejemplo. "Si A entonces B" no es un razonamiento, ya
que no se afirma categóricamente ninguna premisa. En cambio, "Puesto que A, entonces
se da B" sí es un razonamiento porque se afirma una premisa en forma categórica, y se
afirma también en forma explícita que la conclusión se sigue de la premisa y que por lo
tanto dicha conclusión es verdadera (1).
En suma, si los términos son unidades de significación y los enunciados son unidades de
interpretación, los razonamientos son en cambio unidades de argumentación, ya que
argumentar significa fundamentar unos enunciados a partir de otros con los cuales están
relacionados lógicamente.
ii.
Clasificación de los razonamientos. De las diversas clasificaciones que hay consideremos t
res, que son particularmente importantes para la lógica.
a.
Razonamientos inmediatos y mediatos. De acuerdo al número de premisas, los
razonamientos pueden ser inmediatos y mediatos. Son inmediatos si tienen una sola
premisa, pues de ésta se deriva 'inmediatamente' una conclusión. Por ejemplo:
"Todas las aves vuelan;
Por lo tanto,
algunas aves vuelan".
Este tipo de inferencia inmediata recibe el nombre de 'subalternación'. Otros ejemplos
podrá encontrarlos el lector en el artículo dedicado a Razonamiento Inmediato.
Los razonamientos son mediatos, en cambio, si tienen dos o más premisas. El
razonamiento mediato más sencillo tiene dos premisas, y recibe el nombre de silogismo
(ver Silogismo).
b.
Razonamientos deductivos y no deductivos. Se trata de una clasificación más
importante que la anterior, y casi todos los tratados de lógica o epistemología (2) (3) (4) (5) (6)
coinciden en clasificar a los razonamientos como deductivos y no deductivos. Para
mayores detalles, mis eventuales lectores pueden consultar el artículo Deducción para
ver las diferencias entre razonamientos deductivos y no deductivos, y los artículos
Razonamiento no deductivo, Inducción y Razonamiento analógico para los
razonamientos no deductivos.
c.
Razonamientos válidos e inválidos. Los razonamientos pueden ser válidos o correctos,
e inválidos o incorrectos (ver Validez). Hay una relación entre esta clasificación y la
anterior que merece ser aclarada: en general se considera que los razonamientos
deductivos pueden ser válidos o inválidos, pero no sucede lo mismo con los no
deductivos, ya que según algunos autores la validez o invalidez es solamente atributo de
los razonamientos deductivos, mientras que para otros los razonamientos no deductivos
son siempre inválidos, al menos en sus ejemplos más importantes. En este último caso el
ejemplo más típico es la inducción incompleta, o simplemente inducción, un razonamiento
inválido que, sin embargo, todos utilizamos permanentemente. Por ser inválido suele
llevarnos a conclusiones equivocadas y es, de alguna manera, un 'mal necesario' de la
inteligencia (ver Inducción).
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
50
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Notas
(1) Este ejemplo de Copi roza, incidentalmente, una cuestión central en lógica. Las expresiones "Si A entonces B" y "Puesto que A,
entonces se da B" responden ambas al mismo esquema condicional "Si p entonces q". Surge entonces la duda acerca de si este
condicional es un enunciado o un razonamiento, habida cuenta de que, además, cierta prueba de validez transforma un razonamiento
en un enunciado condicional (ver la prueba del condicional asociado en el artículo Validez, Prueba de). A nuestro criterio, la distinción
hecha por Copi acerca de que la diferencia reside en una cuestión de énfasis o afirmación categórica o explícita es psicológica, y
faltaría resolverla a un nivel lógico.
(2) Copi Irving, "Introducción a la lógica", Buenos Aires, Eudeba, 1974, 15° edición, págs 397 y 422.
(3) Bunge Mario, "La investigación científica: su estrategia y su filosofía", Barcelona, Ariel, 1969, págs 860-866.
(4) Colacilli de Muro M y J, "Elementos de lógica moderna y filosofía", Buenos Aires, Estrada, 1979, págs. 96 a 109.
(5) Strawson P, "Introducción a una teoría de la lógica", Buenos Aires, Nova, 1969, pág. 275.
(6) Nudler T y O, "Elementos de lógica simbólica", Buenos Aires, Kapelusz, 1973, págs. 6-7.
Lecturas complementarias
Strawson P, "Introducción a una teoría de la lógica", Buenos Aires, Nova, 1969. Capítulo 1, punto 2: "El razonamiento".
Copi Irving, "Introducción a la lógica", Cap I, Buenos Aires, Eudeba, 1974, 15° edición. En el capítulo I se desarrolla la idea de
razonamiento y sus diferencias con conceptos similares.
Fatone Vicente, "Lógica e Introducción a la filosofía", Buenos Aires, Kapelusz, 1969, 9° edición. Capítulo 6: "El razonamiento".
Colacilli de Muro M y J, "Elementos de lógica moderna y filosofía", Buenos Aires, Estrada, 1979. Capítulo 6: "Los razonamientos".
Salama Alicia, "Lógica simbólica y elementos de metodología de la ciencia", Buenos Aires, El Ateneo, 1979, 3° edición. Capítulo 2,
punto 9: "Los razonamientos".
15. RAZONAMIENTO ANALÓGICO
Razonamiento no deductivo por el cual se concluye que un objeto B tiene la misma
propiedad que un objeto A, sobre la base de que A y B tienen otras características en
común. Sinónimo: razonamiento por analogía.
i.
Generalidades. El razonamiento por analogía es tal vez el razonamiento más frecuentemente
utilizado por el hombre, tanto en la vida cotidiana como en la actividad científica, y
esquemáticamente podríamos representarlo del siguiente modo:
"Los objetos A, B y C comparten las propiedades X e Y;
los objetos A y B tienen además la propiedad Z;
por lo tanto,
el objeto C también tiene la propiedad Z".
Por ejemplo: "Antonio, Beto y Carlos viven en una villa y son agresivos; por otro lado Antonio y
Beto son además drogadictos; luego Carlos también debe serlo". Como podemos ver, al
menos dos características distinguen a estos razonamientos de otros tipos:
a.
En el razonamiento analógico, premisas y conclusión tienen el mismo grado de
generalidad. En el ejemplo, partimos de lo que sucedía con ciertos casos particulares,
para concluir algo sobre otro individuo o caso en particular. La deducción va en cambio de
lo general a lo particular, mientras la inducción de lo particular a lo general.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
51
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
b.
El razonamiento analógico tiene, a diferencia de la deducción, una conclusión probable,
no necesaria. El hecho de que Antonio y Beto sean drogadictos no garantiza que también
Carlos lo sea, a pesar de vivir todos en una villa y de ser todos ellos agresivos.
A pesar de saber que las conclusiones de los razonamientos analógicos son solamente
probables, en la vida cotidiana tendemos a pensar que son ciertas, sobre todo por haber
seleccionado ciertas premisas particularmente 'útiles' como elementos de juicio favorables a la
conclusión. El siguiente ejemplo es elocuente:
"A estudió un solo tema, en el examen le tocó ese, y aprobó;
B estudió un solo tema, en el examen le tocó ese, y aprobó;
C estudió un solo tema, en el examen le tocó ese, y aprobó;
por lo tanto,
yo estudiaré un solo tema, en el examen me tocará ese y aprobaré".
El científico también, dijimos, utiliza estos tipos de razonamiento. Freud, por ejemplo, sabía
que los síntomas eran una vía de acceso al inconciente, y al ver que sus pacientes traían a la
sesión sus propios sueños como si fueran síntomas, concluyó que los sueños podían también
ser una vía de entrada al inconciente. Esquemáticamente: "síntomas y sueños tienen como
característica en común el hecho de que los pacientes los consideran expresiones de su
enfermedad; los síntomas tienen además la propiedad de ser un acceso al inconciente; por lo
tanto, los sueños también deben ser una vía de acceso al mismo".
Como se puede apreciar, los razonamientos por analogía tienen gran utilidad heurística, es
decir, conducen a la invención de nuevas hipótesis sobre la realidad. Desde ya, como sus
conclusiones son solamente probables, al científico le espera una tarea adicional: la de
verificar las hipótesis que ha inventado, procedimiento sin el cual no se podría hablar de
actividad científica propiamente dicha.
ii.
Razonamiento analógico y analogía formal. El razonamiento analógico al que hacemos
referencia se basa en analogías empíricas, es decir, en analogías observadas en la realidad
(en el barrio, en las reuniones, etc.). Existen sin embargo, otro tipo de analogías que podemos
llamar analogías formales, y que no vamos a encontrar en las ciencias fácticas sino en las
ciencias formales, como la lógica y la matemática. No constituyen razonamientos por analogía
tal como los definimos en este Glosario, pero tienen ciertas semejanzas con ellos. Demos un
ejemplo de analogía formal en cada disciplina:
a.
En lógica: una de las pruebas de validez para razonamientos deductivos es la prueba de
la analogía lógica (ver Validez, Prueba de), donde se concluye que cierto razonamiento
es válido porque tiene la 'misma forma' de otro razonamiento que ya sabemos que es
válido.
b.
En matemática: La geometría tradicional es la geometría euclidiana, un sistema formal
deductivo que en principio no presenta contradicciones y además explica adecuadamente
muchas cosas de la realidad cotidiana, es decir, es compatible con nuestra experiencia
sensible y cotidiana del espacio. En el siglo XIX comenzaron a desarrollarse geometrías
no euclidianas, y algunos llegaron a concluir, basándose en una analogía formal, que
como estas nuevas geometrías tampoco tenían contradicciones internas, entonces
también podían ser compatibles con algún tipo de realidad que estuviera fuera del alcance
de nuestros sentidos. El tiempo les dio la razón, e incluso se constató que podían explicar
ciertos aspectos de la realidad que la geometría euclidiana no podía explicar (1).
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
52
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
iii. Algunas aplicaciones del razonamiento analógico. Algunos autores
algunas formas de aplicar razonamientos analógicos:
(1)
desarrollaron
a.
En la analogía por interpretación se extiende una teoría abstracta a sus diversas
interpretaciones. Se puede dar como ejemplo el caso mencionado en el ítem anterior
sobre las geometrías no euclidianas, pero aquí, a diferencia de una analogía formal entre
geometría euclidiana y no euclidiana, aparece una analogía intermedia entre una
geometría no euclidiana y una determinada realidad, es decir, no es ni una analogía
puramente formal ni puramente empírica.
b.
En la analogía de invención el hombre construye algún artificio por 'analogía' con alguna
estructura ya dada en la naturaleza. Por ejemplo: si se construye una máquina (la misma
que luego se llamó computadora) que piensa análogamente al cerebro humano, entonces
se le puede extraer la misma utilidad que al cerebro (con la ventaja que la máquina no
puede pedir aumento de sueldo y hace lo que el usuario quiere).
c.
En la analogía por casos, se procede de hechos singulares conocidos por observación
directa, a otros hechos nuevos que se suponen semejantes a los ya conocidos. La
analogía por casos es el típico razonamiento por analogía que se ha descrito al comienzo
del presente artículo.
iv. Criterios de estimación de razonamientos analógicos. Aunque ningún razonamiento
analógico puede ofrecer una conclusión totalmente segura, existen ciertos criterios gracias a
los cuales se puede estimar el grado de probabilidad con que establecen sus conclusiones.
Algunos de estos criterios son los siguientes (2):
a.
La conclusión es más probable cuanto mayor sea el número de entidades entre las cuales
se afirman analogías: concluir que en una lavandería lavan bien la ropa sobre la base de
haber ido cinco veces y las cinco veces la lavaron bien, es más probable que concluir lo
mismo habiendo ido una sola vez.
b.
La conclusión es más probable cuanto mayor sea el número de aspectos o propiedades
análogas: si dos cosas se parecen en muchos aspectos, es más probable que una nueva
propiedad de una aparezca también en la otra. Si se parecen en pocos aspectos, es
menos probable que ambas compartan nuevas propiedades.
c.
Fuerza de la conclusión respecto de las premisas: a partir de las premisas "Los autos de
Juan y Pedro tienen la misma marca y son del mismo modelo" y "el auto de Juan rinde
100 Km. con 10 litros de gasolina", la conclusión de que "el auto se Pedro también rendirá
lo mismo" es menos segura que la conclusión "el auto de Pedro rendirá entre 95 y 105
Km. con 10 litros de combustible".
d.
La conclusión es tanto menos probable cuanto mayor sea el número de desemejanzas
entre las propiedades de los ejemplos. En el ejemplo anterior, si Juan y Pedro tienen
formas diferentes de manejar (desemejanza), esto debilita mucho la conclusión de que
ambos coches rendirán el mismo kilometraje con x cantidad de gasolina.
e.
La conclusión es tanto más probable cuanto mayor sean las desemejanzas entre los
casos dados como ejemplos. Pensamos por ejemplo que A, que se recibió en la UMSA,
será un buen profesional porque B, C y D también se recibieron en la UMSA y fueron
buenos profesionales. La conclusión sobre A se torna más probable si además sabemos
que entre B, C y D hay muchas desemejanzas en cuanto por ejemplo a religión, estado
civil, edad, carrera estudiada, etc.
f.
Atinencia de las premisas respecto de lo afirmado en la conclusión: evidentemente es
atinente concluir que A se curará tal enfermedad con una droga X porque B también se
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
53
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
curó la misma enfermedad con la misma droga. Pero resulta totalmente inatinente concluir
lo mismo basándonos en que A y B tiene la misma estatura, el mismo sastre, la misma
cantidad de hijos o la misma filiación política, y que por ello también se curarán con la
misma droga.
La atinencia, por lo tanto, está directamente relacionada con el problema de la causalidad:
lo que causa la curación es la droga, no la estatura, el sastre o la cantidad de hijos. Es así
que poder estimar los razonamientos analógicos en base a este último criterio exige un
cierto conocimiento de cuáles pueden ser conexiones causales y cuáles no, conocimiento
que puede obtenerse por simple intuición o, con mayor seguridad, mediante la
observación y la experimentación en tanto estas permitan descubrir nexos causales.
El criterio de atinencia resulta ser entonces el más importante de todos (o sea el que más
debe tener en cuenta el científico), por cuanto todo el edificio de la ciencia está montado
sobre la idea de conexión causal, y, las analogías que se establezcan en la investigación
deberán estar basadas en vínculos causales.
Notas
(1) Colacilli de Muro M y J, "Elementos de lógica moderna y filosofía", Buenos Aires, Estrada, 1979, página 105.
(2) Copi Irving, "Introducción a la lógica", Buenos Aires, Eudeba, 1974, 15° edición, páginas 404-409.
Lecturas complementarias
Copi Irving, "Introducción a la lógica", Buenos Aires, Eudeba, 1974, 15° edición. En el capítulo11 se desarrolla la idea de razonamiento
por analogía y se indican algunos criterios para estimarlos.
Fatone Vicente, "Lógica e introducción a la filosofía", Buenos Aires, Kapelusz, 1969, 9° edición. Capítulo 8: "La inducción y la
analogía".cente, "Lógica e Introducción a la filosofía", Buenos Aires, Kapelusz, 1969, 9° edición. Capítulo 5: "Los principios lógicos".
Colacilli de Muro M y J, "Elementos de lógica moderna y filosofía", Buenos Aires, Estrada, 1979, páginas 37 a 42.
16. RAZONAMIENTO INMEDIATO
Tipo de razonamiento cuya conclusión se extrae directamente a partir de una sola premisa.
Sinónimo: inferencia inmediata.
i.
Generalidades. Algunos razonamientos parecen inmediatos pero en realidad son mediatos, es
decir, contienen más de una premisa. Por ejemplo:
"Todos los mamíferos son animales;
por lo tanto,
todos los gatos son animales".
Aquí se omitió explicitar la premisa "todos los gatos son mamíferos" con lo cual, en realidad,
este razonamiento tiene dos premisas y una conclusión, es decir, es un silogismo. Cuando un
silogismo contiene, como en el ejemplo, una premisa tácita, recibe el nombre de 'entimema'.
En nuestro lenguaje cotidiano solemos omitir explícitamente ciertas premisas por ser
consideradas obvias. Ejemplos genuinos de inferencias inmediatas se presentan en el
siguiente acápite.
ii.
Clasificación. Generalmente se clasifica a los razonamientos inmediatos en aquellos que
están relacionados con el Cuadro de Oposición aristotélico, y aquellos que no lo están.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
54
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
a.
Como se puede apreciar en el esquema, el cuadro de oposición clásico relaciona cuatro
tipos de enunciados, donde cualquiera de ellos puede deducirse como conclusión de
cualquier otro considerado como premisa, siempre que se cumplan ciertas condiciones.
Por ejemplo, a partir de "Todo S es P" se puede deducir correctamente "Algún S es P",
inferencia inmediata que se llama subalternación. En cambio, a partir de "Todo S es P" no
puede deducirse "Ningún S es P", y en este caso para que la deducción sea válida, es
decir, constituya realmente una inferencia inmediata, se debe cambiar la conclusión
negándola. De esta manera, de "Todo S es P" se puede deducir correctamente "Es falso
que ningún S es P".
Durante siglos esta teoría aristotélica de las inferencias inmediatas fue considerada válida,
pero los lógicos modernos, apoyándose en el concepto de contenido existencial de los
enunciados, han invalidado algunos de sus aspectos negando que realmente haya
relaciones de contrariedad, subcontrariedad y subalternación, quedando en pie solamente
las relaciones de contradicción. No desarrollará aquí esta crítica, aunque vale la pena
mencionarla (1).
b.
Otras inferencias inmediatas no relacionadas con el cuadro de oposición por ejemplo la
conversión, la observación y la contraposición. A manera de ejemplificar el primero:
"Algunos animales acuáticos son mamíferos;
por lo tanto,
algunos mamíferos son animales acuáticos".
Como se aprecia, la conversión consiste en obtener una conclusión donde se han
intercambiado el sujeto y el predicado de la premisa (y, en este caso, manteniéndose
inalterable el cuantificador 'algunos'). Cabe hacer notar que la conclusión de este
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
55
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
razonamiento es verdadera porque así lo dice la observación, pero el razonamiento
inmediato apunta a otra cosa: intenta demostrar que la conclusión es verdadera no por la
observación, sino porque se deduce correctamente de la premisa, considerada verdadera.
No es lo mismo concluir que algunos mamíferos son acuáticos porque así se lo ha
comprobado en una expedición submarina, a concluir lo mismo porque ello se deduce de
que algunos animales acuáticos son mamíferos.
Notas
(1) Un desarrollo de la crítica moderna al cuadro de oposición puede encontrarse en: a) Copi Irving, "Introducción a la lógica", Buenos
Aires, Eudeba, 1974, 15° edición, página 191, y en b) Nudler T y O, "Elementos de lógica simbólica", Buenos Aires, Kapelusz, 1973,
página 81.
Lecturas complementarias
Fatone Vicente, "Lógica e Introducción a la filosofía", Buenos Aires, Kapelusz, 1969, 9° edición. Capítulo 6: "El razonamiento
(inferencias inmediatas)".
Copi Irving, "Introducción a la lógica", Buenos Aires, Eudeba, 1974, 15° edición. En el capítulo 5 sobre "Las proposiciones categóricas"
se desarrolla el tema de las inferencias inmediatas.
17. RAZONAMIENTO NO DEDUCTIVO
Tipo de razonamiento donde la conclusión no se desprende de la/las premisas con carácter
de necesidad lógica, sino con un cierto grado de probabilidad. De los diversos tipos de
razonamiento no deductivo, pueden destacarse la inducción y el razonamiento analógico.
i.
Caracterización. Los razonamientos no deductivos son los más habituales en la vida cotidiana
y, como conducen a conclusiones probables, no seguras, son una fuente importante de errores
de apreciación. En la ciencia también se emplean esta clase de razonamientos, sólo que aquí,
cuando son empleados para probar hipótesis, se tiene la precaución de evaluar el grado de
probabilidad de la conclusión: el científico siempre intentará que las premisas suministren la
mayor cantidad y variedad de elementos de juicio posibles como para poder tornar confiable la
conclusión o hipótesis.
Como se ve, mientras en los razonamientos deductivos la conclusión o es necesaria o no lo
es, en los no deductivos la conclusión puede tener diferentes grados de probabilidad, según lo
que aporten las premisas como fundamento.
De tres maneras podemos caracterizar a los razonamientos no deductivos:
a.
La conclusión nunca es más particular que las premisas;
b.
La conclusión no es necesaria sino probable; y
c.
Las premisas son necesarias pero no suficientes para demostrar con seguridad la
conclusión.
Considérese como ejemplo el siguiente razonamiento no deductivo:
"La droga A curó a Fulano de una enfermedad;
La droga A curó a Mengano de la misma enfermedad;
por lo tanto,
"La droga A cura a todas las personas con la misma enfermedad".
Obsérvese que:
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
56
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
a.
la conclusión es, en este caso, más general que las premisas, porque no es lo mismo
decir "todos" que decir "Fulano" o "Mengano";
b.
La conclusión no es segura, pues puede haber algún nuevo paciente que no se cure con
la droga A;
c.
El hecho de que Fulano y Mengano se hayan curado con la droga A, no es suficiente para
sostener con seguridad que todos los pacientes se curarán con esa droga.
Se ve claramente que estas dos últimas características, b y c, apuntan a la misma idea, sólo
que en un caso se hace hincapié en cómo debe ser la conclusión, y en el otro cómo deben ser
las premisas.
Estas tres características distinguen a los razonamientos no deductivos de los deductivos,
diferencias que están más detalladas en el artículo Deducción.
ii.
Clasificación. Dentro de los razonamientos no deductivos se incluye una gran variedad de
razonamientos, por momentos bastantes diferentes entre sí en otros aspectos, y prácticamente
no existen dos autores que propongan la misma clasificación de estos razonamientos. Incluso,
llegan a haber autores que ni hablan de razonamientos no deductivos, y clasifican todos los
razonamientos como deductivos o reductivos, como por ejemplo Bochenski (1).
Algunos ejemplos de clasificación de razonamientos no deductivos
SEGÚN COLACILLI DE MURO, PAGINAS 96-109
Analógicos
Por interpretación
Por invención
Por casos
Inductivos
Inducción baconiana (de varios casos a todos)
Inducción galileana (de un caso a todos)
De ningún caso a todos
SEGÚN BUNGE MARIO, PAGINAS 860-866
Analogía
Sustantiva
Estructural
Inducción
De primer grado
De segundo grado
Generalización estadística
Especificación estadística
Modus ponens débil
Modus tollens débil
Reducción
Fuerte
Débil
Etc.
En el esquema adjunto se presentan algunas clasificaciones como para que el lector pueda
darse una idea somera de la gran diversidad de enfoques existentes al respecto. En lo que
prácticamente todos coinciden, sin embargo, es en incluir dentro de los razonamientos no
deductivos a la inducción y al razonamiento analógico (véanse estos dos artículos).
Notas
(1) Bochenski, "Los métodos actuales del pensamiento", Barcelona, Ariel, págs. 188 a 195.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
57
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Lecturas complementarias
Strawson P, "Introducción a una teoría de la lógica", Buenos Aires, Nova, 1969. Capítulo 9: "El razonamiento inductivo y la
probabilidad".
Fatone Vicente, "Lógica e Introducción a la filosofía", Buenos Aires, Kapelusz, 1969, 9° edición. Capítulo 8: "La inducción y la
analogía".
Colacilli de Muro M y J, "Elementos de lógica moderna y filosofía", Buenos Aires, Estrada, 1979. Capítulo 6, punto 7: "Los
razonamientos no deductivos".
18. SILOGISMO
Razonamiento deductivo donde se infiere una conclusión a partir de dos premisas. Los
silogismos pueden ser categóricos, hipotéticos o disyuntivos, según el tipo de enunciado
que contengan.
i.
Caracterización. Es generalmente conocido el clásico ejemplo de silogismo:
"Todos los hombres son mortales;
Sócrates es hombre;
por lo tanto,
Sócrates es mortal".
Como se puede ver, todo silogismo está formado por tres enunciados: uno es la conclusión, al
que se llega a partir de los otros dos llamados premisas. Resulta importante destacar que hay
una relación lógica forzosa o necesaria entre las premisas y la conclusión. En efecto, se ha
llegado a la conclusión de que Sócrates es mortal no por haber leído en los libros de historia
que falleció bebiendo cicuta, sino porque se sabe que todos los hombres son mortales y que
Sócrates es hombre, es decir, por haber razonado silogísticamente. La cuestión de cómo se
sabe que todos los hombres son mortales no interesa a la lógica, pero igual se puede aclarar
que aquí sucede otro tanto: se puede concluir que "todos los hombres con mortales" porque o
se vio o se supo de la muerte de muchas personas, o bien porque se deduce de otro
enunciado considerado verdadero, a saber, "Todos los seres vivos son mortales", y así
sucesivamente.
Aristóteles llevó a cabo una descripción bastante detallada de la estructura del silogismo
analizando en particular los silogismos categóricos, que son silogismos que contienen tres
enunciados categóricos, donde están incluidos exactamente tres términos: S, P y M (ver
esquema), y donde cada uno de los cuales aparece exactamente en dos de los tres
enunciados constituyentes. De acuerdo a la posición del término M (o término que no aparece
nunca en la conclusión), los silogismos pueden ser de cuatro 'figuras' diferentes (ver
esquema).
Los silogismos categóricos se clasifican según la figura y también según el modo, pero no es
propósito del presente Glosario desarrollar estos detalles. La teoría tradicional del silogismo,
que corresponde a Aristóteles, ha sido revisada modernamente constituyendo, hoy en día, un
subcapítulo de la lógica de funciones y, por consiguiente, de la teoría lógica moderna (1).
ii.
Clasificación. Cuando se clasifican a los silogismos como categóricos, hipotéticos o
disyuntivos se está pensando en el tipo de enunciado que contienen (ver Enunciado). Los
silogismos categóricos contienen tres proposiciones categóricas, y han sido brevemente
descritos en el ítem anterior. Los silogismos hipotéticos (ver esquema adjunto) son aquellos en
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
58
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
los cuales las dos premisas, o una de ellas, son enunciados hipotéticos, y al respecto se tienen
tres ejemplos importantes: el silogismos hipotético puro, el modus ponendo ponens y el
modus tollendo tollens (estos dos últimos son silogismos hipotéticos mixtos porque no todas
sus premisas son hipotéticas).
Los silogismos disyuntivos son aquellos donde la primera premisa es un enunciado disyuntivo
(disyunción excluyente), y donde la segunda premisa es un enunciado categórico en el cual se
afirma o niega una de las alternativas. Ejemplos: el modus ponendo tollens y el modus tollendo
ponens.
Tipos de silogismo
(Los ejemplos corresponden a Fatone, salvo el de silogismo hipotético puro, que es de Copi)
SILOGISMOS CATEGORICOS
Primera figura
Todo vicio debe ser combado
El odio es un vicio
Por lo tanto
El odio debe se combatido
Segunda figura
Todo alumno del colegio está en clase
X no está en clase
Por lo tanto
X no es un alumno del colegio
Tercera figura
Algunos hombres son filósofos
Todos los hombres son seres falibles
Por lo tanto
Algunos seres falibles son filósofos
Cuarta figura
Algunos mamíferos son cetáceos
Todos los cetáceos son acuáticos
Por lo tanto
Algunos acuáticos son cetáceos
SILOGISMOS HIPOTETICOS
Silogismo hipotético puro
Si A es político, entonces miente
Si miente, entonces niega ser político
Por lo tanto
Si A es político, entonces niega serlo
Ponendo ponens
Si lo operan, el enfermo muere
Operaron al enfermo
Por lo tanto,
El enfermo se murió
Tollendo tollens
Si lo operan, el enfermo muere
No se murió el enfermo
Por lo tanto,
No lo operaron
SILOGISMOS DISYUNTIVOS
Ponendo tollens
Me pagaba o lo denunciaba
Me pagó
Por lo tanto
No lo denuncié
Tollendo ponens
O erró o es mi enemigo
No erró
Por lo tanto
Es mi enemigo
Notas
(1) Nudler T y O, "Elementos de lógica simbólica", Buenos Aires, Kapelusz, 1973, página 87.
Lecturas complementarias
Fatone Vicente, "Lógica e Introducción a la filosofía", Buenos Aires, Kapelusz, 1969, 9° edición. Capítulo 7: "El silogismo".
Copi Irving, "Introducción a la lógica", Buenos Aires, Eudeba, 1974, 15° edición. Capítulo 6: "Los silogismos categóricos".
19. SIMBOLIZACIÓN
Proceso por el cual la lógica abstrae ciertos elementos de contenido de un razonamiento, un
enunciado o un término, por no resultar esenciales para determinar y evaluar la validez del
primero.
i.
Generalidades. La simbolización, el análisis lógico y la formalización son procesos a partir de l
os cuales se puede determinar la validez de los razonamientos mediante la aplicación de
pruebas de validez. Si bien simbolizar implica prescindir de los contenidos para quedarnos con
las formas, no conviene emplear el término 'formalización' porque esto tiene en lógica otro
significado preciso (ver Formalización).
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
59
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
En psicoanálisis también se emplea la palabra 'simbolización', pero tiene un sentido distinto:
para Freud, es un proceso por el cual se representa en forma indirecta algún conflicto o deseo
inconciente. Simbolizar en lógica significa en cambio, un proceso por el cual se representa un
fragmento de discurso 'conciente' (un término, un enunciado, un razonamiento) por otros
símbolos donde los significados han pasado a un segundo plano. Ejemplo: un conflicto
inconciente puede simbolizarse mediante un fragmento de relato onírico como "un señor me
pegó". A partir de aquí, esta representación puede ser a su vez simbolizada en lógica
mediante la letra "p", donde se ha prescindido de su significado y se ha atendido solamente al
hecho de constituir una proposición que puede ser verdadera o falsa.
Se pueden simbolizar razonamientos, enunciados y términos, aunque lo que se abstrae es
diferente en cada caso: sintéticamente, a nivel de términos quitamos los significados, a nivel
de enunciados nos quedamos solamente con sus propiedades veritativas: verdadero o falso
(en la lógica proposicional), o con la estructura intraproposicional (en la lógica de términos), y a
nivel de razonamiento nos quedamos con las relaciones interproposicionales. Veamos por
separado estos tres niveles de simbolización.
ii.
Simbolización de razonamientos.- Simbolizar un razonamiento significa quitarle el contenido
para quedarnos con la forma, la cual no es otra cosa que las relaciones que mantienen entre sí
sus enunciados componentes (relaciones interproposicionales). En el esquema aparecen dos
razonamientos distintos: al quitarles el contenido de que tratan (hombres, mortales, mamíferos,
animales, etc.), quedan reducidos a una misma forma donde "p" y "q" son las premisas, "r" la
conclusión, y la raya horizontal representa la expresión "por lo tanto". Si esto aún no es
suficiente para constatar la validez del razonamiento, podemos simbolizar cada enunciado con
sus elementos constituyentes reemplazando "p" por "Todo S es P", etc.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
60
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Simbolización de razonamientos
Todos los hombres son mortales
Sócrates es hombre
Por lo tanto, Sócrates es mortal
↓
En lógica proposicional
↓
p
q
___
r
O también
(p Λ q) ⇒ r
↓
En lógica de términos
↓
Todo M es P
S es M
_____________
S es P
O también
(x) (Sx ⇒ Px)
Sm
_______________
Pm
iii. Forma de razonamiento. En cualquier caso, lo que hemos obtenido ya no es más un
razonamiento, sino una forma de razonamiento, que es algo muy distinto. Una forma de
razonamiento es una especie de molde dentro del cual pueden entrar muchos razonamientos
con diferentes contenidos. La lógica reduce todo razonamiento a una forma de razonamiento
porque, como dijimos, sabe que la validez depende de la forma (del cómo razonamos) y no del
contenido (del qué razonamos).
Reduciendo el razonamiento a mera forma evitamos que los árboles nos impidan ver el
bosque, es decir, despejamos, aclaramos, quitamos 'palabrerío' y podemos concentrarnos más
fácilmente en su estructura, que nos conducirá más fácilmente a la identificación de un
razonamiento válido. Por ejemplo, podremos concluir que un razonamiento es válido (o
inválido) si es un ejemplo de sustitución de una forma válida (o inválida) de razonamiento (ver
Validez).
iv. Simbolización de enunciados. Simbolizar un enunciado significa dejar de lado todo su
contenido excepto su valor de verdad. Se simboliza un enunciado representándolo mediante una
letra (p, q, etc.), a la que se le asignarán los valores de verdad V (verdadero) o F (falso).
Podrá aquí objetarse que la verdad o la falsedad de un enunciado dependen de su contenido, y
que si dejamos de considerar este contenido no podremos conocer si el enunciado es verdadero o
falso. Indudablemente esto es cierto, pero debemos tener presente que al lógico le interesa el
contenido sólo en la medida en que le permite decidir sobre su verdad o falsedad. Una vez
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
61
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
constatado esto último, ya dejará de importarle si el enunciado hablaba de árboles, tortugas,
hombres o mortales, es decir, se desentiende del contenido.
Simbolización de enunciados
ENUNCIADO A SIMBOLIZAR
EN LOGICA PROPOSICIONAL
EN LÓGICA DE TÉRMINOS
(Lógica de clases)
EN LÓGICA DE TÉRMINOS
(Lógica de relaciones)
“ANTONIO ES POLITICO”
p
aЄP
a= Antonio
P= Clase de los políticos
Є= Pertenece a…
aSp
a= Antonio
p= Político
S= Relación “es”
“ABEL ES MAS BAJO QUE PEDRO”
q
aЄB
a= Abel
B= Clase de los más bajos que Pedro
Є= Pertenece a…
aBp
a= Abel
p= Pedro
B= Relación “es más bajo que”
v. Simbolización de términos. Simbolizar un término significa dejar de lado su significado
excepto su función lógica (sujeto, predicado, cuantificador, etc.). Los términos se simbolizan con
diferentes letras, según cuál esta función lógica. Por ejemplo en un razonamiento silogístico, en la
notación aristotélica tradicional S designa el sujeto de la conclusión y P el predicado de la misma
(ver Silogismo).
Lecturas complementarias
Strawson P, "Introducción a una teoría de la lógica", Buenos Aires, Nova, 1969. Capítulo 2, punto 2: "La forma".
20. SISTEMA FORMAL
En sentido amplio, conjunto de elementos carentes de significación y dotado de reglas
explícitas que rigen sus relaciones. Ejemplos: la lógica o la matemática. Los sistemas
formales se construyen mediante definiciones, reglas de formación y reglas de
transformación. Entre sus propiedades, se cuenta la consistencia, la completitud, la
independencia, la decidibilidad y la satisfacibilidad.
i.
Un ejemplo para comenzar. El tema de la presente nota tiene un muy alto nivel de
abstracción y exigirá cierta concentración por parte del lector. Para facilitar su comprensión,
comencemos por imaginar el siguiente juego:
Supongamos que tenemos cuatro elementos, que llamaremos arbitrariamente A, B, C y D. No
nos importa si son bolitas, empanadas o números enteros. Para nosotros estarán desprovistos
de cualquier significado: en la terminología de la lógica, son términos no interpretados.
Tampoco los definimos mediante términos anteriores: son los primeros que proponemos,
carecen de definición y por ello los llamamos TÉRMINOS PRIMITIVOS. Por ejemplo, no
definimos A diciendo que equivale a X.
Estos términos primitivos se pueden combinar de muchas maneras distintas. A estas
combinaciones las llamaremos FORMULAS, y pueden darse al azar, o bien podemos nosotros
mismos podemos inventar reglas que determinen qué combinaciones de esos elementos valen
o cuáles no, es decir, qué fórmulas valen y cuáles no. Estas reglas son en principio arbitrarias.
Por ejemplo, inventemos una: "Toda fórmula debe incluir por lo menos dos de los elementos".
Según esta regla, la fórmula ABC vale, mientras que la fórmula AAA no vale ya que tiene un
solo elemento que es A. Los lógicos suelen denominar a las fórmulas que valen 'fbf', es decir,
'fórmulas bien formadas'.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
62
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Como estas reglas permiten, a partir de los elementos primitivos, 'formar' combinaciones de
elementos llamadas fórmulas, las llamaremos REGLAS DE FORMACIÓN.
Con estas reglas de formación podemos armar muchas fórmulas distintas que valgan. Por
ejemplo: ABC, CCD, AAB, AABBCCC, etc. Todas ellas valen porque cumplen con la regla que
toda fórmula debe tener al menos dos elementos. Seleccionemos al azar dos de estas
combinaciones:
a.
ABC
b.
BCCD
Vamos a llamar AXIOMAS a estas primeras combinaciones que hemos elegido. Reitero, ellas
son completamente arbitrarias, e inclusive al lector podrían habérsele ocurrido otras
combinaciones, siempre y cuando respeten lo que las reglas de formación -también arbitrariasprescriben.
Imaginemos ahora que se nos ocurre inventar otro tipo de reglas mediante las cuales podemos
transformar un axioma en otra fórmula bien formada, y que llamaremos por ello REGLA DE
TRANSFORMACIÓN. Un ejemplo de este tipo de regla puede ser: "Si a un axioma le
agregamos antes de cada C una letra D, obtenemos una fórmula bien formada derivada de
dicho axioma". Conviniendo en llamar TEOREMA a estas nuevas fórmulas derivadas de los
axiomas, según esta regla, podemos concluir que:
c.
ABDC es un teorema, porque antes de la C hemos puesto una D, como prescribe nuestra
regla de transformación.
d.
BCCDD no es un teorema, porque antes de las C no hay letras D.
Los teoremas son, por tanto, fórmulas del sistema para las cuales hay una prueba, es decir,
una posibilidad real de demostrarlos como derivados de los axiomas.
Por último, agreguemos una nueva regla de transformación como la siguiente: "Si a un
teorema le agregamos antes de cada A un elemento B, obtenemos otro teorema derivado".
Según esta nueva regla:
e.
BABDC es un teorema, porque antes de la A hemos puesto una B.
f.
ABDC no es un teorema, porque antes de la A no figura ninguna B.
También podríamos haber agregado DEFINICIONES, es decir, equivalencias también
totalmente arbitrarias entre letras. Por ejemplo quiero introducir además de las letras A, B, C y
D otra letra X. Convengo entonces en establecer que X será igual a ABC, lo cual hago por
ejemplo porque a veces en las fórmulas pueden aparecer combinaciones ABC y, para que la
expresión no se me haga tan larga, la simplifico reemplazando esa combinación por X. El
término X no es un término primitivo sino un TERMINO DEFINIDO, definido a partir de los
términos primitivos por una simple equivalencia.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
63
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
ii.
Definición y propiedades. En el ítem anterior, además de haber hecho un juego, de paso
hemos construido un sistema formal, es decir, un conjunto de elementos sin significado (6), y
con reglas explícitas que los relacionan entre sí. Un sistema formal está constituido, entonces,
por las siguientes cosas (ver esquema): términos primitivos y términos definidos, definiciones,
reglas de formación y de transformación, axiomas y teoremas. Las reglas de transformación
son, en el campo de la lógica, las llamadas leyes lógicas (ver Principio lógico).
En este contexto, queda definido por ejemplo un 'teorema' como una fórmula que se deriva de
un axioma mediante la aplicación de una regla de transformación. Asimismo, también puede
definirse 'demostración' como el proceso por el cual se muestra que un teorema se deriva de
un axioma por aplicación de ciertas reglas de transformación.
La teoría de los sistemas formales, que se ocupa de estudiar sistemas como los que hemos
descrito, ha enumerado una serie de propiedades de los mismos, entre las que podemos
mencionar la consistencia, la completitud, la independencia, la decidibilidad y la satisfacibilidad
(palabra esta última que se presta especialmente para jugar al ahorcado). Definamos
brevemente estas propiedades:
Un sistema es consistente si el conjunto de sus axiomas no conduce, aplicando las reglas de
transformación, a teoremas contradictorios entre sí (1). De todas las propiedades, esta es
realmente la única necesaria, porque si un sistema fuera inconsistente, de sus axiomas podría
derivarse cualquier fórmula en forma indiscriminada, lo cual carecería de interés teórico.
Un sistema es completo cuando todas las fórmulas dentro del sistema son derivables de los
axiomas.
Un sistema tiene independencia cuando ningún axioma es derivable de otro del mismo sistema
aplicando sus reglas de transformación. Si un axioma se derivara de otro dejaría de ser tal y
pasa a ser un teorema.
Un sistema es decidible cuando existe un procedimiento (aplicación de reglas de
transformación) que permita decidir unívocamente si una fórmula pertenece al sistema o no.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
64
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Un sistema es satisfacible cuando tiene al menos una interpretación adecuada, es decir,
cuando tiene al menos un modelo (2). Dijimos que los sistemas formales carecen de
significación, pero esto no quiere decir que no podamos asignarle algún significado a los
términos y las fórmulas del mismo, en cuyo caso decimos que lo hemos interpretado.
Justamente, una forma de hacerlo es interpretarlo como un sistema geométrico (y entonces
por ejemplo por términos primitivos tendrán el significado de puntos, rectas y planos), o como
un sistema lógico (y entonces las fórmulas tendrán el significado de proposiciones verdaderas
o falsas). Esto último nos conduce a la relación entre el sistema formal y el sistema lógico (es
decir, la lógica propiamente dicha).
iii. Sistemas formales y lógica. Nos preguntamos ahora: ¿qué relación tienen estos sistemas
formales con la lógica? La pregunta viene al caso porque mientras hablábamos de los
sistemas formales no hicimos ninguna referencia explícita a leyes lógicas, a razonamientos
válidos o inválidos, a tablas de verdad, a silogismos ni a ninguna otra idea que normalmente
asociamos con la lógica.
Si interpretamos un determinado sistema formal, es decir, si asignamos determinados
significados a sus términos y fórmulas, entonces obtenemos un sistema lógico donde las
premisas son los axiomas, las conclusiones los teoremas, y las reglas que llevan de unos a
otros son reglas de inferencia válida, es decir, reglas que garantizan que, considerados
verdaderos los axiomas, la verdad se transportará también a los teoremas (ver Validez). Las
reglas de inferencia, en general, establecen que de una fórmula o fórmulas del sistema pueden
ser deducidas otras fórmulas.
En efecto, "desde un punto de vista lógico, los sistemas deductivos pueden considerarse como
un complejo razonamiento cuyas premisas son los axiomas y su conclusión la conjunción de
todos sus teoremas. Y, como en cualquier razonamiento, la cuestión lógica no concierne a la
verdad o a la falsedad de las premisas, sino a la validez de la inferencia. La cuestión es si,
garantizada la verdad de los axiomas, se sigue necesariamente la verdad de los teoremas. Y
esto será así si la demostración de los teoremas está construida sobre la base de los
razonamientos válidos" (3).
Es así que, cuando a un lógico le presentan un razonamiento de esos que hacemos
diariamente, para que averigüe si es válido o no, este lógico lo someterá a alguna prueba de
validez. Sea cual fuere esta prueba, siempre apuntará a lo mismo: determinar si cuando
pasamos de las premisas a la conclusión hemos respetado las reglas de inferencia válida (o,
en el lenguaje de los sistemas formales, si cuando hemos pasado de un axioma a un teorema
hemos respetado las reglas de transformación establecidas).
Por consiguiente, el lógico debe tener a mano alguna lista de reglas válidas de inferencia, o
por lo menos contar con algún procedimiento mecánico para determinar si ellas fueron
respetadas o no (4). Esta temática es la que suele llenar las páginas de los manuales
introductorios de lógica de la escuela secundaria, pero, sin embargo, esta no es la tarea más
importante del lógico, más relacionada con la construcción de sistemas formales como los que
hemos descrito que con la preocupación por demostrar la validez de los razonamientos (cosa
que hasta puede también hacer una computadora adecuadamente programada).
Como bien señala Strawson, "quien se ocupa de lógica no se contenta con fijar por escrito, y al
azar, un conjunto de reglas que satisfagan el mero requisito de la coherencia [...]. Lo que él se
propone es presentar no una nómina inconexa, sino un sistema conexo de principios. Este
ideal del sistema ha estado presente en la lógica formal desde el comienzo. Los primeros
lógicos se habían percatado de que, con el auxilio de unos pocos principios lógicos y tomada
como básica una pequeña cantidad de pautas de inferencias válidas, podían 'demostrar' la
validez de una mayor cantidad de esquemas; esto es, podían aplicar la lógica dentro de la
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
65
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
lógica, utilizarla para sistematizar la disciplina misma. Y es este ideal de sistematización el que
más hondamente ha influido en el moderno desarrollo de la lógica; y tan hondamente, que
aquella primitiva actitud de compilar los principios más generales a que apelamos al estimar el
aspecto lógico del discurso, se ha perdido de vista por completo" (5).
iv. Otras ventajas de los sistemas formales. La principal ventaja de los sistemas formales es
que sirven para ser interpretados, es decir, para establecer interpretaciones de los mismos. De
algún sistema formal podrá interpretarse por ejemplo el sistema de la lógica, de otro el sistema
de la matemática, de otro el sistema de la mecánica en física, de otro el sistema conductista o
el psicoanálisis en la psicología, etc. En efecto, un caso particular de sistema formal es un
sistema hipotético-deductivo, vale decir una teoría científica, y un caso particular de teoría
científica es por ejemplo el psicoanálisis.
Existe una tendencia en muchos científicos a formular sus teorías en términos de un sistema
formal, lo cual presenta algunas ventajas como las siguientes:
a.
otorgan al discurso científico mayor claridad y precisión al prescindir de significaciones
emotivas o modismos engañosos;
b.
ordenan el pensamiento según un orden explícito, imprescindible en la sistematización del
conocimiento, lo que además redunda en una economía de pensamiento;
c.
no va contra la intuición, sino que al contrario ayuda a ésta evitando que incurra en
antinomias (contradicciones, callejones sin salida) o ayudándola a resolverlas. Después
de todo, preguntarse qué es más importante, si la lógica o la intuición para el avance del
conocimiento, es lo mismo que preguntarse cuál de las dos piernas es más importante
para caminar.
Notas
(1) Esta es la definición habitual de consistencia, es decir, entendida como ausencia de contradicción. En realidad, para un sistema
formal esta definición es en principio criticable, ya que el hecho de hablar de contradicción presupone que las fórmulas del sistema
pueden ser verdaderas o falsas, lo cual a su vez presupone que tales fórmulas tienen algún significado, cosa que hemos descartado
para los sistemas formales (salvo que arbitrariamente llamemos 'verdadera' a toda fórmula derivable y 'falsa' a toda fórmula no
derivable del conjunto de axiomas). La consistencia debe entonces definirse mas bien como la propiedad de todo sistema formal por la
cual es imposible encontrar en él fórmulas no derivables de los axiomas, lo cual está más relacionado con la propiedad de la
completitud.
Incidentalmente, estos sistemas formales tan abstractos donde ni siquiera se contempla la posibilidad de la contradicción podrían
servir punto de referencia para formalizar la lógica del inconciente, donde la contradicción tampoco existe. Después de todo, el
inconciente es un producto del proceso secundario (de la inteligencia de Freud) para dar cuenta de un proceso primario (el de sus
pacientes).
(2) Se llama modelo de un sistema formal a todo conjunto de objetos que permiten obtener interpretaciones adecuadas del mismo. Por
ejemplo, el modelo geométrico, que proporciona como objetos puntos, rectas y planos. Una vez interpretado, el sistema formal deja de
ser un modelo puramente sintáctico, y se constituye en un modelo semántico. Un sistema formal puede tener varios modelos distintos
que lo satisfagan, y por esa razón será más fecundo o fructífero. Los diversos modelos que son interpretaciones distintas del mismo
sistema formal se dice que son isomorfos entre sí, y de este modo, aspectos de la realidad dispares entre sí podrían ser estudiados
por un mismo sistema formal.
(3) Salama Alicia, "Lógica simbólica y elementos de metodología de la ciencia", Buenos Aires, El Ateneo, 1979, 3° edición, página
204.
(4) El listado de reglas de inferencia sirve cuando utilizamos la prueba de validez llamada 'método demostrativo', y el procedimiento
mecánico se aplica cuando utilizamos por ejemplo la 'prueba del condicional asociado' (ver Validez, Prueba de).
(5) Strawson P, "Introducción a una teoría de la lógica", Buenos Aires, Nova, 1969, página 67.
(6) Es importante que los elementos del sistema carezcan de significación, para que podamos derivar con la mayor libertad posible
una fórmula de otras, sin estar influenciados por esos significados. Por ejemplo, si en lugar de decir 'A se deriva de B', otorgo
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
66
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
significados a A y B y digo 'que un perro es un perro se deriva de un perro no es un perro', estaré más expuesto a dudar de la regla de
transformación que he elegido, y los mismos significados limitarán la cantidad o variedad de estas reglas que puedo inventar
arbitrariamente.
Lecturas complementarias
Strawson P, "Introducción a una teoría de la lógica", Buenos Aires, Nova, 1969. Capítulo 2, punto 3: "El sistema".
Colacilli de Muro M y J, "Elementos de lógica moderna y filosofía", Buenos Aires, Estrada, 1979. Capítulo 12, punto B: "Metodología de
las ciencias formales".
Salama Alicia, "Lógica simbólica y elementos de metodología de la ciencia", Buenos Aires, El Ateneo, 1979, 3° edición. Capítulo 7,
punto 71: "El método de las ciencias formales".
21. TÉRMINO
Expresión que remite a un concepto, idea o significado, y de la cual carece de sentido decir
que es verdadera, falsa, probable, válida o inválida. Después del razonamiento y el
enunciado, constituye la más simple de las tres estructuras lógicas básicas.
i.
Generalidades. Los términos son unidades de significación: "hombre" significa algo, es decir,
remite a un concepto o idea.
En general, se considera que el concepto es el significado y el término es el significante que le
corresponde. Por ejemplo, la idea de elefante (concepto) se expresa mediante la palabra
"elefante" (término). Pero como a la lógica le interesa más la forma que los contenidos,
finalmente se terminará reemplazando el término "elefante" por alguna letra como S o P, si
seguimos la tradición aristotélica (ver Simbolización), letras que también cabe calificarlas como
términos.
Los términos no son ni válidos o inválidos ni verdaderos o falsos: simplemente son. Si yo digo
"perro" esto no es ni verdadero ni falso, pero si digo "este animal es un perro" ahora sí tiene
sentido decir que es verdadero o falso, pero esta expresión ya no es un término sino un
enunciado.
Todas estas características de los términos y sus diferencias con el enunciado y el
razonamiento aparecen sintetizadas en el esquema que acompaña al artículo Estructura
lógica.
ii.
Clasificación. En lógica, existen diversas clasificaciones de los términos, pero citemos
solamente tal vez la más importante, según la cual los términos pueden ser objetivos y
funcionales, y dentro de éstos últimos, a su vez, pueden ser intra-proposicionales e interproposicionales.
a.
Términos objetivos son los que designan objetos o cualidades de objetos, como
"hombre", "mortal", etc. Constituyen, por tanto, el contenido o tema del enunciado o
razonamiento del que forman parte.
b.
Los términos funcionales, en cambio, y como su nombre lo indica, no se refieren a
cosas o cualidades sino que se limitan a cumplir una función dentro del enunciado o el
razonamiento. Por ejemplo: "es", "son", "todos", "por lo tanto", etc.
Los términos funcionales pueden ser intra-proposicionales e inter-proposicionales.
*
Términos Intra-proposicionales. Como su nombre lo indica, los intraproposicionales están incluidos dentro de una proposición. Por ejemplo dentro de la
proposición "Todos los hombres son mortales" encontramos a "todos" y a "son" como
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
67
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
términos intra-proposicionales. La función que cumple el primero es cuantificacional,
porque asigna al sujeto una determinada extensión, mientras que la función del
segundo es relacional, porque relaciona sujeto con predicado.
*
Términos Inter-proposicionales son los que, como su nombre lo indica, relacionan
proposiciones entre sí. Por ejemplo, en un razonamiento las premisas se relacionan
mediante el término "y", mientras que las premisas con la conclusión se relacionan
mediante el término "por lo tanto".
Otro ejemplo puede ser el término "o", que relaciona las proposiciones "Canto" y
"Bailo" y permiten construir la proposición molecular "Canto o bailo".
Clasificación de términos
OBJETIVOS “hombre”, “mortal”, etc.
FUNCIONALES
Intra-proposicionales “todo”, “es”, etc.
Inter-proposicionales “o”, “y”, “si…entonces…”, etc.
Lecturas complementarias
Fatone Vicente, "Lógica e Introducción a la filosofía", Buenos Aires, Kapelusz, 1969, 9° edición. Capítulo 3: "El concepto".
Colacilli de Muro M y J, "Elementos de lógica moderna y filosofía", Buenos Aires, Estrada, 1979. Capítulo 4: "Los términos".
22. VALIDEZ
Un razonamiento es válido cuando su forma es válida. Y la forma de un razonamiento es
válida cuando no hay ningún razonamiento de esa forma que tenga premisas verdaderas y
conclusión falsa (1). Asimismo, un razonamiento es inválido cuando su forma es inválida. Y
una forma de razonamiento es inválida cuando hay por lo menos un razonamiento de esa
forma que tiene premisas verdaderas y conclusión falsa. Sinónimo de validez: verdad lógica,
corrección. Sinónimo de invalidez: falsedad lógica, incorrección.
i.
Caracterización. Frente a un determinado razonamiento, la lógica intentará determinar su
validez o corrección mediante alguna prueba, y para ello previamente debe ejecutar tres
operaciones básicas: debe hacer un análisis lógico, una simbolización del razonamiento y una
formalización (ver Análisis lógico, Formalización, Simbolización). Estas operaciones son
tan esenciales que incluso suelen identificar a la lógica misma, como cuando se habla de
lógica analítica o de lógica simbólica.
Ahora bien, ¿qué es la validez? No es fácil responder esta pregunta. La definición clásica a
que hicimos referencia en el encabezamiento muestra, en primer lugar, que la validez es una
cuestión de forma (3), ya que sostiene que una 'forma de razonamiento' es la que puede ser
válida. Y en segundo lugar, muestra que la validez es una cuestión que depende del valor de
verdad de las premisas y la conclusión, sosteniendo que un razonamiento será inválido con
total seguridad si las premisas son verdaderas y la conclusión falsa.
En síntesis, uniendo ambas ideas: la validez depende de la forma del razonamiento, y esta
forma está determinada por la relación que hay entre las premisas y la conclusión,
exclusivamente en cuanto a sus valores de verdad: si una forma de razonamiento tiene algún
ejemplo con premisas verdaderas y conclusión falsa, es inválida, y si una forma de
razonamiento no tiene ningún ejemplo con premisas verdaderas y conclusión falsa, entonces
es válida (5).
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
68
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
La cuestión no es sin embargo tan simple como parece. Copi señala, por ejemplo, que el
hecho de que la premisa sea verdadera no determina que el razonamiento sea válido, ni el
hecho de que la premisa sea falsa determina que el razonamiento sea inválido, como así
tampoco el que un razonamiento sea válido no determina que la conclusión sea verdadera.
El esquema que acompaña este artículo pretende introducir un poco de claridad en estas
cuestiones. Si la validez o la invalidez depende de la verdad o la falsedad de premisas y
conclusión, empecemos por ubicar las únicas cuatro posibilidades entre ellas, numeradas en el
esquema de 1 a 4: VV, VF, FV y FF. Como se puede observar, para cada uno de estos casos
hay ejemplos de razonamientos válidos tanto como de razonamientos inválidos, excepto para
caso 2, donde es imposible dar un ejemplo de razonamiento válido con premisas verdaderas y
conclusión falsa, lo que apunta precisamente a la definición de validez que hemos señalado.
El ejemplo 7 muestra que un razonamiento puede ser válido aunque las premisas y la
conclusión sean falsas. Este razonamiento es válido porque 'si' las premisas fuesen
verdaderas, también debería serlo forzosamente la conclusión. El ejemplo 5 nos muestra, por
su parte, que un razonamiento puede ser válido aunque obtenga verdades a partir de
falsedades. Otro ejemplo del mismo tipo puede ser este: "10=6; 3+7=6; por lo tanto, 10=3+7".
Finalmente el ejemplo 2 nos muestra que a pesar de que un razonamiento tenga premisas y
conclusiones verdaderas, puede ser inválido.
Por último, dejemos aclarado que se considera verdadero al conjunto de premisas cuando
todas ellas son verdaderas, y que se considera falso al conjunto de las premisas cuando al
menos una de ellas es falsa.
Esta breve introducción al problema de la validez en lógica puede completarse con algunas
consideraciones sobre necesariedad, probabilidad, incompatibilidad, verdad empírica, verdad
por convención, verdad lógica y consistencia, que esperamos ayuden al lector a terminar de
redondear la idea de validez.
Posibilidades de razonamientos válidos e inválidos
ii.
N°
PREMISAS
CONCLUSIÓN
1
V
V
2
V
F
3
F
V
4
F
F
RAZONAMIENTO VALIDO
Ejemplo 1
Todos los planetas giran en torno al sol
Nada que gire en torno al sol es un quasar
Ningún quasar es un planeta
Ejemplo 3
NO HAY NINGÚN EJEMPLO DE
RAZONAMIENTO VALIDO CON
PREMISAS VERDADERAS Y
CONCLUSION FALSA
Ejemplo 5
Todo triángulo tiene cuatro lados
Nada de cuatro lados es un cuadrado
Ningún cuadrado es un triángulo
Ejemplo 7
Todo múltiplo de dos es un número par
Ningún número par es múltiplo de cuatro
Ningún múltiplo de cuatro es múltiplo de
dos
RAZONAMIENTO INVALIDO
Ejemplo 2
Todos los perros son vertebrados
Algunos vertebrados ladran
Todos los perros ladran
Ejemplo 4
Todos los perros son vertebrados
Algunos vertebrados maúllan
Todos los perros maúllan
Ejemplo 6
Todos los perros son reptiles
Algunos reptiles ladran
Todos los perros ladran
Ejemplo 8
Todos los osos son mamíferos
Algunos mamíferos son invertebrados
Todos los osos son invertebrados
Necesariedad, probabilidad, incompatibilidad. Son tres maneras en que, en principio,
pueden estar relacionadas las premisas con la conclusión. Veamos estos tres ejemplos en
razonamientos simplificados:
"Todas las aves vuelan;
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
69
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
por lo tanto, el gorrión vuela". (I)
"El gorrión vuela;
por lo tanto, todas las aves vuelan". (II).
"Algunas aves no vuelan;
por lo tanto, todas las aves vuelan". (III).
El ejemplo (I) muestra una relación de necesariedad. Aquí la conclusión se sigue
necesariamente de la premisa, porque si es verdad que todas las aves vuelan, es
forzosamente verdadero que el gorrión deba volar. Esta relación de necesariedad vale incluso
para el siguiente razonamiento:
"Todos los mamíferos vuelan;
por lo tanto, el perro vuela".
Premisa y conclusión son falsas, y sin embargo la relación de necesariedad se mantiene. Aquí
el lógico sigue considerando que la premisa es verdadera por convención, y entonces en la
relación de necesariedad la conclusión que se obtendrá también deberá tener ese mismo valor
de verdad convencional. Si el lógico considerara que la premisa es falsa, de ella podría
inferirse necesariamente cualquier cosa, o sea, tanto una conclusión falsa ("el perro vuela")
como una verdadera ("algunos mamíferos vuelan, como el murciélago").
El ejemplo (II) muestra una relación de probabilidad. Si es verdadero que el gorrión vuela, no
podemos asegurar con seguridad, o sea, de ello no se desprende necesariamente que todas
las aves vuelen, sino con un cierto grado de probabilidad.
El ejemplo (III) muestra una relación de incompatibilidad. La conclusión no surge ni necesaria
ni probabilísticamente de la premisa, porque ambas son incompatibles o contradictorias: una
es verdadera y la otra falsa. Este tercer caso es el opuesto del primero, porque en el primer
caso de una verdad surge necesariamente otra verdad, mientras que en este tercer caso de
una verdad surge necesariamente una falsedad. Lo que interesa concluir es, entonces: la
necesariedad caracteriza a la validez, y la incompatibilidad caracteriza a la invalidez.
En lo concerniente a la relación de probabilidad, no tiene sentido decir que es válida o inválida,
aunque aquí las opiniones pueden estar divididas: hay quienes sostienen que tiene sentido
decir que los razonamientos probabilísticos son inválidos porque la conclusión no es
necesaria, y otros, como Copi (4), que opinan lo contrario.
iii. Verdad empírica, verdad por convención, verdad lógica.
a.
Verdad empírica: Un enunciado es empíricamente verdadero si expresa algo constatable
en la realidad. Si hay aquí una mesa, el enunciado "hay una mesa aquí" es una verdad
empírica;
b.
Verdad por convención: Un enunciado es convencionalmente verdadero cuando se lo
considera así por algún motivo, más allá de si tiene corroboración empírica o no. Las
verdades por convención son de interés tanto para las ciencias fácticas como para la
lógica, aunque por motivos distintos: el investigador de las ciencias fácticas formula
hipótesis que considera en un principio convencionalmente verdaderas, para luego, a
partir de ellas, deducir otros enunciados cuya confrontación con la realidad determinará si
son o no verdades empíricas, o en qué medida lo son. En cambio, al lógico le interesan
los enunciados convencionalmente verdaderos para relacionarlos con los valores de
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
70
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
verdad (V o F) de otros enunciados del mismo razonamiento y determinar, a partir de allí,
la validez o la invalidez de estos últimos;
c.
Verdad lógica: Un enunciado es lógicamente verdadero cuando existe entre sus
enunciados componentes una relación de necesariedad. Por ejemplo, "si todo círculo es
un cuadrado, entonces algún círculo es un cuadrado" es un enunciado lógicamente
verdadero porque el segundo enunciado componente surge necesariamente del primero,
considerado verdadero por simple convención.
Estas diferencias nos conducen a lo siguiente:
lo que habitualmente se llama verdad, corresponde con la verdad empírica, lo que
habitualmente se llama validez corresponde con la verdad lógica, mientras que la verdad por
convención es un concepto que utiliza la ciencia fáctica para determinar verdades empíricas
(mediante el método científico), y la lógica para determinar verdades lógicas (mediante
pruebas de validez).
Resulta particularmente importante diferenciar la verdad empírica de la verdad lógica, es decir,
la verdad de la validez, porque son las ideas que más fácilmente pueden confundirse. Ambos
términos empiezan con V, y esta letra tiene dos 'palitos'. Por lo tanto, tanto la verdad como la
validez se definen con una relación entre dos cosas: la verdad apunta a la relación de un
enunciado con la realidad, mientras que la validez apunta a la relación entre un enunciado y
otro enunciado, y más concretamente, entre el enunciado llamado premisa y el enunciado
llamado conclusión.
iv. Validez y consistencia.- La lógica concibe al razonamiento como una máquina que produce
verdades a partir de verdades. Si le entregamos verdades (o sea si las premisas son
verdaderas), entonces el razonamiento producirá una verdad (la conclusión será sin dudarlo
también verdadera). En cambio, si de entrada le entregamos falsedades (o sea si las premisas
en conjunto son falsas), la máquina de razonar se 'descompone', es decir, podrá producir tanto
conclusiones verdaderas como falsas, aún cuando el razonamiento pueda seguir siendo
válido.
Copi (2) trata esta cuestión a propósito de su exposición sobre el problema de la inconsistencia,
y comienza diciendo que un razonamiento es inconsistente cuando sus premisas son
contradictorias entre sí. Si son contradictorias, al menos una de sus premisas será falsa.
Teniendo en cuenta que en este tipo de razonamiento las premisas son falsas y teniendo en
cuenta además que un razonamiento es inválido sólo cuando las premisas son verdaderas y la
conclusión es falsa, resulta que estos razonamientos inconsistentes son en principio siempre
válidos y de ellos puede sacarse cualquier conclusión, aunque sea ajena al tema de las
premisas. Por ejemplo: "Hoy es domingo y hoy no es domingo; por lo tanto, la luna está hecha
de queso verde". En suma, con premisas inconsistentes puede derivarse válidamente
cualquier conclusión, es decir, un razonamiento con premisas inconsistentes no puede
garantizar la verdad de ninguna conclusión (la conclusión puede ser tanto verdadera como
falsa), ya que las premisas son falsas. O para usar la metáfora que veníamos usando: la
máquina de razonar se 'descompuso'.
Notas
(1) Salama Alicia, "Lógica simbólica y elementos de metodología de la ciencia", Buenos Aires, El Ateneo, 1979, 3° edición, página 17;
Colacilli de Muro M y J, "Elementos de lógica moderna y filosofía", Buenos Aires, Estrada, 1979, página 96; Copi Irving, "Introducción a
la lógica", Buenos Aires, Eudeba, 1974, 15° edición, página 306.
(2) Copi Irving, "Introducción a la lógica", Buenos Aires, Eudeba, 1974, 15° edición, página 349.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
71
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
(3) La validez depende de cuestiones formales, mientras que la invalidez puede depender de cuestiones formales, como en las
falacias formales, o de otras cosas, como en las falacias no formales (ver Falacia).
(4) Copi Irving, "Introducción a la lógica", Buenos Aires, Eudeba, 1974, 15° edición, página 399. El autor dice, por ejemplo: "Los
razonamientos analógicos no pueden clasificarse como 'válidos' o 'inválidos'. Todo lo que se pretende de ellos es que tengan una
cierta probabilidad".
(5) Estos ejemplos son desde ya casi infinitos, pero sin embargo no es preciso analizar cada uno de ellos (tampoco se podría) para ver
si hay algún ejemplo con premisas verdaderas y conclusión falsa o no. Afortunadamente contamos con procedimientos mecánicos
como el método del condicional asociado (ver Lógica Proposicional, punto 2), donde puede advertirse que todos los casos posibles no
son todos los casos posibles de razonamientos, sino todos los casos posibles de formas de razonamiento, que en el ejemplo que
dimos de la prueba se limitan a cuatro casos (cuatro hileras).
Lecturas complementarias
Fatone Vicente, "Lógica e Introducción a la filosofía", Buenos Aires, Kapelusz, 1969, 9° edición. Capítulo 11: "La verdad".
Colacilli de Muro M y J, "Elementos de lógica moderna y filosofía", Buenos Aires, Estrada, 1979. Capítulo 6, punto 5: "Validez e
invalidez de los razonamientos deductivos". Capítulo 14: "Nociones sobre teoría de la verdad".
Salama Alicia, "Lógica simbólica y elementos de metodología de la ciencia", Buenos Aires, El Ateneo, 1979, 3° edición. Capítulo 2,
punto 12: "Los razonamientos válidos".
Quine W, "Filosofía de la lógica", Madrid, Alianza Editorial, 1973. Capítulos 3, 4 y 7: "Verdad", "La verdad lógica" y "El fundamento de
la verdad lógica". La definición de Quine sobre validez (que él denomina verdad lógica), aparece sintetizada en la página 106, al final
del capítulo 4.
23. VALIDEZ, PRUEBA DE
Técnica cuya finalidad es establecer si un razonamiento dado es válido (o inválido) en virtud
de su forma. Existe una gran cantidad de pruebas de validez, adaptables a distintos tipos de
razonamiento y a diferentes necesidades.
i.
ii.
Generalidades. Por lo menos en dos casos puede quedar justificado el empleo de las pruebas
de validez:
a.
Cuando sospechamos que la validez o la invalidez depende de la forma del razonamiento,
y no de su contenido u otras consideraciones psicológicas. En este último caso
sospechamos que puede existir una falacia no formal, y entonces recurrimos a otros
medios para constatarla (ver Falacia). Los razonamientos que son válidos o inválidos por
su forma son los razonamientos deductivos, por lo cual no emplearemos tampoco pruebas
de validez en el caso de razonamientos inductivos o analógicos, cuya evaluación se hace
mediante constataciones extra-lógicas (ver Razonamiento no deductivo).
b.
Cuando el razonamiento es lo suficientemente complejo como para no poder constatar a
simple vista su validez o invalidez, o bien cuando, siendo un razonamiento simple,
sospechamos que nuestra intuición puede no ser una segura guía para evaluarlo. Frente
al razonamiento "Todos los animales son mamíferos. Por lo tanto, todos los perros son
mamíferos, puesto que los perros son animales", podemos pensar que es bastante
sencillo de comprobar 'a simple vista' su validez, pero no siempre tendremos
razonamiento tan sencillos para analizar.
Ejemplos. Prácticamente la primera prueba de validez que se conoce pertenece a Aristóteles,
cuando estableció que se podía determinar la validez de los silogismos examinando si
respetaban o no ciertas reglas definidas por él. Esas pruebas tienen hoy un interés histórico, y
fueron reemplazadas por otras más útiles y que además podían aplicarse a otros
razonamientos no silogísticos.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
72
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Enumeremos y expliquemos brevemente algunas de las pruebas de validez más difundidas.
Como se apreciará en base al esquema adjunto, algunas pruebas tienen aplicabilidad en
lógica proposicional, en lógica de términos o en ambas.
a.
Analogía lógica. Es tal vez la prueba más sencilla, y consiste en probar que un
razonamiento es válido (o inválido) mostrando que tiene la misma forma de otro
razonamiento o de otra forma de razonamiento de la cual ya sabemos que es válida (o
inválida). Un ejemplo puede encontrarse en el artículo sobre Falacias (ver Punto 2, el
razonamiento sobre los conejos).
Al comparar un razonamiento con otro que tomamos como modelo, subsiste el problema
acerca de cómo sabemos a su vez que este razonamiento modelo es válido, dificultad que
puede obligarnos a recurrir a otro tipo de prueba de validez.
b.
Condicional asociado. También llamado método de las tablas de verdad, el lector podrá
encontrar una breve descripción de este método en el artículo dedicado a Lógica
Proposicional. Solamente acotemos aquí que, si bien este método tiene la ventaja de ser
muy mecánico en su aplicación, no requiriendo demasiado esfuerzo, empieza a
complicarse mucho cuando aumenta la cantidad de premisas o la complejidad de las
mismas, por lo que los lógicos buscaron un método que fuera más sencillo aunque
requierese cierto ingenio para poder aplicarlo, como lo fue el método demostrativo.
c.
Método demostrativo. También llamado método derivativo (Colacilli) o prueba formal de
validez (Copi), este método consiste en descomponer un razonamiento extenso en
razonamientos válidos muy simples (que son leyes lógicas), como el modus ponens o el
modus tollens, y verificar si ellos están debidamente encadenados. Es algo similar a
verificar la fortaleza de una cadena examinando eslabón por eslabón. Dijimos que este
método exige alguna dosis de ingenio y creatividad para poder aplicarlo, lo que significa
que no siempre podemos llegar a determinar la validez de ciertos razonamientos. Un
método similar al demostrativo es el método de las formas normales booleanas.
d.
Prueba de invalidez. Sin embargo, el hecho de que no podamos probar que ciertos
razonamientos son válidos por alguno de los métodos anteriores, no significa que sean
inválidos, razón por la cual los lógicos decidieron tomar el toro por las astas y construir
directamente pruebas de invalidez. Desde ya, si estas no pueden demostrar la invalidez,
tampoco queda así demostrada su validez, debiéndose recurrir entonces a algún otro
método o inventar uno nuevo.
e.
Diagramas de Venn. Son pruebas gráficas que sirven especialmente para determinar la
validez de los silogismos, aunque pueden utilizarse para ciertos otros razonamientos no
silogísticos. La dificultad de estos métodos reside en que se tornan prácticamente
imposibles de aplicar cuando los silogismos se complejizan, como por ejemplo, cuando
empiezan a tener más de tres términos (ver Silogismo).
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
73
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Algunas pruebas de validez mencionadas por la bibliografía consultada
PRUEBA DE VALIDEZ
Analogía lógica
Condicional asociado o
método de las tablas de
verdad
Condicional asociado
(método abreviado)
Condicional asociado
para silogismos
PARA LA LOGICA PROPOSICIONAL
Salama pág. 20
Colacilli pág. 132
Salama pág. 50
Nudler pág. 37
Colacilli pág. 123 y 131
Método demostrativo
Formas normales
booleanas
PARA LA LOGICA DE TERMINOS
Colacilli pág. 197
Colacilli pág. 132
Colacilli pág. 207
Salama pág. 53
Nudler pág. 42
Copi pág. 325
Colacilli pág. 133
Salama pág. 83 y 99
Nudler pág. 70, 112 y 131
Salama pág. 59
Diagramas de Venn para
silogismos
Colacilli pág. 208
Salama pág. 147
Copi pág. 213
Nudler pág. 103
Diagramas de Venn para
no silogismos
Salama pág. 160
Pruebas de invalidez
Copi pág. 346
Colacilli pág. 135
Copi pág. 380
Lecturas complementarias
Salama Alicia, "Lógica simbólica y elementos de metodología de la ciencia", Buenos Aires, El Ateneo, 1979, 3° edición.
Copi Irving, "Introducción a la lógica", Buenos Aires, Eudeba, 1974, 15° edición.
Nudler T y O, "Elementos de lógica simbólica", Buenos Aires, Kapelusz, 1973.
Colacilli de Muro M y J, "Elementos de lógica moderna y filosofía", Buenos Aires, Estrada, 1979.
NOTA FINAL DEL CAPÍTULO.
Los 23 artículos correspondientes a este capítulo, en criterio del autor, deberían
ser considerados PROPOSICIONES susceptibles de ser evaluados lógicamente,
vale decir en términos de Verdad o Falsedad, el lector deberá, en consecuencia
reservarse siempre el principio de la duda y el derecho de verificación
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
74
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
IV. GLOSARIO DE TEORÍA GENERAL DE SISTEMAS
TÉRMINOS
01.
Adaptación
02.
Ambientalismo
03.
Análisis factorial
04.
Analogía
05.
Antropología
06.
Auto
07.
Bertalanffy Ludwig von
08.
Biología
09.
Caos
10.
Categoría
11.
Causalidad
12.
Centralización
13.
Cibernética
14.
Ciencia
15.
Ciencia de los sistemas
16.
Competencia
17.
Comportamiento
18.
Crecimiento
19.
Diferenciación
20.
Ecología
21.
Economía, principio
22.
Enfoque de sistemas
23.
Entropía
24.
Epistemología de sistemas
25.
Equifinalidad
26.
Equilibrio, principio
27.
Estabilidad
28.
Estado
29.
Estado de equilibrio
30.
Estado uniforme
31.
Estímulo-respuesta
32.
Estructura
33.
Existencialismo
34.
Explicación
35.
Filosofía de los sistemas
36.
Finalidad
37.
Generalista científico
38.
Historia
39.
Homeostasis
40.
Homología
41.
Individuo/individualización
42.
Información, teoría
43.
Integración
44.
Intencionalidad
45.
Interdisciplinario
46.
Isomorfismo
47.
Libre albedrío
48.
Máquina
49.
Matemática
50.
Mecanicismo
51.
Mecanización
52.
Metabolismo
53.
Modelo
54.
Observación
55.
Ontología de sistemas
56.
Orden jerárquico
57.
Organísmica, concepción
58.
Organismo
59.
Organización
60.
Paradigma
61.
Personalidad
62.
Perspectivismo
63.
Psicología
64.
Reduccionismo
65.
Regulación
66.
Retroalimentación
67.
Segregación
68.
Simbolismo
69.
Sistema
70.
Sistema abierto
71.
Sistema cerrado
72.
Sistema químico
73.
Sociología
74.
Sumatividad
75.
Tecnología
76.
Teoría
77.
Teoría general de los sistemas
78.
Termodinámica irreversible
79.
Totalidad
80.
Valor
81.
Vitalismo.
Presentación del Glosario
El pensamiento de Ludwig von Bertalanffy, plasmado en su clásica obra "Teoría General de los
Sistemas", constituye un insoslayable eje de referencia de los actuales puntos de vista sistémicos
en las distintas disciplinas científicas.
El presente capítulo está destinado a satisfacer requerimientos de consulta sobre sus principales
ideas, y está destinada a profesionales, docentes, investigadores y estudiantes de las diferentes
ciencias, así como a toda persona interesada en la comprensión de los más actuales enfoques
interdisciplinarios en el campo del conocimiento científico.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
75
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Este capítulo, puede ser tratado de dos maneras distintas:
a. Como simple diccionario (lectura alfabética): para conocer el significado y los alcances de un
término predeterminado, en cuyo caso se buscará alfabéticamente el artículo respectivo.
b. Como manual clásico (lectura sistemática): mientras el ordenamiento alfabético está centrado
en el significante, el orden sistemático está centrado en el significado, puesto que muestra cómo
están relacionadas conceptualmente las ideas. Por ejemplo, "Organismo" y "Adaptación" están
alfabéticamente muy distantes, pero conceptualmente muy próximas. En este último sentido, el
presente material puede ser leído como un manual que expone sistemáticamente la Teoría General
de los Sistemas. Ver Lectura sistemática.
En lo posible, se ha procurado utilizar un lenguaje accesible, prescindiendo de ciertos tecnicismos
(especialmente lógico-matemáticos y físico-químicos), innecesarios en función del alcance de la
presente obra.
Se ha utilizado la sigla TGS para abreviar "Teoría General de los Sistemas".
En los artículos de este capítulo, al igual que en los correspondientes a todo el presente trabajo, los
números que figuran entre paréntesis remiten a la página del texto que se ha utilizado como
referencia bibliográfica: Bertalanffy, Ludwig von, Teoría general de los sistemas, Buenos Aires,
Fondo de Cultura Económica, 1992, 3° reimpresión de la 1° edición en español, 1976.
En algunos títulos o subtítulos figuran asteriscos [*]. El texto que allí se incluye permite ampliar la
información sobre ciertos términos que no están explícitamente desarrollados en el texto original de
von Bertalanffy, y que ha sido agregado como información adicional para completar y/o profundizar
ciertos temas vinculados con la Teoría General de los Sistemas.
LECTURA SISTEMATICA
Una lectura sistemática de esta obra implica utilizarla como un manual en el sentido clásico
(en oposición a su empleo como simple diccionario). Para este abordaje sistemático, el
lector podrá comenzar con el artículo "Bertalanffy, Ludwig von", y desde allí hasta llegar al
último, "Ecología". En la siguiente secuencia general, el lector puede visualizar
rápidamente todo el trayecto de este ordenamiento:
Bertalanffy, Ludwig von es el creador de la Teoría General de los Sistemas (TGS).
Dentro de la TGS podemos centrarnos en cuatro aspectos: su sentido amplio, sus métodos, su
sentido estricto, y su relación con las distintas ciencias.
•
En sentido amplio, la TGS abarca tres ramas:
Filosofía de los sistemas
Sus tres ramas son:
Ontología de Sistemas
Epistemología de Sistemas
Axiología de Sistemas (su idea central es el concepto de
valor)
Epistemología de
sistemas
Ciencia de los sistemas
•
La Ciencia de los sistemas abarca los diferentes enfoques de
sistemas. Se mencionan dos grandes enfoques: la cibernética
y la teoría de la información.
Entre los métodos utilizados por la TGS, está la inducción, en la cual tiene un papel
sobresaliente la observación.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
76
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
•
La TGS en sentido estricto se ocupa de la idea de sistema, de sus propiedades y de su
clasificación.
La descripción de un sistema puede ser interna o externa. La descripción interna de los sistemas
nos remite al concepto de estructura. Otra característica esencial de los sistemas es que todo
sistema es una organización.
Una forma muy importante de organización es la autoorganización (auto-).
Las propiedades formales de los sistemas son: el crecimiento, la competencia, la totalidad, la
sumatividad, la segregación (ver aquí también regulación y diferenciación) la mecanización, la
centralización (ver aquí también integración e individuo/individualización), el orden jerárquico y la
diversidad.
Otras propiedades de los sistemas son la estabilidad, la adaptación y la finalidad. En relación con
el concepto de finalidad están las ideas de homeostasis, retroalimentación, equifinalidad e
intencionalidad.
Una forma de clasificar los sistemas es como sistemas cerrados y sistemas abiertos. Tanto unos
como otros poseen un estado. Los sistemas cerrados llegan a un estado de equilibrio, mientras
que los sistemas abiertos llegan a un estado uniforme.
•
La TGS se ha ocupado también de mostrar como aparece la idea de sistema en las distintas
ciencias.
Una tarea del generalista científico es promover el desarrollo de tareas interdisciplinarias sobre la
base de una idea compartida de sistema.
Esta colaboración se funda en la existencia de isomorfismos entre sus respectivos temas de
estudio, pero este isomorfismo nos hace correr el riesgo de hacer reduccionismos, contrarios al
espíritu de la TGS. Frente a ellos, la TGS propone un perspectivismo.
Existen tres maneras de describir la realidad en términos de semejanzas entre fenómenos: la
analogía, la homología y la explicación.
La ciencia, en interacción con la tecnología, progresa a través de la instalación de sucesivos
paradigmas. Un paradigma es una teoría aceptada y reconocida en una determinada época por la
comunidad científica. Teoría y modelo son dos ideas íntimamente relacionadas.
El concepto de sistema aparece en muchas ciencias, como por ejemplo en la matemática. Dentro
de ésta última, el análisis factorial es un área directamente vinculada con la TGS.
Dentro de las ciencias físico-químicas, la TGS explora los conceptos de máquina, termodinámica
irreversible, entropía y sistema químico.
En biología, von Bertalanffy indica tres posiciones: el mecanicismo (ver aquí también causalidad y
caos), el vitalismo, y la concepción organísmica (ver aquí también organismo). También se hace
referencia al concepto de metabolismo.
En psicología, la TGS criticará especialmente la llamada psicología del hombre-robot, fundada en
cuatro principios: el principio de economía, el ambientalismo, el esquema estímulo-respuesta y el
principio de equilibrio.
Desde la TGS, la psicología estudia el comportamiento en tanto admite el libre albedrío. También
se abordan aquí el existencialismo y los conceptos de personalidad y simbolismo.
Otras ciencias donde se estudian sistemas son la sociología, la historia, la antropología (ver aquí
también categoría) y la ecología.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
77
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
01. ADAPTACIÓN
Característica de los sistemas según la cual estos pueden compensar desequilibrios
originados en el ambiente, con la finalidad de mantenerse en estado de equilibrio o bien en
estado uniforme. Von Bertalanffy aplica la idea especialmente a los seres vivos, y en
relación con la finalidad de la supervivencia.
i.
Cambio en el ser vivo y cambio ambiental. En el ambiente se producen cambios, pero
también estos ocurren en el mismo ser vivo. Estos últimos cambios pueden clasificarse en
tres tipos:
a.
cambios periódicos y autónomos originados en el sistema mismo, como los
movimientos automáticos en la respiración, la circulación, la digestión y las actividades
eléctricas rítmicas de los centros nerviosos;
b.
cambios ocasionales provocados por estímulos externos al organismo, y cuya
finalidad es hacer retornar a este a su estado uniforme. Por ejemplo los cambios
producidos en los órganos sensoriales por agentes físicos o químicos del entorno
(fenómenos de excitación);
c.
cambios a largo plazo, que acaecen en el contexto del ciclo vital total: desarrollo
embrionario, crecimiento, envejecimiento, muerte, etc.
De estos tres tipos, el cambio en el segundo sentido es el único que ocurre en respuesta a
cambios ambientales, y es el que, según se desprende del texto de von Bertalanffy, el que
describe más adecuadamente el fenómeno de la adaptación, el cual, entonces, puede ser
definido como el comportamiento del ser vivo destinado a compensar los desequilibrios
ocasionados por el entorno, con el fin de preservar su estado uniforme.
Se puede afirmar entonces, que el sistema viviente puede generar fuerzas dirigidas contra la
perturbación, como por ejemplo cuando un estímulo externo incrementa el catabolismo
(destrucción de moléculas), y el organismo compensa esta perturbación incrementando la
incorporación (alimentándose con nuevas moléculas). Se dice en estos casos que el
organismo exhibe 'adaptación' a la nueva situación: el sistema ha podido autorregularse. De
existir, la diferencia entre adaptación y regulación parece ser, en el planteo de von Bertalanffy,
el hecho de que todo mecanismo adaptativo implica mecanismos de regulación, sólo que
desencadenados por estímulos externos.
ii.
Finalidades del comportamiento adaptativo. Cualquier comportamiento adaptativo
implica al menos tres condiciones:
a.
debe haber una perturbación de origen externo,
b.
debe existir una capacidad del sistema de compensar la perturbación, y
c.
esta compensación no es 'ciega', o sea debe estar orientada hacia un fin o meta. En el
presente parágrafo nos interesa especialmente esta última condición.
En un sentido amplio, la finalidad del comportamiento adaptativo puede consistir o bien en
mantener un estado de equilibrio mediante mecanismos homeostáticos, o bien en alcanzar la
meta del estado uniforme mediante la equifinalidad. Lo primero es más propio de sistemas
cerrados, y lo segundo de los sistemas abiertos.
Más en relación con los mecanismos homeostáticos, von Bertalanffy describe un modelo de
comportamiento adaptativo denominado modelo de funciones escalonadas (46). Ashby
incluso construyó una máquina electromagnética, el homeóstato, capaz de adaptarse por
ensayo y error. La máquina, una vez estimulada exteriormente, prueba diferentes caminos y
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
78
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
medios, hasta estabilizarse o alcanzar el equilibrio cuando ya no entre el conflicto con valores
críticos del medio circundante. La expresión 'funciones escalonadas' alude la hecho de que,
cuando el sistema atravesó un estado crítico, emprende un nuevo modo de comportamiento.
Otro ejemplo es la computadora autoprogramable.
En los animales también encontramos mecanismos homeostáticos de adaptación, donde se
busca retornar al equilibrio original, pero von Bertalanffy aclara que la actividad del organismo
viviente va más allá de esta simple adaptación, pues busca siempre nuevas estimulaciones
que lo desequilibren y lo hagan tender al estado uniforme, que es esencialmente un estado de
desequilibrio permanente. Indica el mismo autor que, si luego de perturbada desde afuera, la
vida volviera ni más ni menos a un simple equilibrio homeostático, nunca habría progresado
más allá de la ameba, que después de todo es el animal mejor adaptado del mundo puesto
que ha podido sobrevivir miles de millones de años.
Por tanto, si extendemos la idea de adaptación más allá de los simples comportamientos
destinados a preservar la vida, incluiremos también todos aquellos comportamientos que,
como el arte, la religión, la creatividad y la cultura en general, no tienen la finalidad utilitaria de
la supervivencia pero que se han convertido en característica esencial de la especie humana.
Considerada como adaptación en sentido estricto, la creatividad es un fracaso (los poetas se
mueren de hambre o, como diría von Bertalanffy, al señor Fulánez le va mejor, desde el punto
de vista utilitario, que a Beethoven o a Miguel Angel).
En suma: si bien von Bertalanffy no termina de aclarar los alcances del concepto de
adaptación, podemos inferir a partir de sus afirmaciones un sentido estricto (adaptación como
tendencia hacia un equilibrio homeostático) y una sentido amplio (que incluye además la
tendencia hacia un estado de desequilibrio más propio de las actividades no utilitarias, como
por ejemplo el arte). El ser humano que, por diversas circunstancias esté imposibilitado por
realizar estas últimas actividades 'desequilibrantes', habrá reducido sus comportamientos
adaptativos al esquema homeostático, y se habrá transformado en una especie de autómata,
'adaptado' pasivamente al entorno social que le tocó vivir.
02. AMBIENTALISMO
Principio según el cual la conducta y la personalidad son conformadas por influencias
externas. Según von Bertalanffy, es uno de los cuatro principios que gobiernan el
comportamiento humano, sustentados total o parcialmente por las teorías psicológicas que
siguen el modelo del hombre-robot. Dentro de ellas dicho autor incluye concepciones tan
aparentemente disímiles como el conductismo y el psicoanálisis.
Citemos algunos ejemplos de ambientalismo mencionados en el texto de von Bertalanffy:
a.
En el conductismo: el condicionamiento por sí solo puede transformar un individuo en la
persona que uno desee.
b.
En psicoanálisis: la personalidad se forma por las experiencias de la primera infancia.
c.
En psicología cognitiva: el cerebro humano es una computadora que puede programarse a
voluntad.
d.
En psiquiatría: los enfermos pueden ser rehabilitados mediante un reacondicionamiento
oportuno.
La TGS considera falso el enfoque del hombre-robot en la medida en que pretende constituirse en
la única explicación del comportamiento humano. Por ejemplo, es fácil refutar el ambientalismo
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
79
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
cuando advertimos que aún los seres vivos más sencillos tienen diferencias entre ellos, lo que
hace que, aún cuando reciban las mismas influencias ambientales, habrá otros factores
individuales que producirán conductas diferentes. El modelo del robot sólo abarca parte del
comportamiento animal, y no cubre en absoluto ninguna porción esencial de la conducta humana.
Los otros tres principios que aparecen en el modelo del hombre-robot son el principio de estímulorespuesta, el principio de equilibrio y el principio de economía.
03. ANÁLISIS FACTORIAL
Aislamiento de factores en fenómenos multivariables, que se llevan a cabo en psicología y
otros campos. Se trata de un enfoque matemático especialmente apto para llevar a cabo
investigaciones en un contexto sistémico.
i.
Análisis unifactorial y análisis multifactorial. La ciencia clásica se ocupaba ante todo de
problemas de dos variables, de cursos causales lineales, de una causa y un efecto, o de unas
pocas variables cuando mucho. La mecánica, por ejemplo, da soluciones perfectas para la
atracción entre dos cuerpos (un sol y un planeta), permitiendo la predicción de sus futuras
configuraciones. Pero ya el problema de tres cuerpos es en principio insoluble y sólo puede
abordarse mediante aproximaciones. Otro tanto ocurre en la física atómica, cuando se pueden
estudiar bien problemas de dos partículas subatómicas, como el protón y el electrón.
Sin embargo este enfoque, que aquí podríamos llamar unifactorial (pues investiga una sola
causa de un fenómeno), resulta insuficiente en el campo de la biología, la psicología y las
ciencias sociales, donde debemos enfrentarnos con 'complejidades organizadas' que se
manifiestan como fenómenos multivariables, y que requieren nuevos instrumentos
conceptuales que, como el análisis multifactorial, intenta resolver interacciones entre muchas
(pero no infinitas) variables.
04. ANALOGÍA
a.
En sentido general, analogía es la relación que se establece entre dos o más cosas en
virtud de una o varias características en común.
b.
En el contexto de la TGS, las analogías son similitudes superficiales entre fenómenos
que no se corresponden ni en factores causales ni en las leyes pertinentes.
i.
Definición general. Dos o más cosas son análogas cuando tienen algo en común. Por
ejemplo, entre un globo y una naranja hay una analogía, ya que ambos comparten una
característica en común, como puede ser la redondez.
ii.
Analogía y TGS. En el marco de su discusión del concepto de isomorfismo, von Bertalanffy
establece una diferencia entre tres niveles en la descripción de los fenómenos: las analogías,
las homologías y las explicaciones.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
80
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
NIVEL
CRITERIO DE SIMILITUD
EJEMPLOS DE FENÓMENOS
Analogías
Semejanzas superficiales
El crecimiento de un cristal y el crecimiento de un organismo
Homologías
Leyes formalmente idénticas
La corrientes de un líquido y la corriente eléctrica
Explicaciones
Leyes específicas en común
El equilibrio químico y el crecimiento de una población
Demos aquí algunos ejemplos de analogías, consideradas por la TGS como inútiles para la
ciencia y perniciosas en sus consecuencias prácticas:
a.
El crecimiento de un organismo y el crecimiento de un cristal son fenómenos análogos
por presentar parecidos superficiales, pero no siguen las mismas pautas de crecimiento y
las leyes que los rigen son diferentes;
b.
un bosque y un organismo se parecen superficialmente por ser conjuntos de muchas
unidades (árboles y células), pero existe evidente diferencia entre la unificación de un
organismo y la vaguedad de una asociación vegetal;
c.
el desarrollo de una población y el de un organismo son también analogías, y como tales
presentan solamente semejanzas superficiales;
d.
von Bertalanffy discute especialmente la "analogía organísmica", que se establece entre
la evolución de un organismo y la de una civilización, como lo hizo el historiador
Spengler, sobre la base de que ambos nacen, crecen y acaban por morir (nuevamente
semejanzas superficiales).
05. ANTROPOLOGÍA
Habitualmente, se distinguen tres tipos de antropología: la antropología física, la
antropología cultural y la antropología filosófica (1). El enfoque sistémico ha sido aplicado
predominantemente en el contexto de la antropología cultural, disciplina científica que
genéricamente se ocupa de la investigación de las culturas humanas en sus diversos
aspectos tales como las relaciones familiares, las estructuras de poder, las costumbres, las
tradiciones, los lenguajes, etc.
i.
La antropología y sus variedades. Generalmente suelen distinguirse tres grandes tipos (1)(4):
a.
La antropología física, que estudia las características físicas del hombre como especie:
sus orígenes, sus variedades raciales, etc., para lo cual emplea típicamente métodos
antropométricos. Es la antropología más directamente emparentada con la biología.
b.
La antropología cultural, en lugar de estudiar al hombre como entidad natural, como en
el caso anterior, se centra en él mas bien como entidad cultural, y por ello estudiará las
culturas humanas en sus diversas manifestaciones como la familia, las costumbres, los
mitos, y tradiciones, el lenguaje, etc.
c.
La antropología filosófica, si los dos tipos anteriores constituían estudios científicos,
ésta última procurará un enfoque más teórico, general y especulativo sobre la condición
humana, e intentará, por ejemplo, desentrañar la 'estructura fundamental' del ser humano
o su 'naturaleza última'.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
81
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Más allá de esta clasificación tradicional de los estudios antropológicos, hay otras variedades
menores y más recientes tales como la antropología política, la antropología económica o la
antropología ecológica (2).
ii.
Antropología cultural y enfoques sistémicos. Hay dos formas en que puede relacionarse el
enfoque sistémico con la antropología:
a.
Empleo de conceptos antropológicos para justificar o fundamentar una TGS: esta tarea
es encarada específicamente por von Bertalanffy, cuando utiliza la idea de 'categoría',
empleada en antropología, como concepto que permite justificar un enfoque sistémico, ya
que la idea de 'sistema' es en sí misma una categoría universal (ver Categoría,
Perspectivismo).
b.
Empleo de conceptos del enfoque sistémico para encarar estudios antropológicos:
existen numerosos y variados planteos por comprender los hechos antropológicos a la luz
del paradigma sistémico. Uno de ellos (3), por ejemplo, intentó una analogía orgánica, es
decir, comparar en algunos aspectos los sistemas sociales y culturales con organismos
biológicos, habida cuenta que estos últimos -y por ende también los primeros- pueden ser
concebidos como sistemas. Al respecto:
1. se concibe el sistema social y cultural como una serie de redes de comunicación,
2. se estudian, más que las entidades, sus mutuas relaciones, y
3. se privilegia en el estudio de la organización del sistema antes que otros aspectos.
Según Quintanilla (2), el análisis de sistemas tiene la enorme ventaja de permitirnos tratar los
fenómenos teleológicos de un modo no antropomórfico, y tiene aplicaciones importantes en
antropología política, económica y ecológica.
Existen algunos planteos de índole sistémica bastante representativos, como por ejemplo los de
Gregory Bateson y los de Claude Lévi-Strauss, éste último fundador de la antropología estructural.
Los planteos estructuralistas europeos en general (como el de Lévi-Strauss) presentan notables
similitudes con los planteos sistémicos anglosajones y, si bien utilizan diferentes etiquetas
principales ('estructura' y 'sistema', respectivamente), ambos apuntan a la comprensión de la
realidad sobre la base de la idea de elementos mutuamente interactuantes que conforman una
totalidad organizada y relativamente independiente y autónoma. En efecto, el mismo von
Bertalanffy reconoce un paralelismo entre el desarrollo de la TGS y las corrientes estructuralistas
francesas, como las de Piaget o Lévi-Strauss.
Referencias
(1)
4. Quintanilla M. (comp.), Diccionario de filosofía contemporánea, Salamanca, Ediciones Sígueme, 1979, 2° Edición, pág. 27.
(2)
Quintanilla M., op. cit., pág. 33.
(3)
Quintanilla M., op. cit., pág. 32.
(4)
Ferrater Mora J., Diccionario de filosofía, Madrid, Alianza, 1979, pág. 171.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
82
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
06. AUTOPrefijo que, en el contexto de la TGS, expresa la idea según la cual los sistemas, una vez
que reciben aportes de información o energía del entorno, pueden generar y mantener una
actividad propia en virtud de sus peculiares características como tales. Ejemplos:
Autoorganización, auto mantenimiento, auto orientación, auto dirección, autorregulación,
etc.
Actividades propias son actividades que realiza el sistema en forma relativamente independiente
del medio. En tal sentido, son llevadas a cabo tanto en sistemas cerrados como en sistemas
abiertos, con las semejanzas y las diferencias que a continuación se detallan:
i.
En sistemas cerrados, como por ejemplo un sistema cibernético, se verifican únicamente
procesos de autorregulación, como por ejemplo el mecanismo homeostático (ver
Homeostasis y Retroalimentación). Téngase presente que estos sistemas, si bien son
designados como 'cerrados' por von Bertalanffy, por ser cerrados respecto de la energía o de
la entropía, son en cambio abiertos desde el punto de vista de que a ellos ingresa
información, y la información no siempre es energía. El mecanismo autorregulador se pone en
marcha, entonces, cuando ingresa cierto tipo de información al sistema.
ii.
En sistemas abiertos, también encontraremos mecanismos de autorregulación, pero estos
por sí solos no alcanzan a caracterizarlos. Los sistemas abiertos exhiben además, como
características sui generis, la auto restauración y el automantenimiento, la auto orientación, la
auto dirección, y/o la autoorganización y la auto diferenciación (ver Regulación).
a.
Auto restauración y auto mantenimiento. Mientras las máquinas artificiales cumplen
una única función utilitaria para el hombre, los sistemas vivos están organizados para
cumplir una función utilitaria 'para sí mismos', es decir, están organizados de tal forma
que se mantienen y restauran a sí mismos (automantenimiento, auto restauración), como
por ejemplo mediante la homeostasis.
Las tendencias auto restauradoras de los sistemas organísmicos estarían vinculadas al
hecho de que la autorregulación resulta de la interacción entre muchos componentes,
como sucede por ejemplo en los embriones, a diferencia de las máquinas, donde hay
conexiones causales circulares aisladas que solo permiten regulaciones frente a
perturbaciones muy limitadas. El organismo, en cambio, puede autorregularse para
compensar perturbaciones 'arbitrarias', es decir para compensar un número indefinido de
situaciones que no pudieran haber sido 'previstas'.
b.
Auto orientación y auto dirección. Detrás de todos los términos con el mismo prefijo
que estamos enumerando subyace la idea de un mecanismo teleológico, orientado hacia
un fin. En las expresiones auto orientación y auto dirección se ve más claramente tal
mecanismo, utilizadas ambas por von Bertalanffy cuando habla de sistemas y organismos
que se auto orientan, o de personalidades que se auto dirigen.
c.
Auto organización y auto diferenciación. Los sistemas capaces de auto diferenciarse y
auto organizarse son los sistemas abiertos. Al evolucionar hacia grados crecientes de
complejidad (entropía decreciente) son, por razones termodinámicas, sólo posibles como
sistemas abiertos, a sea como sistemas que reciban del entorno materia portadora de
energía libre en grado que sobrecompense el aumento de entropía debido a procesos
irreversibles dentro del sistema (ver Entropía). Esto es cierto tanto si tomamos
'organización' como pasaje de un estado no organizado a otro organizado (del huevo
cigota al organismo final), tanto si lo tomamos como pasaje de un estado de 'mala'
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
83
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
organización a un estado de 'buena' organización (del cerebro de un niño que lo lleva a
tocar el fuego, al cerebro adulto que lo lleva a evitarlo).
En este sentido, ninguna máquina artificial puede ser auto organizadora salvo, según una
postura de Ashby, que la máquina en cuestión reciba la influencia de algún agente
externo, es decir, una máquina sería auto organizadora sólo si está acoplada a otra
máquina. Este concepto es aplicable, según von Bertalanffy, a los sistemas cibernéticos
que reciben información, más no materia y energía, del medio circundante.
07. BERTALANFFY, LUDWIG VON
Biólogo austriaco, considerado el principal impulsor de la 'Teoría General de los Sistemas'. El
concepto de 'sistema' es central en su pensamiento, y constituye para él no solamente el
fundamento de la biología sino también el de todas las otras ciencias, con lo cual todas ellas
pueden quedar unificadas interdisciplinariamente.
Ludwig von Bertalanffy (1901-1972) nació en Atzgersdorf (Austria). Comenzó estudiando biología
y filosofía en Universidades europeas, doctorándose en 1926. En la década del '40 comienza a
desarrollar una intensa actividad en América (Estados Unidos y Canadá) en los campos de la
docencia y la investigación, interesándose en investigaciones filosóficas y estudios sobre
comportamiento social. Sobretodo, desarrolló trabajos experimentales en biología, especialmente
en fisiología celular y embriología.
Entre 1945 y 1950 publica algunos artículos que pueden ser considerados como un primer
anuncio del paradigma sistémico y que, en el libro de edición española que se ha utilizado como
referencia, figuran en el capítulo 3. Su 'Teoría General de los Sistemas' se opuso enérgicamente
al mecanicismo y al vitalismo, proponiendo en su lugar una 'concepción organísmica', como así
también al reduccionismo, oponiéndole una visión perspectivista e interdisciplinaria de la ciencia.
Von Bertalanffy fue Director de investigaciones en el Hospital Mount Sinaí (Los Ángeles) de 1955
a 1958, desarrollando luego a partir de este último año labores docentes en diferentes
Universidades en Kansas, Canadá, Buffalo y Chicago.
08. BIOLOGÍA
Ciencia que se ocupa del estudio de los seres vivos. La biología moderna ha ampliado y
profundizado estos estudios al hacer hincapié en los seres vivos como organismos, vale
decir, como sistemas abiertos que intercambian permanentemente materia y energía con el
medio.
i.
Hacia una definición del ser viviente (1). La biología no dispone de una definición de vida.
En sus comienzos, esta ciencia se limitaba a enumerar ciertas características que permitían
distinguir al ser vivo del ser inanimado, tales como el crecimiento, la reproducción, el
metabolismo, la irritabilidad, el movimiento, la complejidad y la adaptación. Hoy en día nuevas
investigaciones, sobre todo en el área de la biofísica y la bioquímica, han destacado que las
propiedades más sobresalientes del ser vivo son la capacidad de crecer (incluyendo su
regeneración) y la de reproducirse, mientras que las restantes características antes citadas
resultan secundarias en relación a las anteriores. Por ejemplo, una máquina creada por el
hombre puede exhibir un cierto grado de adaptación, como el homeóstato o la computadora
autoprogramable, pero es incapaz de crecer y reproducirse. Von Bertalanffy insiste en que la
persecución de metas en el sentido del mantenimiento, la producción y la reproducción de la
totalidad orgánica, constituye un criterio general de vida.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
84
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Una forma viviente es, en esencia, un sistema complejo, altamente organizado,
independiente, con estructura físico-química definida, capaz de utilizar la materia y la energía
del medio ambiente por medio de cadenas integradas y auto establecidas de reacciones
físico-químicas, para poder así crecer y reproducirse (8-18).
ii.
Tres enfoques en biología. En biología es posible encontrar, a lo largo de su historia, tres
enfoques distintos y excluyentes: el vitalismo, el mecanicismo y el organicismo (o biología
organísmica).
a.
El planteo mecanicista reduce el ser vivo a una suma de partes y procesos parciales: el
organismo como agregado de células, el comportamiento como suma de reflejos
condicionados y no condicionados, etc., y evita tratar problemas de organización de esas
partes al servicio del mantenimiento del organismo, o problemas de regulación
consecutiva a las perturbaciones, y otros que implicaban una visión más unificada y
menos fragmentada del ser viviente (ver Mecanicismo).
b.
El vitalismo encaró el problema del organismo como un todo, pero lo explicó por la
influencia de ciertas entidades que, como ciertos factores 'animoides' y otras igualmente
abstractas y metafísicas, acechaban a la célula o al organismo (ver Vitalismo).
c.
Para el punto de vista organísmico, al cual adhiere la TGS, los organismos son
totalidades organizadas irreductibles a la suma de sus partes componentes. La TGS los
concibe, específicamente, como sistemas abiertos que tienden hacia un estado uniforme,
y su comprensión bajo este nuevo punto de vista exigió una expansión de la físicoquímica, la cinética y la termodinámica clásicas. Si bien hubo notorios avances en
biología molecular (por ejemplo a través del desciframiento del código genético), la
biología no sólo debe ocuparse del nivel físico-químico o molecular, sino también de los
niveles superiores de la organización viviente.
Referencias
(1)
Nason A., Biología, México, Limusa-Wiley, 1969, págs. 17-18.
09. CAOS
La concepción mecanicista concibió al mundo como caos, es decir, como el resultado del
movimiento ciego o azaroso de los átomos que generaron, con su multiplicidad, un orden y
una regularidad de tipo estadístico. En oposición a este punto de vista, la TGS busca otro
modo esencial de ver las cosas: el mundo como organización.
i.
Concepto. El término 'caos' ha de sugerirnos aquí la idea de desorden y azar. Para el
mecanicismo, el mundo no tiene orden ni finalidad. Su enfoque determinista estricto se arraiga
en la idea de que el universo resulta ser el producto de la acción de partículas anónimas que
se mueven al azar, de modo desordenado, generando con su multiplicidad, un orden y una
regularidad de naturaleza estadística, como en la física clásica y las leyes de los gases. Tal
enfoque fue reforzado por los afanes analíticos de la cultura y el lenguaje típicos de Europa
Occidental, que nos obligan a estudiar los fenómenos, aún los biológicos y psicológicos, como
si estuvieran compuestos de partes o factores separados, discretos, que debemos tratar de
aislar e identificar como causas potentes. De aquí es de donde derivamos nuestra
preocupación por el estudio de la relación entre dos variables.
El método de la ciencia clásica era lo más apropiado para estos fenómenos que podían
descomponerse en cadenas causales aisladas o que eran consecuencia estadística de un
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
85
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
número 'infinito' de procesos aleatorios, como pasa con la mecánica estadística, el segundo
principio de la termodinámica y todas las leyes que de él emanan.
El triunfo irrebatible de tales conceptos y métodos en física y astronomía, y luego en química,
dio a la biología y la psicología su orientación preponderante: el juego sin concierto de los
átomos generaba todos los fenómenos del mundo, inanimado, viviente y mental, no quedando
lugar para ninguna direccionalidad o finalidad en los acontecimientos. El mundo de los
organismos aparecía como producto del azar, amasado por el juego sin sentido de
mutaciones azarosas y selección, y el mundo mental como un curioso epifenómeno bastante
inconsecuente de los acontecimientos materiales.
Si para el mecanicismo los fenómenos son una consecuencia estadística de un número
infinito de procesos aleatorios, para la TGS, que propone al mundo como organización, no
como caos, éste debe verse como una interacción entre un número grande, pero no infinito,
de elementos o procesos. Aquí surgen los problemas circunscriptos por nociones como las de
totalidad, organización, etc., inabordables según aquellos modos clásicos de pensamiento.
ii.
Teoría del caos. La más actual llamada 'teoría del caos' o del 'efecto mariposa', apenas
mencionada específicamente por von Bertalanffy, resulta ser otro intento humano por ordenar
lo caótico. No es casualidad que tal teoría haya surgido en el seno de la meteorología: ¿hay
algo más caótico e imprevisible que el clima? Edward Lorenz, meteorólogo, estaba
convencido que tal caos era en realidad aparente, y que el hecho de que el aleteo de una
mariposa en el Amazonas podía producir un huracán en Texas, no se debía a un proceso
azaroso o accidental sino necesario y que, si así parecía, era porque pequeñísimas
variaciones en la condiciones iniciales (aleteo de la mariposa) generaban enormes cambios
en las condiciones finales (huracán en Texas) con lo cual toda predicción se tornaba
imposible y el fenómeno adquiría un aspecto de caos y aleatoriedad.
Estos desarrollos, surgidos a partir de la década del '60, son en realidad el reflotamiento de
las ideas de Poincaré, que, entre otras cosas, decía en 1908: "Una causa muy pequeña, que
se nos escapa, determina un efecto considerable que no podemos dejar de ver, y entonces
decimos que tal efecto se debe al azar". Es lo que Mittasch, en 1948 y citado por von
Bertalanffy, designaba como 'causalidad por instigación'.
iii. Caos y sociedad. Von Bertalanffy utiliza el vocablo 'caos' en un segundo sentido, cuando
designa la amenaza que se cierne sobre nuestro mundo, de persistir en nuestro
desconocimiento de las leyes de la sociedad humana. Conocemos bastante bien las fuerzas
físicas, pero poco y nada las fuerzas sociales. Si dispusiéramos de una ciencia de la sociedad
humana bien desarrollada y de su correspondiente tecnología, que von Bertalanffy llama
'tecnología sociológica', habría según este autor un modo de escapar del caos y la
destrucción que amenazan a nuestro mundo actual.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
86
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
10. CATEGORÍA
Una categoría es un concepto o idea que nos permite organizar nuestro conocimiento del
mundo. Por ejemplo el espacio, el tiempo, la sustancia, la causalidad. Si bien von
Bertalanffy no define explícitamente 'categoría', esta caracterización puede ser considerada
fiel al sentido que este autor usa y menciona.
Se indican tres posturas frente al problema de la determinación de las categorías: 1) la
filosofía kantiana (las categorías son absolutas y universales); 2) la hipótesis de Whorf (las
categorías son relativas y no universales), y 3) el planteo de von Bertalanffy, denominado
por él mismo 'perspectivismo', intermedio entre los dos anteriores.
i.
Generalidades. La idea de categoría tiene una larga tradición en la historia de la filosofía, que
se remonta a Aristóteles. Lejos del propósito de hacer una cronología de su evolución,
solamente indicaremos que la categoría, entendida como un concepto que nos sirve para
organizar nuestro conocimiento de la realidad, tiene una gran semejanza con la idea de
categoría en la filosofía kantiana.
Aunque Kant no lo llame así, el espacio es un ejemplo de categoría pues nos permite
organizar las cosas en lugares (más arriba, más abajo, más lejos, más cerca, etc), según
cierto punto de referencia. Lo mismo sucede con la categoría causalidad, que nos permite
relacionar los fenómenos en términos de causas y efectos, con lo cual habremos construido
una imagen para nosotros plausible del mundo.
ii.
Determinación de las categorías. Pero, ¿qué es lo que determina las categorías de la
cognición humana? Para responder a esta pregunta, von Bertalanffy refiere tres posibles
respuestas:
a.
Kantismo. Según la tesis del filósofo de Könisberg, tanto las llamadas formas de la
intuición (espacio y tiempo), como las categorías del intelecto (sustancia, causalidad,
etc.), se imponen universalmente a cualquier ser racional y son, por tanto, absolutas.
Según esto la ciencia, basada en tales categorías, resulta igualmente universal,
constituyendo así un sistema absoluto de conocimiento aplicable a cualquier fenómeno,
así como a cualquier mente observadora.
Según von Bertalanffy, muchos ejemplos desmitifican esta tesis, como por ejemplo:
1. el espacio euclidiano no es el único posible, habiendo también espacios no
euclidianos, espacios muldimensionales en la física cuántica, etc.
2. la materia sólida, la más trivial de las categorías de la física ingenua, consiste casi
por entero en vacío salpicado de centros de energía.
3. el determinismo como categoría tampoco es universal, en cuanto también existe, en
la física cuántica, el indeterminismo.
b.
Relativismo. Un importante representante de esta solución es Benjamín Lee Whorf
(1897-1941). La hipótesis de Whorf sostiene básicamente un relativismo lingüístico: la
estructura del lenguaje es quien determina los modos de pensar de la comunidad que
habla dicho lenguaje. Son las pautas lingüísticas mismas, categorías mediante, las que
determinan lo que un individuo percibe en el mundo y el modo cómo lo piensa u organiza.
Como tales pautas lingüísticas varían considerablemente según cada cultura, éstas
tendrán visiones del mundo básicamente diferentes. Podríamos condensar la hipótesis de
Whorf en los siguientes términos: 'pensamos como hablamos'. Incidentalmente,
aclaramos que von Bertalanffy amplía la idea de Whorf al indicar que así como el
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
87
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
lenguaje influye en nuestra visión del mundo, ésta última también influye sobre el primero,
con lo cual también podríamos afirmar que 'hablamos como pensamos'.
Von Bertalanffy da variados ejemplos tomados del mismo Whorf, pero citemos sólo dos
como muestra.
c.
1.
En las lenguas indoeuropeas los sustantivos, adjetivos y verbos aparecen como
unidades gramaticales básicas discernibles en la oración. Por ejemplo "relampagueó
una luz". En cambio en ciertas lenguas indígenas de América, la oración no tiene
partes discernibles, lo que lleva a pensar que aquellos indígenas tienden a ver los
fenómenos del mundo como una unidad indivisa. Por ejemplo "relámpago".
2.
Las categorías de espacio, tiempo y materia newtonianos, entre otros, son solamente
'recetas de nuestra cultura y nuestro lenguaje' que nos llevan a organizar el mundo
desde una perspectiva mecanicista. Este modo de pensar es consecuencia de
nuestras categorías y hábitos lingüísticos específicos.
Perspectivismo. En la postura que asume von Bertalanffy, las categorías del
conocimiento (tanto del cotidiano como del científico, que en última instancia es un
afinamiento del primero) dependen, primero, de factores biológicos; segundo, de factores
culturales; y tercero, y a pesar de esta 'maraña demasiado humana', es posible en cierto
sentido el conocimiento absoluto, emancipado de las limitaciones humanas. Tal el planteo
perspectivista, que definiremos con mayor precisión más adelante en este mismo artículo.
La cognición humana, así entendida, depende al menos de factores tanto biológicos
como culturales, vale decir que von Bertalanffy sostiene un relativismo biológico y un
relativismo cultural, aunque queda abierta la posibilidad de un conocimiento absoluto.
1. Relatividad biológica de las categorías. La cognición depende, ante todo, de la
organización psicofísica del hombre. El ejemplo prototípico en biología es la
concepción de Jacob von Uexküll (1864-1944), quien sostiene que cualquier
organismo recorta, de los muchos objetos que lo rodean, un número reducido de
características a las cuales reacciona y cuyo conjunto forman su 'ambiente' (Unwelt),
es decir, cada organismo categoriza su entorno de acuerdo a su organización
psicofísica y su condición fisiológica, siendo esto último precisamente el
determinante biológico de sus categorías.
Citemos algunos ejemplos
•
Algunos erizos de mar responden a cualquier oscurecimiento ambiental
apretando las espinas. Esta reacción es invariablemente aplicada cuando el
ambiente se oscurece, sea porque pase un pez, su verdadero enemigo, sea
porque pase un bote o una nube. Si cabe la expresión, ha 'categorizado' su
mundo en dos partes: luminoso y oscuro. Otro animal en el mismo lugar físico lo
hubiera organizado de manera distinta, porque es otra su constitución fisiológica.
•
El tiempo es experimentado de distinta manera según cada especie (por ejemplo
por tener diferentes sistemas nerviosos), y aún según cada individuo si presenta
condiciones fisiológicas diferentes a otro de su misma especie. Por ejemplo, bajo
la influencia de la mezcalina, las impresiones visuales se intensifican y la
percepción del espacio y el tiempo experimenta cambios profundos. Asimismo,
probablemente las 'categorías' de los esquizofrénicos sean considerablemente
distintas a las normales, lo mismo que las categorías de la experiencia onírica.
•
Aún la más fundamental categoría de experiencia, la distinción entre yo y no-yo,
no es absolutamente fija, y parece evolucionar gradualmente en el desarrollo del
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
88
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
niño porque van cambiando correlativamente sus condiciones psicofísicas. Y aún
considerando solamente el adulto, la separación objeto-sujeto desaparece en la
visión empática del mundo del poeta, en el éxtasis místico y en los estados de
embriaguez. Asimismo, la distinción entre yo y no-yo no es la misma en el
pensamiento primitivo y en el pensamiento Occidental.
2. Relatividad cultural de las categorías. Mientras Whorf había sostenido un
relativismo lingüístico, von Bertalanffy extiende esta idea a toda la cultura (de la cual
el lenguaje es sólo un aspecto), cuando sostiene que las categorías dependen de
factores culturales.
Un primer ejemplo histórico aparece en el arte: las categorías de la creación artística
parecen depende de cada cultura. Por ejemplo, la peculiar cultura de los japoneses
los llevó a no pintar sombras ni expresar perspectivas en sus pinturas, mientras que
la cultura occidental sí. La particular creación japonesa no obedece a una falta de
habilidad o de recursos para reflejar la realidad en un lienzo, sino a la posesión de
una cultura diferente que nos llevaba a 'categorizar' el mundo de manera distinta.
Spengler extendió esta tesis sobre las categorías artísticas hasta incluir las
categorías cognoscitivas. Sostuvo que, además de ciertas categorías universales
como las de la lógica, había otro grupo de categorías que eran consideradas
universales y necesarias pero sólo por para una determinada civilización, y no para
otra. Cada civilización, cada cultura tiene así su propio 'estilo de cognición'. Las
fórmulas matemáticas como tales son portadoras de necesidad lógica, pero su
interpretación es una expresión del 'alma' de la civilización que las creó.
Del mismo modo, la mesa es para el físico un agregado de electrones, para el
químico un revoltijo de compuestos orgánicos, para el biólogo un complejo de células
leñosas, para el historiador del arte un objeto barroco, para el economista un bien
con determinado valor monetario, etc.
3. Posibilidad de un conocimiento absoluto. Si bien hay una relatividad biológica y
cultural de las categorías, hay ciertos límites para dicha relatividad. Esta tesis de von
Bertalanffy, denominada por él mismo 'perspectivismo', puede sintetizarse en cuatro
puntos básicos:
•
Las categorías de nuestra experiencia y pensamiento
determinadas por factores biológicos y culturales.
•
Esta vinculación con esos factores es vencida mediante un proceso de
desantropomorfización progresiva de nuestra imagen del mundo.
•
Aún desantropomorfizado, el conocimiento sólo refleja ciertos aspectos o facetas
de la realidad.
•
Cada aspecto tiene verdad, pero relativa, lo que indica tanto la limitación como la
dignidad del conocimiento humano.
parecen
estar
Si bien en un comienzo las categorías del conocimiento se hallan muy dependientes
de los factores naturales y culturales, von Bertalanffy indica que una ojeada a la
historia de la ciencia revela que el hombre tiene una tendencia a desprenderse de
estos condicionamientos biológicos y culturales o, para usar sus términos, a
desantropomorfizarse, con lo cual quiere indicar un desprendimiento de aquellas
limitaciones intrínsecas a su condición humana.
Esta progresiva desantropomorfización se realiza siguiendo tres líneas principales:
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
89
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
4. A partir de experiencias sensoriales con la luz o el sonido, el físico abstrae campos
como la óptica o la acústica, pero pronto estos se funden entre sí trascendiendo lo
'visualizable' o 'intuíble', como por ejemplo cuando se unen la óptica y la electricidad
en la teoría electromagnética. Esta evolución está ligada a la invención de
instrumentos que amplifiquen los sentidos y que puedan registrar o medir con mayor
precisión lo observado.
5. Un segundo aspecto es la progresiva convergencia de la investigación, que es lo que
ocurre cuando observadores distintos con métodos diferentes llegan
aproximadamente a los mismos resultados. Por ejemplo, la coincidencia aproximada
en la determinación del equivalente mecánico del calor. Los diferentes métodos, en
cuanto convergen en los mismos resultados y en aproximaciones cada vez más
precisas, ya no pueden concebirse más como simples convenciones para describir
fenómenos con economía: representan determinados aspectos de la realidad
independientes de sesgos biológicos, teóricos o culturales.
6. Un tercer aspecto es la progresiva transformación de cualidades sensoriales en
relaciones puramente matemáticas. Muchos han criticado la teoría de la relatividad o
la mecánica cuántica por ser especulaciones 'invisualizables', pero esta
característica es precisamente la prueba de cómo el científico va despojándose poco
a poco de las ataduras de la experiencia sensorial específicamente humana, es
decir, de cómo va desantropomorfizándose. Es así que, aún cuando los hombres
tienen diferentes bases culturales y entonces producirían categorías diferentes para
organizar el mundo, hay indicios de una especie de unificación de las categorías,
que quedarían así desligadas de su dependencia de los factores culturales.
Sin embargo, aún desantropomorfizándose, el pensamiento sólo puede reflejar
algunos aspectos de la realidad, no todos. Así por ejemplo, existe una tendencia
humana presumiblemente universal (Lévi-Strauss sostenía años antes de von
Bertalanffy una opinión semejante) a categorizar el mundo en términos de opuestos,
en forma similar a la concepción heraclítea. Pero también, sugiere von Bertalanffy, es
una tendencia universal el buscar una síntesis de opuestos intentando tener una
visión más totalizadora de la realidad. Tal lo que pasó con la física relativista que
buscó superar las oposiciones quietud-movimiento, espacio-tiempo y materiaenergía.
Von Bertalanffy opone el perspectivismo al reduccionismo, en la medida que
mientras la primera tesis dice que la realidad puede verse desde distintas
perspectivas, teniendo cada una de ellas el carácter de verdad relativa, la segunda
sostiene que todas esas perspectivas pueden reducirse a una sola (por ejemplo y
especialmente la descripta por la física), que así se adscribiría el carácter de verdad
absoluta.
iii. Perspectivismo y TGS. Finalmente, cabría preguntarse porqué von Bertalanffy dedica todo
un capítulo de su obra al tema de las categorías, tal como aquí lo hemos expuesto. Si bien no
encontramos una referencia explícita del autor al respecto, cabe entender que, mediante su
postura perspectivista, von Bertalanffy intenta justificar la posibilidad de extender la categoría
de 'sistema' a todas las disciplinas científicas, pero no al modo reduccionista sino al modo
perspectivista, esto es, encarando una empresa que forma parte de la progresiva
desantropomorfización que debe cumplir todo emprendimiento científico. Von Bertalanffy
parece indicar esta intención cuando dice que la TGS reemplazaría la 'teoría de las
categorías' de N. Hartmann, por un sistema exacto de leyes lógico-matemáticas. O también,
cuando en dice que, si queremos superar la estrechez de la posición mecanicista, deberemos
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
90
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
introducir nuevas 'categorías' en el pensamiento y la investigación científica, tales como las de
interacción multivariable, la organización, el automantenimiento, la actividad, etc. propias, en
este caso, de los sistemas vivos.
11. CAUSALIDAD
Supuesto mecanicista según el cual los fenómenos del mundo mantienen entre sí vínculos
de causa-efecto. Clásicamente, aclararemos, un fenómeno es causa cuando es condición
necesaria y suficiente para que ocurra otro fenómeno, llamado efecto.
i.
Un concepto clásico. Según el mecanicismo de la física clásica, las leyes inexorables de la
causalidad regían todos los fenómenos del mundo, inanimado, viviente y mental. Al no quedar
lugar para ninguna direccionalidad, orden o 'telos', el mundo de los organismos aparecía
como producto del azar y del juego sin sentido de mutaciones azarosas y la selección natural.
Ejemplos: en la mecánica newtoniana el sol atrae a los planetas, en biología un gen es causa
de un carácter heredado, o una clase de bacteria produce cierta enfermedad, en psicología
los elementos mentales están vinculados por leyes de asociación.
ii.
Tipos de causalidad. Von Bertalanffy menciona dos criterios distintos para clasificar los
vínculos causales.
a.
Según un primer criterio, la causalidad abarca dos tipos: lineal o unidireccional, y circular,
aunque la distinción entre ambas parece no revestir mucha importancia para el autor. En
efecto, las líneas causales dentro de un sistema de retroalimentación son lineales y
unidireccionales. El esquema básico de retroalimentación (por ejemplo la regulación
homeostática de la concentración de azúcar en la sangre) sigue siendo el clásico
esquema estímulo-respuesta (E-R), sólo que el bucle de retroalimentación hace que la
causalidad se convierta en circular (ver figura).
b.
Según un segundo criterio, existe una causalidad de 'conservación' y una causalidad de
'instigación'. En la causalidad de conservación, la causa y el efecto son cuantitativamente
proporcionales: un gran terremoto produce devastadores efectos, es decir, los efectos
son razonablemente proporcionados con la intensidad de la causa. En cambio, en la
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
91
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
causalidad por instigación, causas insignificantes que, actuando a modo de disparadores,
detonantes o agentes instigadores, producen efectos considerables. Un ejemplo típico lo
encontramos en el efecto mariposa en meteorología: el aleteo de una mariposa en un
extremo del mundo, provocará un gigantesco huracán en la otra parte. Más
generalmente, la causalidad por instigación es aquella donde un cambio energéticamente
insignificante en una parte, provoca un cambio considerable en el sistema total.
Von Bertalanffy se refiere a la causalidad por instigación a propósito del problema de la
centralización, una de las propiedades formales de todo sistema (ver Centralización). En la
centralización, una parte del sistema se constituye en parte conductora del todo, de forma tal
que, de ocurrir pequeños cambios en esas partes conductoras, los efectos en el sistema se
verán muy amplificados. Existen ecuaciones que permiten describir formalmente el
mecanismo de la causalidad por instigación.
iii. Críticas. El esquema de la causalidad unidireccional ha resultado insuficiente, y de aquí que
la ciencia moderna lo haya sustituido por nociones como totalidad, holismo, organismo,
gestalt, etc., que se refieren a elementos en mutua interacción. Si bien no lo admite
explícitamente, cabe suponer que von Bertalanffy aceptaría sólo la causalidad circular en la
medida que implica la idea de interacción mutua.
12. CENTRALIZACIÓN
Propiedad formal de los sistemas según la cual, a medida que estos evolucionan, ciertas
partes empiezan a constituirse en 'partes conductoras' que dirigirán las funciones de las
restantes, que quedan subordinadas a aquellas. La centralización progresiva, que resulta
particularmente importante en el caso de los sistemas vivos, constituye al mismo tiempo un
proceso de individualización progresiva (ver Individuo/Individualización).
La mecanización conduce a menudo al establecimiento de partes conductoras, esto es, de
componentes que dominan la conducta del sistema. Tales centros pueden ejercer un papel de
'disparadores amplificantes', es decir, una pequeña modificación en dichos centros ocasiona
grandes cambios en el sistema total. Lo esperable sería que pequeños cambios en la parte
conductora produjesen también pequeños cambios en el sistema (es lo que se llama 'causalidad
de conservación'), pero lo que suele ocurrir en la realidad es que pequeños cambios conducen a
grandes cambios (es lo que se denomina 'causalidad de instigación'): un cambio energéticamente
insignificante en la parte conductora provoca un cambio considerable en el sistema total.
Si bien cabe hablar de una centralización en sistemas físicos no vivientes (un átomo con el núcleo
como centro, el sistema solar con el sol como centro), von Bertalanffy hace hincapié en la
centralización progresiva en la evolución de los sistemas biológicos.
En estos, la centralización va progresando desde un comportamiento del sistema resultante de
las interacciones de partes equipotenciales, hasta otro donde se verifica a subordinación a partes
dominantes. En embriología, tales partes conductoras se llaman 'organizadores'.
El concepto de centralización está estrechamente enlazado al de individualización, toda vez que
un individuo es concebido por von Bertalanffy como un sistema centrado: a medida que en el
sistema vivo van adquiriendo predominio ciertas partes conductoras, el sistema vuelve a tener
mayores posibilidades de comportarse como una unidad, es decir, de constituirse en individuo.
Decimos 'vuelve' porque antes de la centralización y aún antes de la mecanización (por ejemplo
en el estado de huevo cigota), el sistema ya funcionaba como una unidad, pero indiferenciada.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
92
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
13. CIBERNÉTICA
Teoría de los sistemas de control basada en la transferencia de información entre sistema y
medio circundante, y, dentro del sistema, en el control del mismo por retroalimentación en
consideración al medio. Su creador, Norbert Wiener, la dio a conocer en 1948.
i.
Definición. Norbert Wiener (1894-1964) creó la cibernética como una nueva disciplina para
tratar una gran variedad de fenómenos de la naturaleza viviente y de los sistemas
tecnológicos que utilizan concretamente el mecanismo de la retroalimentación. La teoría
aspira a mostrar qué mecanismos retroalimentadores fundan el comportamiento teleológico o
intencionado de las máquinas construidas por el hombre, así como el de los seres vivos y los
sistemas sociales, para luego, en base a este conocimiento, poder controlar aquellas
máquinas y esos seres vivos y sistemas sociales. Podríamos entonces considerar a la
cibernética como la ciencia del control por retroalimentación (o por feed-back). Precisamente
la etimología del término 'cibernética' nos remite a 'kubernetes', que significa timonel, es decir
individuo que controla el rumbo de un proceso. La cibernética, basada en el principio de
retroalimentación o de líneas causales circulares, es un enfoque sistémico que proporciona
mecanismos para la persecusión de metas y el comportamiento autocontrolado.
ii.
Un ejemplo paradigmático. Durante la Segunda Guerra Mundial se había agudizado el
problema del tiro antiaéreo sobre un blanco móvil. En otras palabras, la cuestión era cómo
podía ir moviéndose adecuadamente un cañón para dispararle nada menos que a un avión en
movimiento. Si lo hacía un hombre manualmente, sus probabilidades de derribar el blanco
eran escasas, dada su poca velocidad de reflejos en comparación con la rapidez del avión, y
su poca velocidad de pensamiento para hacer los cálculos correspondientes de las
trayectorias del avión y la bala.
Se hizo necesario entonces construír dispositivos automáticos, es decir que se autorregularan
solos y con gran velocidad: pasado un instante breve de tiempo el avión, al moverse, ya
cambiaba de posición y había que cambiar la dirección del cañón. El dispositivo
autorregulado, por ejemplo, permitía mediante cálculos precisos y automáticos adelantar el
cañón sobre la marcha para derribar el blanco en el lugar y en el instante preciso. Tal
dispositivo funcionaba entonces mediante una retroalimentación eficaz.
Otros ejemplos de dispositivos tecnológicos con este tipo de autorregulación son por ejemplo
los termóstatos, que van corrigiendo sobre la marcha la cantidad de calor entregada al medio
en función de la temperatura de este último (si hay mucha temperatura bajan el calor, y si hay
poca lo suben). La importancia de estos sistemas de retroalimentación reside tal vez en que
sus principios valen tanto para los sistemas artificiales creados por el hombre como también
para los sistemas físicos, biológicos, económicos y sociales, a pesar de ser muy diversos en
cuanto a estructuras y contenidos. La cibernética, ha dicho Wiener, es 'el secreto de la vida',
es una llave que permite pasar del caos a los sistemas, artificiales o naturales, mediante una
organización que les posibilita comportamientos orientados hacia un propósito.
En todo sistema retroalimentado la información es fundamental, ya que el mecanismo
funciona bien si está la información correcta en el momento oportuno. Esa información debe
captarse mediante ciertos sensores como los radares (en el tiro asntiaéreo) o los termómetros
(en el caso del termóstato); luego debe realimentarse hacia los centros de control donde será
procesada con el fin de dar una respuesta, orden o señal que permitirá corregir el proceso
sobre la marcha.
iii. Reseña histórica. Antes del surgimiento oficial de la cibernética con Wiener en 1948, ya
investigadores como Wagner aplicaban el principio de la retroalimentación a los procesos
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
93
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
fisiológicos. Desde entonces, fue aplicado a innumerables fenómenos biológicos y, algo
menos persuasivamente, en psicología y ciencias sociales.
Llega 1948 y el matemático Norbert Wiener, estimulado por el problema del tiro antiaéreo y
por el fenómeno de retroalimentación en los seres vivos, y utilizando sus conocimientos sobre
teoría matemática del azar, junto con el fisiólogo A. Rosenblueth produce la obra "Cibernética
o el control y la comunicación en el animal y en la máquina", donde acuña el término en
cuestión. Desde entonces, la obra será la principal referencia filosófica y científica de la
cibernética.
Andando el tiempo, nuevas investigaciones sugirieron la necesidad de distinguir entre una
Primera Cibernética (correspondiente al planteo original de Wiener) y una Segunda
Cibernética, encargándose la primera del estudio de la retroalimentación negativa, y la
segunda de la retroalimentación positiva.
Los circuitos de retroalimentación negativa neutralizan las desviaciones, y por ello se llaman
también morfoestáticos. Por ejemplo: dos personas que discuten y poco a poco van calmando
los ánimos para retornar al equilibrio original.
Los circuitos de retroalimentación positiva, en cambio, amplifican las desviaciones, y por ello
se llaman también morfogenéticos. Por ejemplo: dos personas discuten cada vez más, con lo
que la situación se va alejando del equilibrio original, amplificándose las diferencias.
Afortunadamente el proceso no continúa indefinidamente porque en la realidad, los bucles
amplificadores siempre están articulados con bucles neutralizadores de la desviación (1).
iv. Relación de la cibernética con la TGS. La cibernética es uno de los varios enfoques de
sistemas posibles, es decir, como teoría de los mecanismos de control fundada en los
conceptos de información y retroalimentación, es sólo una parte de la TGS. Resumamos
algunas diferencias:
a.
Los sistemas cibernéticos son un caso especial -por importantes que sean- de los
sistemas que exhiben autorregulación, y se refieren específicamente a las regulaciones
secundarias, es decir, regulaciones basadas en mecanismos preestablecidos y caminos
fijos, como el control neurohormonal (ver Regulación).
La cibernética concibe al sistema como una 'caja negra' definida sólo por entradas y
salidas, permaneciendo el genuino mecanismo regulador desconocido. La TGS tiene una
visión más amplia, ya que además investiga estos íntimos mecanismos reguladores,
llamados regulaciones primarias (ver Regulación).
b.
Mientras la TGS trata de sistemas cerrados y abiertos, la cibernética trata sólo de
sistemas cerrados, ya que un sistema de retroalimentación es cerrado termodinámica y
cinéticamente. Desde ya, al estudiar sistemas cerrados considerará también las
características propias de este tipo de sistemas, como por ejemplo la idea de que en ellos
la información sólo puede disminuir, nunca aumentar como en los sistemas abiertos, y la
idea de que en ellos se puede alcanzar un grado superior de organización pero sólo
'reactivamente' (por aprendizaje), no 'activamente' como en los sistemas abiertos.
Notas
(1) Cfr. Maruyama Magoroh, "La segunda cibernética: procesos de causalidad recíproca amplificadores de la desviación", American
Scientist, Vol. 51, N°2, 1963, págs. 164-179.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
94
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
14. CIENCIA
Cuerpo organizado de conocimientos sobre sectores específicos de la realidad,
susceptibles de ser verificados empíricamente. El vocablo designa también la actividad
humana que construye, verifica y aplica este tipo de conocimiento. La TGS aspira a unificar
las diversas disciplinas científicas sobre la base del descubrimiento de isomorfismos y del
fomento de las actitudes interdisciplinarias.
i.
Clasificación de las ciencias. Existen innumerables clasificaciones de las ciencias. En el
presente apartado se considerarán aquellas que pueden tener mayor relevancia en un
contexto sistémico.
a.
Entre las clasificaciones más habituales de las ciencias, encontramos aquella que las
divide en ciencias formales (matemática, lógica) y ciencias fácticas o empíricas (física,
química, biología, psicología, sociología, etc.). Las primeras estudian entidades ideales
(números, relaciones lógicas), y las segundas estudian hechos (reacciones químicas,
seres vivos, conductas, etc.). Sin embargo, hoy en día tiende a predominar la idea de que
las ciencias formales no son en sí mismas ciencias porque no se proponen dar
explicaciones de los hechos, sino que constituyen herramientas o instrumentos de las
ciencias propiamente dichas, las fácticas. Así, un físico o un biólogo hace razonamientos
(la lógica es la herramienta), o expresa sus leyes en términos numéricos (la matemática
es la herramienta). Tal planteo puede ser denominado concepción instrumentalista de las
ciencias formales, y adscriben a ella autores como von Bertalanffy, cuando afirman que la
disciplina lógico-matemática es puramente formal en sí misma pero aplicable a las varias
ciencias empíricas. Este autor asigna el mismo status a su TGS, al sostener que, en
forma elaborada, no es más que una disciplina puramente formal, de naturaleza lógicomatemática pero aplicable a los dominios fácticos.
b.
Si circunscribimos las ciencias exclusivamente a las ciencias fácticas, estas pueden ser a
su vez clasificadas en dos grandes grupos: las ciencias naturales (física, química,
biología, etc.) y las ciencias sociales (psicología, sociología, historia, antropología,
lingüística, etc.). La diferencia entre ambas concierne a la diferencia que hay entre
naturaleza y cultura, entendiendo por esta última, en general, como todo aquello que
produce el hombre con alguna finalidad. Las ciencias naturales estudian hechos y
situaciones que ocurren en la naturaleza sin que para ello sea necesaria la intervención
humana, mientras que las ciencias sociales estudian los fenómenos culturales,
producidos específicamente por el hombre. Un jarrón chino es al mismo tiempo un objeto
natural por estar constituido por átomos y moléculas, y es un objeto cultural por estar
fabricado por el hombre, y lo mismo podemos decir de muchas otras cosas como el
comportamiento, que tiene una base biológica pero es al mismo tiempo algo que el
hombre produce o genera. Von Bertalanffy utiliza este tipo de clasificación de las
ciencias, así como también menciona los dos siguientes.
c.
Suelen también diferenciarse las ciencias nomotéticas ('nomos' significa ley) de las
ciencias ideográficas. Las primeras buscan establecer leyes basadas en el hecho de que
los acontecimientos naturales son repetibles y recurrentes. Todos los fenómenos de
caída de objetos pueden ser muy diversos entre sí, pero todos quedan subsumidos
(incluidos) dentro de la ley de la gravitación universal. Si las ciencias nomotéticas pueden
asimilarse a las ciencias naturales de la clasificación anterior, las ciencias ideográficas se
asimilan más bien a las ciencias sociales, especialmente a la historia. Hay historiadores,
en efecto, que conciben al hecho histórico como único e irrepetible, y por lo tanto tiene su
propia y particular explicación, no pudiendo todos ellos ser explicados mediante leyes
generales. Para estos historiadores la ciencia es una narración descriptiva de una serie
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
95
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
de acontecimientos que, al tener cada uno su propia explicación, se encuentran
desconectados entre sí en cuanto a que no hay leyes que permiten explicar el conjunto.
Von Bertalanffy no comparte este punto de vista, por cuanto para él el proceso histórico
no es completamente accidental sino que sigue regularidades o leyes que pueden ser
determinadas, coincidiendo en este sentido con varios otros historiadores como Hegel,
Marx, Spengler, Toynbee, etc. Pero, a diferencia de estos, propondrá una 'historia teórica'
basada en los planteos de la TGS.
En suma, von Bertalanffy considerará 'ciencia' a toda empresa nomotética, es decir, no
como descripción de singularidades sino como ordenación de hechos y elaboración de
generalidades.
d.
La ciencia puede también clasificarse como ciencia pura o básica, y ciencia aplicada o
tecnología. La primera se ocupa del descubrimiento de nuevos hechos, y de la invención
y verificación de hipótesis y teorías, siendo su propósito primordial la explicación de los
acontecimientos del mundo más allá de si pueden o no tener una aplicación práctica
inmediata. La tecnología, en cambio, se preocupa especialmente por aplicar los
conocimientos así obtenidos a la realidad, con el fin de controlarla y transformarla, sea
con fines bélicos o pacíficos, y según uno u otro parámetro ético. Indica von Bertalanffy
que conocemos demasiado bien las fuerzas físicas, las biológicas medianamente, y las
sociales en absoluto, con lo cual las correspondientes tecnologías están muy
desarrolladas en la física, medianamente en la biología y nada en la sociología. Si
dispusiéramos de una ciencia básica de la sociedad humana bien desarrollada y de su
correspondiente tecnología, del pensamiento de von Bertalanffy se puede inferir que
todas las otras tecnologías podrían direccionarse hacia una ética del respeto y
solidaridad, ya que, se supone, un conocimiento de la naturaleza social del hombre
podrían develarnos los secretos de su comportamiento violento.
Cada ciencia básica tiene su correspondiente ciencia aplicada: la biología corresponde
por ejemplo a la medicina, la física a la ingeniería, etc. Asimismo, campos de aplicación
de la biología y la psicología son por ejemplo la psiquiatría, de la química la merceología,
etc.
e.
Históricamente, von Bertalanffy distingue una ciencia clásica y una ciencia moderna. Las
primeras carecen de un enfoque sistémico, y las segundas los han incorporado. La
ciencia clásica es esencialmente analítica: resuelve los fenómenos en encadenamientos
causales aislables, emprende la búsqueda de unidades 'atómicas' en los varios campos
de la ciencia, etc. Estos principios clásicos, que vienen enunciándose desde Galileo y
Descartes, han tenido un éxito espléndido en variados campos de fenómenos, pero
advierte von Bertalanffy que la aplicación de estos procedimientos analíticos exige dos
condiciones:
•
no deben existir interacciones entre las partes, o bien que sean tan débiles como para
no considerarlas en las investigaciones. Sólo con esta condición se pueden aislar las
partes (real, lógica y matemáticamente) y luego volverlas a juntar.
•
las relaciones entre las partes deben ser lineales; sólo así queda satisfecha la
condición de la aditividad, en el sentido de que los procesos parciales pueden
sumarse entre sí para obtener y explicar el proceso total.
La ciencia moderna no es analítica en el sentido anterior, sino sistémica, porque ninguna
de las dos condiciones mencionadas las cumplen las entidades llamadas 'sistemas': las
interacciones entre las partes no son despreciables sino fundamentales, y la simple suma
de las partes no explican el comportamiento del todo. Sin embargo, en la ciencia
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
96
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
moderna subsiste aún la excesiva especialización que hace que el físico, el biólogo, el
psicólogo y el científico social estén encapsulados en universos privados, sin posibilidad
de una comunicación fecunda entre esos compartimientos, por estudiar 'cosas diferentes'.
Precisamente, señala von Bertalanffy, la adopción del punto de vista de la TGS permitirá
la unificación de las ciencias a partir de un lenguaje y de un conjunto de ideas en común,
tal como la idea de sistema, lo cual nos lleva al problema de la unidad de la ciencia.
ii.
Unidad de la ciencia. Para von Bertalanffy, la unificación de las ciencias no pasa por una
solución reduccionista, donde se reducen todos los niveles de la realidad al nivel físico (y por
ende todas las ciencias a la física), sino por una solución más realista que implica unificar las
ciencias sobre la base de un isomorfismo de las leyes en las diferentes ciencias particulares
(ver Isomorfismo y Perspectivismo). Así, el hecho de que ciertos principios se apliquen a
los sistemas en general sin importar la naturaleza de los mismos ni las entidades que se se
trate, explica que aparezcan en diferentes campos de la ciencia concepciones y leyes que se
corresponden, provocando el notable paralelismo que hay en su desarrollo moderno, así
como la tendencia cada vez más creciente hacia las investigaciones interdisciplinarias.
15. CIENCIA DE LOS SISTEMAS
1. La ciencia de los sistemas se ocupa de la exploración y la explicación científicas de los
'sistemas' de las varias ciencias (física, química, biología, ciencias sociales...), mediante
los principios de la TGS en sentido amplio como doctrina aplicable a todos los sistemas
(XIII).
2. La ciencia de los sistemas constituye el correlato en ciencia aplicada de la TGS en
sentido amplio, teniendo esta última en cambio, el carácter de ciencia básica.
Von Bertalanffy asigna dos sentidos a la expresión 'ciencia de los sistemas'. La primera hace
hincapié en el estudio de los sistemas naturales, y la segunda en la construcción y aplicación de
los sistemas creados por el hombre (máquinas).
i.
Desde el punto de vista del Estudio de los Sistemas Naturales. La Ciencia de los
sistemas es uno de los tres aspectos principales de TGS en sentido amplio, junto a la
Tecnología de los sistemas y la Filosofía de los Sistemas (ver Teoría General de los
Sistemas). Su objetivo es explorar los numerosos sistemas de nuestro universo observado,
basándose en los principios generales de la TGS, vale decir, los diferentes sistemas que
aparecen en las ciencias particulares como la biología, la psicología, etc., para lo cual no sólo
examina las propiedades generales y comunes de todos los sistemas (isomorfismo) sino
también explora las especificidades propias de cada tipo de sistema en particular.
El desarrollo de la ciencia de los sistemas, en cualquiera de los dos sentidos de esta
expresión, está emparentado con el desarrollo de los diferentes enfoques de sistemas (ver
Enfoques de Sistemas).
ii.
Desde el punto de vista de la construcción y aplicación de sistemas creados por el
hombre. La Ciencia de los sistemas se ocupa sobretodo, aunque no únicamente, de la
aplicación práctica de los principios generales de la TGS a la construcción y manejo de
sistemas artificiales. Desde esta perspectiva, la ciencia de los sistemas incluye los siguientes
campos:
a.
Ingeniería de sistemas. Se ocupa de la concepción, planeamiento, evaluación y
construcción científicos de sistemas hombre-máquina. A tal efecto recurre a la
cibernética, a la teoría de la información y a la TGS en sentido estricto.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
97
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
b.
Investigación de operaciones. Se ocupa del control científico de sistemas existentes de
hombres, máquinas, materiales, dinero, etc., y utiliza instrumentos como la programación
lineal y la teoría de los juegos. El interés de la investigación de operaciones reside, al
igual que en el caso de la ingeniería de sistemas, en que pueden analizarse entidades
cuyos componentes son de los más heterogéneos, como hombres, máquinas, edificios,
valores monetarios, insumos de materia prima, salida de productos, etc.
c.
Ingeniería humana. Estudia la adaptación científica de sistemas, y especialmente
máquinas, con objeto de obtener una máxima eficiencia con un mínimo costo. Así, se
ocupa de las capacidades, limitaciones fisiológicas y variabilidad de los seres humanos, e
incluye en su arsenal biomecánica, ingeniería psicológica, factores humanos, etc.
16. COMPETENCIA
Propiedad formal de los sistemas según la cual sus elementos componentes procuran
captar para sí los recursos disponibles a expensas o en detrimento de los otros
componentes. La idea de vincula con expresiones tales como 'lucha por la existencia',
'lucha entre partes', etc., y en última instancia revelan la estructura de la realidad como
'coincidentia oppositorum'.
La competencia es observable en diferentes tipos de sistemas abiertos:
i.
Dentro del organismo viviente, se establece una competencia entre sus diversos órganos por
los recursos disponibles en el mismo. Esto determinará el fenómeno del crecimiento relativo,
es decir, el hecho de que los diversos órganos crezcan con diferentes ritmos. Si un órgano
cualquiera recibe una mayor participación energética crecerá más rápido que otro, que habrá
recibido una menor participación de la energía ingresada al organismo, con lo cual ambos
crecerán a ritmos diferentes.
Los ritmos relativos de crecimiento guardan una razón constante durante la vida, o durante
cierto ciclo vital, expresable matemáticamente mediante ecuaciones alométricas.
ii.
La situación se complica si consideramos interacciones entre las partes del sistema, como
ocurre típicamente en dos casos:
a.
cuando dos especies luchan entre sí por los mismos recursos, en cuyo caso esta
competencia desemboca en el exterminio de la especie con menor capacidad de
crecimiento;
b.
cuando una especie predadora y su presa interactúan entre sí, competencia que es
menos fatal que la anterior ya que el proceso no termina cuando una es aniquilada sino
que conduce a una oscilación periódica en la cantidad de individuos de cada una, en
torno a un valor medio. Estos fenómenos pueden analizarse cuantitativamente mediante
las ecuaciones de Volterra.
Hay aún otros ejemplos, como el estudio desde el punto de vista de la competencia de
las poblaciones de peces, a los efectos de determinar en qué época es mejor pescar
porque habrá más peces, o también el estudio de la carrera armamentista entre naciones.
Finalmente, y como punto de interés mas bien filosófico, puede parecer paradójico el hecho de
que, si los sistemas constituyen totalidades o unidades, pueda haber oposiciones y competencia
entre sus partes. Para von Bertalanffy no hay tal paradoja, siendo la competencia una expresión
más de la organización de los sistemas y, en última instancia, de la estructura de la realidad.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
98
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
17. COMPORTAMIENTO
Aunque no establece explícitamente una definición de este término, von Bertalanffy
menciona en su libro una serie de teorías alternativas sobre el comportamiento de
sistemas, máquinas, etc., pero especialmente de animales, hombres y masas. Establece
algunas diferencias entre dichas teorías y entre esos tipos de comportamiento, y en última
instancia propondrá una teoría unificada de la conducta humana, fundada sobre los
principios de la TGS.
i.
Teorías del comportamiento. La tendencia dominante en el texto de von Bertalanffy es la de
dividir estas teorías en dos grupos principales. Primero, aquellas que no son encuadrables
dentro del paradigma sistémico y que fueron superadas por éste, y que el autor engloba bajo
la denominación de teorías del robot, o teorías del hombre-robot, Segundo, las teorías
sistémicas.
a.
Teoría del robot. Este modelo explica la conducta mediante el esquema mecanicista E-R
(estímulo-respuesta). El condicionamiento, de acuerdo con lo experimentado con
animales, aparece como el fundamento de la conducta humana. Las teorías del hombrerobot suelen fundarse en cuatro principios: estímulo-respuesta, ambientalismo, economía
y equilibrio (ver los respectivos artículos). Sumariamente, se puede decir que estas
teorías consideran como esquema básico y universal del comportamiento la respuesta a
estímulos, la reducción de tensiones, el restablecimiento de un equilibrio perturbado por
factores externos, y el ajuste al medio.
El modelo del hombre como robot ha sido inherente a todos los campos de la psicología y
la sicopatología, y engloba teorías a veces hasta antagónicas entre sí: la teoría E-R del
comportamiento, la teoría cognoscitiva que ha sido llamada el "dogma de la inmaculada
percepción", teorías del aprendizaje (pavlovianas, skinnerianas, etc.), conductismo,
psicoanálisis, el modelo cibernético en neurofisiología y psicología (es decir, la
concepción del cerebro como una computadora), etc. El modelo del hombre-robot fue la
expresión y la fuerza impulsora de una sociedad mecanizada y comercializada que ayudó
a hacer de la psicología la sirvienta de intereses pecuniarios y políticos. La meta de la
psicología manipuladora buscaba hacer de los humanos individuos lo más parecidos a
robots o autómatas, lo que se conseguía mediante aprendizaje mecanizado, técnicas de
propaganda, investigación de motivaciones y lavado de cerebro.
Si bien estas teorías describen correctamente buena parte de la conducta humana, se
convierten en espurias en cuanto pretenden constituirse en la 'única' explicación para la
misma. Además, dejan de lado una amplia gama de comportamientos que, desde aquel
modelo estrecho, no pueden ser explicados adecuadamente.
Para el modelo del robot, el hombre es un ser ante todo reactivo: sus conductas son el
producto de determinada estimulación, y tal concepción dominó casi toda la psicología
norteamericana de la primera mitad de este siglo, además de haber dominado otras
disciplinas como el psicoanálisis y la teoría de Pavlov, de origen europeo.
La psicología de la gestalt fue la primera en enfrentarse a este esquema mecanicista
hacia la década del '30, y a partir de allí se fueron dando nuevos cambios de perspectiva
hasta el surgimiento del paradigma sistémico.
b.
Modelo sistémico. Surge hacia la mitad de nuestro siglo XX ante la necesidad de dar
una imagen del hombre más satisfactoria, fundada sobre la idea de sistema, y que dio
lugar a la configuración de una 'teoría unificada del comportamiento'.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
99
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Si bien fue en psiquiatría donde más decididamente se han adoptado estos planteos,
numerosos ejemplos de nuevas corrientes psicológicas y psicopatológicas expresaron
estas nuevas tendencias: las diversas escuelas neofreudianas, la psicología del yo, las
teorías de la personalidad (Murray, Allport), la psicología europea del desarrollo del niño
(Piaget, Werner, Bühler), el 'new look' en percepción, la autorrealización (Goldstein,
Maslow), la terapia centrada en el cliente (Rogers), las actitudes fenomenológicas y
existenciales, los conceptos sociológicos del hombre (Sorokin), etc., y también la obra de
pensadores como Anderson, Arieti, Brunswik, Lennard y Berstein, Menninger, Miller y
tantos otros.
Casi todos ellos se han referido a la TGS o a una parte de ella, es decir, han renunciado
a considerar al hombre como un autómata reactivo o un robot, y empezaron a
considerarlo más en términos de un 'sistema activo de personalidad'.
Esto implicó una orientación holista en psicología. Antes solían reducirse los
acontecimientos mentales a un manojo de sensaciones, pulsiones, reacciones innatas o
aprendidas, o cualesquiera elementos últimos fuesen presupuestos teóricamente. En
contraste, el concepto de sistema procura estudiar al organismo psicofisiológico con un
todo, como puede apreciarse en las nuevas corrientes organísmicas y humanísticas, que
han puesto en énfasis en el lado creador del hombre, en la importancia de las diferencias
individuales, en aspectos que no son utilitarios y que están más allá de los valores
biológicos de subsistencia y supervivencia.
ii.
Tipos de comportamiento. Mencionaremos en este apartado algunas clasificaciones del
comportamiento que establece von Bertalanffy en su texto básico.
a.
Comportamiento animal y comportamiento
significativas son las siguientes:
humano.
Sus
diferencias
más
1.
Por paradójico que pueda resultar, los animales actúan bajo el principio de
racionalidad, es decir, funcionan de modo 'raciomorfo', maximizando valores como la
preservación, la satisfacción, la supervivencia, etc., y escogiendo en general lo que
es biológicamente bueno para ellos. Prefieren más cantidad de un bien (por ejemplo
comida), que menos. El ser humano en cambio no sigue este criterio. Así por ejemplo
las mujeres en el supermercado no suelen maximizar su provecho y caen bajo la
influencia de la publicidad; no hacen una elección racional revisando todas las
posibilidades y consecuencias, y ni siquiera prefieren más cantidad de un producto
envuelto discretamente que menos de lo mismo, pero metido en una gran caja roja
con un dibujo atractivo. Existen en la sociedad ciertos especialistas influyentes
(publicistas, etc.) que se ocupan de hacer 'irracionales' las elecciones, sobretodo
acoplando factores biológicos (reflejos condicionados, pulsiones inconcientes) a
valores simbólicos.
2.
Una segunda diferencia guarda relación con el carácter finalista del comportamiento.
Tanto en los animales como en los humanos, como sistemas abiertos que son, su
conducta está regida por la equifinalidad (ver Equifinalidad), pero en el caso
especial del hombre existe, además, lo que se llama intencionalidad, idea que
presupone que la meta futura de la conducta está ya presente en el pensamiento y
que está dirigiendo la acción presente. La verdadera intencionalidad es característica
del comportamiento humano y está vinculada con la evolución del simbolismo del
lenguaje y los conceptos.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
100
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
b.
Comportamiento de máquinas y comportamiento de seres vivos. Tanto las máquinas
construidas por el hombre como los seres vivos basan su comportamiento en
mecanismos homeostáticos y retroalimentadores. En el caso de los seres vivos a ello hay
que agregar también la equifinalidad, y, en el caso especial del ser humano, además la
intencionalidad. Retroalimentación, equifinalidad e intencionalidad son principios que
rigen el carácter finalista de los comportamientos, con las diferencias antes apuntadas
(ver Finalidad).
c.
Comportamiento individual y comportamiento de masas. Von Bertalanffy deja
entrever que el primero está fundado en el libre albedrío, mientras que sobre el segundo
parecen actuar fuerzas que operan más allá de la voluntad de sus miembros. Al tener
características diferentes, resultan abordables desde distintos enfoques de sistemas.
Para el comportamiento de masas se aplicarían leyes de sistemas que, si pudieran ser
matematizadas, tendrían la forma de un cierto tipo de ecuaciones diferenciales. En
contraste, la libre elección por el individuo quedaría descripta por formulaciones de la
índole de la teoría de los juegos y la teoría de la decisión.
d.
Comportamiento molecular y comportamiento molar. Resultan más bien formas de
estudiar el comportamiento, según una terminología clásica. La conducta molecular es
cada uno de los segmentos de comportamiento analizado dentro de un todo complejo,
como por ejemplo una reacción química en un organismo, una percepción en el
psiquismo, etc. La conducta molar, en cambio, resulta de buscar leyes de conjunto que
gobiernen la totalidad.
e.
Comportamiento de conjunto y comportamiento sumativo. En el marco de su
discusión de la segregación progresiva, que es una de las propiedades formales de los
sistemas, von Bertalanffy distingue el comportamiento de conjunto y el comportamiento
sumativo, sustentados por la concepción unitaria y elementalista de la conducta,
respectivamente.
Ambos tipos de comportamiento suelen concebírselos como contrapuestos, pero en
realidad evolutivamente en cada organismo se va dando una transición gradual desde un
comportamiento de conjunto hacia un comportamiento sumativo, según y conforme el
principio de segregación progresiva o diferenciación. Así, en los primeros tiempos de vida
el organismo realiza acciones de cuerpo entero o de grandes regiones (comportamiento
de conjunto) y luego poco a poco va adoptando conductas más definidas, específicas,
localizadas y especializadas, de forma tal que todo el comportamiento resulta de
considerar conjuntamente estas conductas aisladas que tienen funciones independientes
(comportamiento sumativo). Otro tanto ocurre en las estructuras sociales: las
comunidades primitivas son mas bien totalidades indiferenciadas, mientras que en una
comunidad altamente diferenciada cada miembro tiene una actividad bien definida y
especializada.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
101
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
18. CRECIMIENTO
Propiedad formal de los sistemas según la cual el número de sus elementos presentes
variará a lo largo del tiempo. El crecimiento puede ser positivo o negativo, según que
aumente o disminuya dicho número. Esta propiedad ha sido estudiada en forma especial
por von Bertalanffy en los sistemas biológicos, donde elaboró un modelo de crecimiento
que lleva su nombre.
i.
Ecuaciones de crecimiento. Existen en matemática cierto tipo de ecuaciones que, por ser
aplicables a situaciones empíricas donde se verifica crecimiento, son llamadas ecuaciones de
crecimiento. La identidad formal de distintas leyes en diferentes territorios (biología,
demografía, economía, etc.) respecto de las ecuaciones generales de crecimiento contribuye
a justificar una TGS o, en otras palabras, a mostrar la presencia de uniformidades formales en
la naturaleza. En efecto, diferentes leyes de distintos territorios tienen en realidad la misma
forma (identidad formal) o si se quiere pueden representarse mediante las mismas curvas de
crecimiento.
Dos de estas leyes, expresables en términos de ecuaciones, son la ley exponencial y la ley
logística. Ellas expresan las formas más sencillas de crecimiento en función del tiempo
transcurrido, razón por la cual se prestan mejor a exhibir el isomorfismo o correspondencia
entre leyes en diferentes campos. Prescindiremos aquí de las notaciones matemáticas,
formulando una apreciación intuitiva de las mismas utilizando ejemplos prácticos y gráficos de
curvas.
a.
Ley exponencial. Ley según la cual el crecimiento de un sistema es exponencial. El
crecimiento puede ser positivo si el número de elementos aumenta con el tiempo, o
negativo si decrece con el tiempo, pero en ambos casos en forma exponencial. Por
ejemplo, para un caso simple de crecimiento positivo, al cabo de 1 segundo, puede haber
2 elementos, al cabo de 2 segundos habrá 4 elementos, al cabo de 3 segundos habrá 8
elementos, y así sucesivamente, todo lo cual puede representarse mediante el tipo de
curva exponencial para crecimiento positivo. Del mismo modo, hay una curva exponencial
para crecimiento negativo, que sigue las mismas pautas que la anterior, pero a la inversa.
Ámbitos de aplicación de la ley exponencial de crecimiento positivo: El aumento del
capital por interés compuesto; el crecimiento individual de ciertas bacterias y animales;
multiplicación sin restricciones de poblaciones vegetales o vegetales, siendo el caso más
sencillo la multiplicación de bacterias al dividirse cada individuo en dos, que dan cuatro,
etc.; la ley de Malthus del crecimiento ilimitado de una población cuya tasa de natalidad
es superior a la de mortalidad; el aumento del conocimiento humano medido en páginas
de texto dedicadas a descubrimientos científicos, etc.
Ámbitos de aplicación de la ley exponencial de crecimiento negativo: desintegración
radiactiva; descomposición de un compuesto químico por reacción monomolecular;
exterminio de bacterias por radiación o veneno; pérdida de sustancia corporal por hambre
en un organismo multicelular; ritmo de extinción de una población donde la tasa de
mortalidad supera la de natalidad, etc.
b.
Ley logística. Expresa ciertos tipos especiales de crecimiento donde, por más que pase
el tiempo, sólo se llega a alcanzar un valor máximo en cuanto al número de elementos
que pueden aparecer. Por ejemplo, la ley de Verhulst describe el crecimiento de
poblaciones humanas con recursos limitados: si la población tiene alimentos hasta cierta
cantidad, no puede crecer más de un número máximo de habitantes, porque para todos
no alcanzará el alimento y comenzarán a morirse. Si vemos la curva correspondiente, en
un primer momento la población aumenta, pero luego de un tiempo se estabiliza
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
102
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
alrededor de una cantidad máxima de personas. Otro ejemplo: en química, la curva
logística también describe adecuadamente una reacción auto catalítica, o sea una
reacción donde un producto formado acelera su propia producción.
ii.
Modelos de crecimiento biológico. En el texto de von Bertalanffy se describen dos modelos
relacionados con la propiedad formal del crecimiento de los sistemas: el modelo alométrico, y
el modelo del crecimiento animal de von Bertalanffy y otros.
Este último autor describe con cierto detalle los resultados experimentales obtenidos de la
aplicación de estos modelos, con el fin de ilustrar, en última instancia, la necesidad de una
TGS. En efecto, las características fundamentales de la vida tales como el metabolismo, el
crecimiento, el desarrollo, la autorregulación, la irritabilidad, la actividad espontánea, etc.,
pueden a fin de cuentas considerarse consecuencias del hecho de que el organismo es un
sistema abierto. Una teoría de tales sistemas abiertos, pues, sería un principio unificador
capaz de combinar fenómenos tan diversos y heterogéneos como los indicados bajo el mismo
concepto general, y de derivar leyes cuantitativas. Cabe aún una generalización más amplia,
pues la teoría de los sistemas abiertos formaría parte de otra más general, llamada TGS, que
incluiría los sistemas abiertos y los cerrados, es decir, sus principios serían aplicables a
sistemas en general, más allá de la naturaleza de sus componentes y las fuerzas que los
gobiernen.
Los modelos alométrico y de von Bertalanffy en este contexto apuntan, específicamente, a
establecer leyes cuantitativas que permitan relacionar dos de las características de la vida: el
crecimiento y el metabolismo, y a mostrar que ambos procesos son interdependientes y se
encuentran armonizados de forma tal que permiten que el organismo se mantenga vivo, es
decir, que se mantenga en el llamado estado uniforme, típico de los sistemas abiertos.
Veamos entonces sucintamente cómo estos modelos relacionan crecimiento con
metabolismo, aclarando previamente que el crecimiento puede medirse en términos de
variación de peso, de superficie corporal, de volumen, etc., y que el metabolismo puede
medirse en términos de balance entre procesos anabólicos (formadores de materia) y
catabólicos (destructores de materia).
Puede suponerse que el crecimiento se basa en el balance entre procesos anabólicos y
procesos catabólicos. En el organismo están ocurriendo continuamente ambos, aunque en
diferente proporción: cuando predomina la formación sobre la destrucción, decimos que el
organismo tiene crecimiento positivo; después, ambos procesos de igualan (el crecimiento se
detiene), y finalmente predomina el catabolismo sobre el anabolismo, con lo cual se produce
crecimiento negativo.
El crecimiento es a su vez medible como peso, superficie, etc. Veamos entonces algunos
ejemplos, teniendo presente que las ecuaciones alométricas pueden aplicarse tanto a
crecimientos que siguen la curva exponencial, como la logística, la parabólica y otras.
a.
Hay una relación cuantitativa entre el metabolismo basal (un indicador de metabolismo) y
el peso corporal (un indicador de crecimiento). Por ejemplo para las larvas de insectos y
caracoles, la relación es 1:1, es decir, cuando el metabolismo basal aumenta una unidad,
el peso corporal lo hace en la misma proporción. Se toma como medida el metabolismo
basal porque al ser éste el metabolismo del ser vivo en reposo, se supone que es el que
más se acerca a las condiciones naturales de crecimiento.
b.
También se verifica en muchos animales una relación cuantitativa entre el metabolismo
basal y la superficie corporal, aunque la relación no es de 1:1 como en el caso anterior.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
103
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
c.
También puede establecerse una relación cuantitativa entre el crecimiento y el tiempo
transcurrido. Un ejemplo artificial sería el siguiente: cada día la cola de las ratas blancas
crece dos centímetros. La relación, en la realidad, no es tan sencilla: no se representa
mediante una simple recta sino que sigue una curva logística.
En este tercer ejemplo se relacionó el crecimiento con el tiempo y no directamente con el
metabolismo por ser el tiempo una medida importante para describir fenómenos en los
seres vivos en cuanto puede correlacionarse con otras muchas características vitales,
incluyendo el metabolismo, el desarrollo, etc.
d.
En muchos organismos, el catabolismo es proporcional
anabolismo es proporcional a la superficie, por ejemplo, a
cuanto más superficie intestinal haya más alimentos
metabolismo, y consecuentemente más formación de
(anabolismo).
al peso del cuerpo, y el
la superficie intestinal. Así,
se pueden incorporar al
sustancias nuevas habrá
Finalmente, debe tenerse presente que pueden darse variaciones de la relación entre
tamaño corporal y tasa metabólica
1.
en diferentes tejidos o en diferentes especies,
2.
a causa de cambios en las condiciones fisiológicas, y
3.
en virtud de diferentes planes experimentales.
Entre las condiciones que alteran esta relación hay factores como las actividades
fisiológicas, el sexo, la estación, la aclimatación previa, etc.
En general, la ecuación alométrica se aplica a diversos fenómenos biológicos, entre ellos el
del crecimiento. Dicha ecuación expresa que determinada característica A puede ser
expresada como función exponencial de otra característica B. El ejemplo puede ser la
morfogénesis (es decir, el desarrollo de los diversos órganos del cuerpo): la longitud o el peso
de un determinado órgano, (característica A), es en general función alométrica del tamaño
de otro órgano o de la longitud o el pesos totales del organismo en cuestión (característica
B).
19. DIFERENCIACIÓN
Proceso manifestable en los sistemas vivientes y que consiste en una transformación
progresiva desde una condición más general y homogénea, hasta otra más especial o
heterogénea. Consiguientemente, esta idea está directamente vinculada con las de
segregación y especialización.
i.
Concepto. La diferenciación implica que en el todo original van apareciendo partes
'diferentes' entre sí, es decir partes que se van especializando en ciertas funciones. La
organización de las totalidades biológicas está constituida por diferenciación de un todo
original que se segrega o separa en partes. De esta forma, diferenciación, especialización y
segregación son proceso paralelos, y dan lugar a la mecanización y a la centralización
(véanse estos conceptos).
El principio de diferenciación es aplicable a sistemas biológicos, psicológicos y culturales.
Werner sostuvo, por ejemplo, que las funciones mentales suelen progresar desde un estado
sincrético donde percepciones, motivaciones, sensaciones, imaginación, símbolos, etc.,
constituyen una unidad amorfa, hacia una distinción más clara de estas funciones.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
104
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
ii.
Ejemplos. En la percepción, el estado primitivo parece ser la sinestesia, del cual se van
deslindando experiencias visuales, auditivas, táctiles, químicas y otras. En el comportamiento
animal y buena parte del humano hay al principio de todo una unidad perceptivo-emotivomotivacional indiferenciada, y los objetos percibidos sin armónicos emotivo-motivacionales
son un logro tardío del hombre maduro civilizado.
Respecto de la evolución del pensamiento y el lenguaje, se supone que originalmente fueron
'holofrásticos', es decir, eran enunciados y pensamientos con una amplia gama de
asociaciones, y sólo después ocurrió la separación de los significados y, consecuentemente,
la separación del lenguaje en palabras (lenguaje articulado).
Similarmente, las categorías de la vida mental desarrollada, que implica la distinción entre yo
y objetos, espacio, tiempo, número, causalidad, etc., evolucionaron a partir de un continuo
perceptivo-conceptual-motivacional representado por la percepción 'paleológica' de niños,
primitivos y esquizofrénicos. De modo similar y respecto del desarrollo de la cultura, el mito
fue el original caos prolífico a partir del cual se diferenciaron lenguaje, magia, arte, ciencia,
medicina, moral y religión.
20. ECOLOGÍA
Ciencia que estudia las relaciones de los seres vivos con su entorno o ambiente. Se trata
de otra disciplina más susceptible de ser encarada bajo el punto de vista sistémico, por
cuanto los ecosistemas poseen propiedades de los sistemas abiertos.
i.
Generalidades. La unidad funcional de estudio en ecología es el ecosistema, que incluye no
solamente un medio físico y todos los organismos que viven en él, sino también sus mutuas
relaciones, de forma tal de cualquier especie biológica puede ser estudiada en su relación con
el entorno físico, pero también con las restantes especies vivas que, desde ya, forman parte
también de su entorno.
En los últimos tiempos, y como consecuencia de las nefastas influencias que ejerce la
actividad humana sobre su entorno, la ecología ha concentrado sus investigaciones
particularmente en el estudio de las relaciones de la especie humana con su medio y sus
influencias recíprocas.
Este estudio de la totalidad de los seres vivos y su medio requiere el auxilio de otras
disciplinas como la geografía, la geología, la etología, la fisiología, la bioquímica, la
meteorología y la demografía, entre otras.
ii.
Ecología y TGS. La ecología se presta especialmente a estudios enfocados sistémicamente,
que parecen ofrecer un nuevo y fértil punto de vista. Los ecosistemas, las poblaciones, etc.,
constituyen sistemas abiertos, ya que poseen propiedades como por ejemplo la equifinalidad.
Así por ejemplo, autores como Whittacker señalan que, el hecho de que se generen
comunidades vegetales iguales a partir de vegetaciones iniciales diferentes constituye un
notorio ejemplo de equifinalidad. Patten, por su parte, ha expuesto un análisis cuantitativo
sobre la base de sistemas abiertos en términos de producción de biomasa con culminación
hacia un estado uniforme.
Sin embargo, es aún difícil elaborar modelos matemáticos en ecología. La teoría ecológica de
los equilibrios biológicos es un campo muy desarrollado dentro de la biología matemática y es
a grandes rasgos correcta, pero no obstante no es fácil aplicarla porque los parámetros
escogidos, tales como los ritmos de generación y destrucción, y otros, no son fáciles de medir.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
105
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Por ello debemos conformarnos con una explicación 'en principio', argumentación cualitativa
que, con todo, no deja de tener consecuencias significativas.
21. ECONOMÍA, PRINCIPIO
Principio según el cual todo comportamiento es utilitario, y por tanto debe ser realizado con
el mínimo gasto energético posible, o con el gasto mínimo como para sobrevivir. Según von
Bertalanffy, es uno de los cuatro principios que fundan las teorías psicológicas del hombrerobot.
En la práctica, el principio económico equivale al postulado de las demandas mínimas. Por
ejemplo, las exigencias escolares deberían reducirse al mínimo necesario para que el aprendizaje
sea eficaz y el educando llegue a ser un buen ejecutivo, ingeniero electrónico o fontanero, ya que
de otra manera se 'tuerce' la personalidad, se crean tensiones y se genera un ser desdichado.
El principio de economía es insostenible. Psicológicamente, el comportamiento no sólo tiende a
aflojar tensiones sino también a establecerlas; si esto se detiene, el paciente se vuelve un cadáver
mental en descomposición, lo mismo que un organismo vivo se vuelve cuerpo putrefacto cuando
se interrumpen las tensiones y fuerzas que lo apartan del equilibrio.
Hay una extensa gama de comportamientos que no puede reducirse a principios utilitarios de
adaptación del individuo o supervivencia de la especie, como por ejemplo las diversas
manifestaciones de la cultura (pintura, escultura, etc.). A la luz de esta crítica también debería
reevaluarse el principio del stress: el stress no es sólo un recurso defensivo y adaptativo, sino que
también crea vida superior. Si, luego de ser perturbada desde afuera, la vida volviera a su
equilibrio homeostático habitual, nunca habría progresado más allá de la ameba.
Los restantes tres principios que fundan la psicología del hombre-robot son el principio de
estímulo-respuesta, el principio del ambientalismo y el principio del equilibrio.
22. ENFOQUES DE SISTEMAS
Los enfoques de sistemas constituyen un conjunto heterogéneo de tendencias y modelos
tanto mecanicistas como organísmicos de tratan de dominar los sistemas ora por 'análisis',
'causalidad lineal' (incluyendo la circular), 'autómatas', etc., ora merced a 'totalidad',
'interacción', 'dinámica', etc.
Ejemplos: la teoría clásica de los sistemas (o TGS en sentido estricto), la cibernética, la
computarización y simulación, la teoría de la información, la teoría de los autómatas, la teoría de
los juegos, la teoría de la decisión, la teoría de las colas, la teoría de los conjuntos, la teoría de los
compartimientos, la teoría de las gráficas y la teoría de las redes.
La idea de 'enfoques de sistemas' es intencionalmente vaga, e incluye distintos modelos
conceptuales, técnicas matemáticas, puntos de vista generales, etc., que concuerdan, sin
embargo, en ser 'teorías de sistemas'. Los enfoques de sistemas se hicieron necesarios en
nuestro siglo para resolver problemas que implicaban considerar y elegir soluciones posibles con
la máxima eficiencia y el mínimo costo, en una red de interacciones tremendamente compleja. La
aparición de los enfoques de sistemas forma parte de una fundamental reorientación del
pensamiento científico de nuestro siglo.
Los diferentes enfoques de sistemas no se excluyen mutuamente, y aún el mismo fenómeno
puede ser abordado desde diferentes modelos. Von Bertalanffy aclara que los enfoques de
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
106
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
sistemas son herramientas teóricas, y al respecto los distingue de las aplicaciones prácticas de
dichas herramientas, como pueden serlo por ejemplo la ingeniería de sistemas, la investigación
operacional, la ingeniería humana, la programación lineal y no lineal, etc.
Algunos de los ejemplos de enfoques de sistemas pueden encontrarse en los respectivos artículos
del presente volumen. Del resto, von Bertalanffy da una caracterización escueta, que sintetizamos
a continuación:
i.
ii.
Computarización y simulación. La computadora ha permitido:
a.
llevar a cabo cálculos matemáticos que, de otra forma, hubieran requerido mucho tiempo
y energía;
b.
abrir campos donde no existen teorías o modos de solución matemáticos;
c.
simular experimentos de laboratorio de, que otro modo, insumirían mucho tiempo y
dinero.
Teoría de los juegos (von Neumann y Morgenstern, 1947). Estudia, mediante un novedoso
armazón matemático comparable incluso con el de la mecánica newtoniana o el cálculo
infinitesimal, el comportamiento de jugadores supuestamente 'racionales' a fin de obtener
ganancias máximas y pérdidas mínimas gracias a estrategias apropiadas contra otro jugador
(o contra la naturaleza). Es un enfoque que puede agregarse a las ciencias de sistemas en la
medida que estudia un 'sistema' de 'fuerzas' antagónicas con determinadas especificaciones.
iii. Teoría de las colas. Se ocupa de la optimización de disposiciones en condiciones de
apiñamiento (hacinamiento).
iv. Teoría de los conjuntos. Las propiedades formales generales de sistemas, tanto cerrados
como abiertos, pueden ser axiomatizadas en términos de teoría de los conjuntos.
v.
Teoría de los compartimientos. Concibe los sistemas como constituidos por subunidades o
sub-sistemas (compartimientos), entre los cuales se dan procesos de transporte. Por ejemplo
los compartimientos permeables a ciertas sustancias, como ocurre en algunos procesos
industriales y en la fisiología celular, y por ello tiene más relación con los sistemas abiertos.
Los compartimientos pueden tener una estructura catenaria (compartimientos encadenados) o
mamilar (un compartimiento central conectado con múltiples periféricos). El análisis de estos
sistemas compartimentados excede el cálculo matemático habitual, pero sin embargo resulta
posible gracias a las transformaciones de Laplace y a la introducción de la teoría de las redes
y las gráficas. Estas dos teorías y la teoría de los compartimientos se fundan en una rama de
la matemática llamada topología, o matemática relacional.
vi. Teoría de las gráficas y las redes. La teoría de las gráficas elabora estructuras relacionales
(es decir con propiedades cualitativas, no cuantitativas o métricas) representándolas en un
espacio topológico. Matemáticamente está vinculada también al álgebra de matrices, y fue
utilizada por ejemplo en biología. La teoría de las redes está ligada a la teoría de las gráficas y
a la teoría de los compartimientos, y se aplica a sistemas tales como las redes nerviosas.
vii. Teoría de la decisión. En general, teoría matemática que se ocupa de elecciones entre
posibilidades. Más específicamente, analiza elecciones humanas racionales, basadas en el
examen de una situación dada y de sus posibles consecuencias.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
107
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
23. ENTROPÍA
En termodinámica, designa la medida del grado de desorden de los sistemas. Los sistemas
cerrados poseen una entropía creciente (o entropía positiva), es decir, evolucionan hacia un
grado creciente de desorden y desorganización. En contraste, los sistemas abiertos poseen
una entropía decreciente (o entropía negativa), lo que significa que evolucionan hacia
grados cada vez mayores de orden y organización. El término 'entropía' se utiliza también
en Teoría de la Información, dada su correspondencia isomórfica con el respectivo
concepto de la termodinámica.
i.
Generalidades. La entropía es un concepto originalmente de la física, y más específicamente
de una de sus ramas: la termodinámica. De acuerdo con el segundo principio de la
termodinámica, la dirección general de los acontecimientos físicos es hacia estados de
máxima entropía, probabilidad y desorden molecular. Sin embargo, y en oposición a esta
tendencia, los organismos vivos se mantienen en un estado fantásticamente improbable,
preservan su orden pese a los continuos procesos irreversibles y aún avanzan en su
desarrollo embrionario y en su evolución hacia diferenciaciones siempre crecientes.
En rigor no hay contradicción entre ambas situaciones si consideramos que el clásico
segundo principio atañe sólo, por definición, a los sistemas cerrados. La termodinámica
declara expresamente que sus leyes sólo se aplican a sistemas cerrados. En los sistemas
abiertos, que incorporan materia rica en energía, el mantenimiento de un alto grado de orden
y hasta el avance hacia órdenes superiores es cosa termodinámicamente permitida.
ii.
Tipos de entropía. A partir de lo dicho podemos intuir la existencia de dos tipos de entropía.
La física clásica no considera estos dos tipos, y habla simplemente de 'entropía'. Esta
entropía a secas es lo que en el texto de von Bertalanffy aparece como entropía positiva.
a.
Entropía positiva. Tendencia de los sistemas cerrados de evolucionar hacia el máximo
desorden, la máxima indiferenciación y desintegración, y la máxima probabilidad: se trata
de una tendencia hacia la destrucción de orden. También puede decirse que en los
sistemas cerrados, el cambio de entropía es siempre positivo (es decir, la entropía a que
alude la física clásica tiende a aumentar).
b.
Entropía negativa. También llamada neguentropía, o, a veces, anentropía, es la
tendencia de los sistemas abiertos -específicamente los sistemas que estudia la biología,
la psicología, la sociología- hacia el máximo orden, la máxima diferenciación e
integración, y la máxima improbabilidad (o, lo que es lo mismo, hacia la mínima
probabilidad): es una tendencia que busca contrarrestar la tendencia alternativa al
desorden. También podemos decir que en los sistemas abiertos, el cambio de entropía es
negativo, es decir, la entropía negativa tiende a aumentar.
Sintéticamente, entonces: los sistemas cerrados son entrópicos (es decir entrópicos positivos)
porque tienden a gastarse y deteriorarse. En cambio los sistemas abiertos buscan sostenerse
a sí mismos, mantenerse organizados importando energía de afuera para contrarrestar la
tendencia entrópica positiva, mediante una entropía negativa. Sobre esta base, hasta se
podría medir el grado de organización de la materia a partir del monto de energía requerido
para evitar su desorganización. Es la entropía negativa la que debe oponerse a la tendencia
general a la entropía positiva creciente, y no a la inversa.
iii. Conceptos relacionados. Aclararemos ahora que significa, en este contexto, ordendesorden, diferenciación-indiferenciación, integración-desintegración, e improbabilidadprobabilidad, y para ello comenzaremos con el ejemplo sencillo de la evolución de un gas
cualquiera. Con las siguientes explicaciones intentamos llenar un vacío dejado en el texto de
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
108
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
von Bertalanffy, quien explica el fenómeno entrópico presuponiendo ciertos conocimientos en
el lector.
Veamos el esquema adjunto. Si introducimos un gas en un recipiente (A) y luego lo tapamos,
pronto sus moléculas se difundirán por todo el recipiente en forma homogénea. Esto significa
no sólo que van a ocupar la totalidad del mismo, sino también que lo harán de forma tal que
todas las moléculas estarán a igual distancia entre sí, como si se repelieran mutuamente. Esto
es lo que seguramente va a ocurrir, porque así lo revela la experiencia con los gases.
Algunas posibles evoluciones entrópicas
Imaginemos ahora qué es lo que NO va a ocurrir. Lo plantearemos hipotéticamente, porque
de hecho nunca se vio que un gas evolucionara de las formas C y D. En la forma C todas las
moléculas se arriman sobre la pared izquierda del recipiente, y del otro lado queda vacío. En
la forma D, más extraña aún, las moléculas se aglutinan en el centro formando una figura
humana.
Podemos decir entonces que la disposición homogénea de las moléculas es la distribución
más probable (máxima probabilidad), mientras que la disposición en forma de figura humana
o cualquier otra es la más improbable (máxima improbabilidad).
Si el conjunto de las moléculas adopta una forma definida (un cuerpo humano, una luna, una
taza, etc.), decimos que están de alguna forma ordenadas, organizadas, pero si las moléculas
difunden homogéneamente decimos que hay desorden y desorganización. Esto suele
confundir a quienes se inician en estos temas, porque uno siempre relaciona distribución
homogénea con orden u organización. Las moléculas, al distribuirse homogéneamente están
difundiéndose al azar, repeliéndose unas a otras y reinando, por ende, el desorden.
Naturalmente, estamos dando aquí una idea intuitiva de desorden y prescindiendo del
tecnicismo que emplea la física para definirlo.
La conclusión que debemos sacar hasta aquí es la siguiente, para usar una expresión de von
Bertalanffy: en los sistemas cerrados, la distribución más probable es la tendencia al
desorden, es decir, hacia la máxima entropía [positiva].
Y así como sucede con las moléculas del gas, también sucede con el calor. Si en un sistema
cerrado ingresa calor, este tiende a difundirse por todo el espacio en forma homogénea. Una
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
109
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
estufa en una habitación cerrada produce calor, y ese calor inunda toda la habitación. No
ocurre que el calor se aglutine en un rincón y el otro quede frío. La distribución homogénea
del calor hace, entonces, que haya la misma temperatura en cualquier punto de la habitación
tomado al azar.
Si abrimos la puerta que da al baño, el calor difundirá al baño y volverá a homogeneizarse la
distribución del calor en el nuevo sistema ampliado. Por supuesto, siempre y cuando el baño
esté más frío, porque si está más caliente el calor irá 'hacia' la habitación, y también tenderá a
distribuirse homogéneamente.
Von Bertalanffy da ejemplos una tanto artificiales con bolitas rojas y azules. Dice por ejemplo
que la distribución más probable de una mezcla de bolitas rojas y azules es un estado de
completo desorden, mientras que la distribución más improbable sea que las bolitas rojas
queden de un lado y las azules del otro, o bien, en un ejemplo más realista en el caso de un
gas, que las moléculas más veloces (de mayor temperatura) queden hacia la derecha y las
menos veloces (más 'frías') queden hacia la izquierda.
Hemos dado ejemplos de sistemas no vivos, como los gases o las bolitas. Pero veamos ahora
que sucede en un sistema vivo (como puede serlo una ameba, un mamífero, la personalidad,
un grupo humano, una sociedad, etc.). Ahora, veamos qué pasa si dentro del recipiente ya no
ponemos un gas sino un huevo cigota y, en un segundo ejemplo, si ponemos hormigas.
Un huevo cigota que tenga unos días de vida se ve en el microscopio como un conjunto de
células más o menos iguales. Hay una indiferenciación, porque no hay ninguna célula
ostensiblemente diferente a cualquier otra. Al comienzo, las células van reproduciéndose un
poco anárquicamente y distribuyéndose donde pueden. Si el huevo cigota evolucionara como
el gas, las células quedarían siempre iguales y distribuidas homogéneamente, pero la
experiencia nos dice que no, que poco a poco comienzan a distribuirse de determinada forma,
el huevo cigota empieza a adoptar la forma de un embrión, y finalmente se transforma en el
animal definitivo. Algunas células se transformaron en células musculares, otras en células
hepáticas, otras en neuronas, etc., es decir, hay una progresiva diferenciación (empiezan a
ser diferentes), y se van distribuyendo de acuerdo a un plan, a un orden, es decir hay una
creciente organización.
Sabemos perfectamente en qué terminará el gas (máxima probabilidad), pero no es así en el
caso del huevo cigota. Aún cuando sepamos de antemano que se trata de un cigoto humano,
no sabemos qué características tendrá al nacer, qué malformaciones o no podrá padecer, etc.
Es decir, puede evolucionar hacia diferentes estados finales: hay una máxima improbabilidad,
y aún en el hipotético caso que conozcamos todas las posibles evoluciones del huevo, ciertos
desarrollos serán más o menos probables que otros, pero no habrá ningún desarrollo único de
máxima probabilidad. Incluso más: a partir de estados iniciales distintos, por ejemplo un huevo
cigota entero y un huevo cigota cortado por la mitad, pueden llegar al mismo estado final (el
mismo erizo de mar). Esto es lo que se llama 'equifinalidad' (ver Equifinalidad), y es algo
inconcebible en el caso de la evolución de un gas. Por ejemplo, si reducimos la cantidad de
gas a la mitad, obtendremos un estado final diferente, no igual, por ejemplo, las moléculas
quedarán más alejadas entre sí en la distribución final.
Otro tanto sucede si en el recipiente colocamos hormigas. Lejos de distribuirse
homogéneamente como las moléculas gaseosas, las hormigas empezarán a organizarse. Si
en el recipiente hay tierra, empezarán a hacer túneles y se organizarán para sobrevivir. Las
sociedades humanas, al igual que las sociedades animales, son sistemas abiertos, y como
tales tienden hacia un orden creciente, es decir, tienen entropía negativa.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
110
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Pero además de una progresiva diferenciación existe, correlativamente, una progresiva
integración. Cuando las células empiezan a diferenciarse unas de otras no permanecen
aisladas sino que se comunican para cumplir la tarea de preservar la vida: ciertas neuronas
estarán conectadas con ciertas células musculares para que sea posible mover un músculo.
Del mismo modo, cuando las abejas, en otro ejemplo, se diferencian entre sí (obreras,
zánganos, reina) no se aíslan sino que se organizan entre sí para la supervivencia de la
especie: la obrera, busca el alimento para la reina, la reina produce más abejas, los zánganos
fecundan, etc. Estas interconexiones entre elementos diferentes es la llamada integración.
Los sistemas cerrados tienden al desorden (tienen entropía positiva creciente), y los sistemas
abiertos tienden al orden (tienen entropía negativa creciente, o también, tienen entropía
positiva decreciente). Como indica von Bertalanffy: los sistemas vivos, manteniéndose en
estado uniforme (ver Estado uniforme), logran evitar el aumento de entropía [positiva] y
hasta pueden desarrollarse hacia estados de orden y organización crecientes.
Hay que evitar ciertas connotaciones subjetivas que puede tener la expresión 'orden' u
'organización'. Cuando un niño se apodera de una habitación llena de juguetes perfectamente
ordenados, al cabo de un tiempo la habitación queda perfectamente desordenada. ¿Aumentó
la entropía positiva? ¿El sistema evolucionó hacia un desorden creciente? Respuesta: la
conducta del niño es la desordenada, porque como sistema abierto que es más tarde
evolucionará hacia el orden cuando en la adultez sus conductas estén más organizadas (la
madre que ordena la habitación).
Pero la habitación por sí sola, como sistema cerrado que es, que no sufre la influencia de los
niños, tenderá también hacia una desorganización, pero a un desorden espontáneo, a una
degradación progresiva de la materia. Este desorden no se aprecia de un día para el otro,
pero sí si volviésemos a la misma habitación luego de millones de años, lapso durante el cual
no sufrió ninguna influencia de nadie ni de nada (por ello es un sistema cerrado), hallaríamos
una masa gaseosa o, más aún, un vacío salpicado de partículas sub-atómicas moviéndose
desordenadamente a igual distancia entre ellas. El desorden producido por el niño parecerá
realmente insignificante.
iv. Entropía en sistemas abiertos. Completaremos nuestra explicación con tres breves
comentarios acerca de la entropía en los sistemas abiertos.
a.
Un ser viviente tiene al mismo tiempo las características de un sistema físico (de hecho
está compuesta de átomos, moléculas, es decir de la misma materia prima que una
piedra, por ejemplo), y las características de un sistema vivo. Desde el primer punto de
vista, el sistema vivo evolucionará hacia un desorden creciente, y desde el segundo
punto de vista evolucionará hacia un orden creciente. ¿Cuál de ambas tendencias
dominará sobre la otra? Mientras el ser vivo se mantiene como tal, mientras evoluciona
hacia la organización creciente (por ejemplo sobre todo en el desarrollo intrauterino y la
niñez, o, en el plano intelectual, hasta la adolescencia y aún más adelante), predominará
la tendencia entrópica negativa (orden creciente), pero, tarde o temprano, el ser vivo
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
111
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
empezará poco a poco a desordenarse hasta llegar a la muerte, desde donde la
desorganización continuará creciendo, es decir, continuará predominando la tendencia
entrópica positiva. Como varios otros pensadores, Freud se había percatado de esta
situación cuando por ejemplo en "Más allá del principio del placer" sostuvo que había una
tendencia más arcaica, primitiva y fundamental: la tendencia hacia la muerte, que
finalmente terminaba dominando sobre la tendencia al mantenimiento de la vida.
b.
¿Qué peculiares características tiene un sistema abierto que hace que tenga que
evolucionar hacia un orden y una complejidad crecientes? Los sistemas que evolucionan
en dicho sentido sólo son posibles si cumplen con dos condiciones básicas:
En primer lugar, deben traer o importar energía desde afuera del sistema (para eso
deben ser sistemas abiertos), porque esa energía les permite compensar o contrarrestar
el aumento de entropía positiva siempre creciente. Debe haber una 'importación de
entropía negativa', por utilizar una expresión de Schrödinger, y que otros autores como
Prigonine volcaron en una expresión matemática, que permita contrarrestar los efectos de
la entropía positiva. Cuando esa energía importada se haya consumido y no pueda
ingresar más energía, ya no quedará nada para contrarrestar la tendencia al desorden y
el organismo se muere. El mismo Schrödinger ilustra la propensión neguentrópica de los
organismos (o propensión hacia el aumento de entropía negativa), recurriendo a
expresiones tales como "el organismo se alimenta de entropía negativa".
En segundo lugar, dentro del sistema las cosas deben estar dispuestas de forma tal que
esa energía importada realmente sea eficaz para contrarrestar el creciente desorden (es
decir el aumento de entropía positiva): el sistema vivo debe tener ciertas leyes de
organización que, a partir de la energía captada, pueda ir organizándose,
diferenciándose, integrándose, complejizándose, etc. Es como si dijéramos: para
organizarse tiene previamente que estar organizado, lo cual parece un círculo vicioso,
pero que en realidad es tan aparente como preguntarse si vino primero el huevo o la
gallina.
El organismo adulto se desarrolla a partir del embrión. ¿Y quién organiza al embrión? La
progresiva diferenciación de sus células. ¿Y quien organiza a estas para que vayan
diferenciándose? Las proteínas que dirigen los procesos celulares con su particular
secuencia de aminoácidos. En última instancia y hasta donde llegan nuestros
conocimientos actuales, dicha organización proteínica deviene a su vez de la particular
secuencia de bases en la molécula de ADN. Pero sin ir tan lejos, es al nivel de proteínas
(secuencia de aminoácidos) donde encontramos el primer rastro de orden, el primer
indicio de una entropía negativa que algunos autores llaman precisamente 'entropía de
cadena' en alusión a la cadena de aminoácidos ordenados de determinada manera. Su
peculiar organización, en contraste con la disposición al azar [de las bases de ADN] es
medible mediante este concepto de entropía en cadena.
c.
v.
El concepto de entropía en sistemas cerrados y abiertos está vinculado con otras muchas
ideas, como por ejemplo con la idea de proceso irreversible, y con las ideas de estado de
equilibrio y estado uniforme. El lector puede consultar al respecto los artículos sobre
sistemas abiertos, sistemas cerrados, equilibrio, estado uniforme y termodinámica
irreversible.
Entropía y Teoría de la Información. A veces se emplea el término entropía en un sentido
distinto al termodinámico, por guardar con este último una correspondencia isomórfica.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
112
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
24. EPISTEMOLOGÍA DE SISTEMAS
Parte de la Filosofía de los sistemas que propone introducir en la ciencia nuevas categorías
para la investigación de totalidades organizadas, tales como las de interacción,
transacción, organización, teleología, etc., como así también introducir la idea de
conocimiento como interacción entre observador y observado. En tales sentidos, se opone
a la epistemología del positivismo lógico, de índole reduccionista y fisicalista.
La TGS en sentido amplio abarca la Ciencia de los sistemas, la Tecnología de los Sistemas y la
Filosofía de los sistemas y, dentro de esta última, una parte es la Epistemología de sistemas.
En sentido genérico, la epistemología es la disciplina que se ocupa del estudio del conocimiento
científico. Específicamente, la Epistemología de sistemas es una doctrina que propone un modelo
de conocimiento científico fundado en dos puntos importantes:
i.
La investigación de totalidades organizadas de muchas variables requiere nuevas
categorías de interacción, transacción, organización, teleología, etc., con lo cual surgen
muchos problemas para que resuelvan la epistemología y los modelos y técnicas
matemáticos. Se deja así atrás el paradigma de la ciencia clásica que descomponía el todo en
elementos, y los vinculaba mediante la causalidad lineal o unidireccional como categoría
básica.
ii.
La percepción no es una simple reflexión de 'cosas reales', ni el conocimiento una mera
aproximación a la 'verdad' o 'la realidad'. Es una interacción entre conocedor y conocido que
depende de múltiples factores de tipo biológico, cultural, lingüístico, etc., lo cual lleva a
sustentar una postura perspectivista que, en esencia, sostiene que no hay una única forma de
conocer, sino que de la realidad se pueden tener varias perspectivas diferentes.
25. EQUIFINALIDAD
Característica de los sistemas abiertos según la cual estos, en su evolución, pueden
alcanzar el mismo estado final -que es el llamado estado uniforme- partiendo de diferentes
condiciones iniciales y por distintos caminos. La equifinalidad es uno de los varios tipos de
finalidad que pueden encontrarse junto a otros, como por ejemplo la directividad
estructural y la intencionalidad.
i
Generalidades. El término 'equifinalidad' alude a 'igual final', es decir, se puede alcanzar el
mismo estado final aunque partamos de condiciones iniciales diferentes. Comparemos un
proceso equifinal, típico del sistema abierto, con otro proceso que no lo es, como en los
sistemas cerrados.
En cualquier sistema cerrado, el estado final está inequívocamente determinado por las
condiciones iniciales, o sea que si se alteran estas condiciones iniciales o el proceso, el
estado final cambiará también. Ejemplos:
a.
la posición final de un planeta está determinada por su posición inicial;
b.
en el equilibrio químico, las concentraciones finales de los compuestos reaccionantes
depende naturalmente de las concentraciones iniciales. Si éstas se cambian, también
cambiarán las concentraciones finales.
En cambio en los sistemas abiertos aparece la equifinalidad, de particular importancia en los
mecanismos de regulación biológica: en ellos se puede alcanzar el mismo estado final aunque
partamos de diferentes condiciones iniciales, o sea que si cambiamos las condiciones iniciales
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
113
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
el organismo podrá desembocar en el mismo estado final siguiendo, obviamente, caminos
distintos. Por ejemplo: el mismo resultado final (un erizo de mar normal) puede alcanzarse
tanto a partir de un cigoto completo, como de cada mitad de un cigoto, o como de la fusión de
dos cigotos (estados iniciales distintos). Lo mismo sucede en hidroides y planarias. Otro
ejemplo es la llegada a un tamaño final definido a partir de distintos tamaños iniciales y
después de recorrer itinerarios de crecimiento diferentes.
El principio de equifinalidad apunta, entonces, a mostrar que en un sistema abierto puede
haber varias maneras de llegar al mismo fin. Es un sistema flexible, no rígido como el sistema
cerrado, donde el proceso está limitado o fijado por su propia estructura de acuerdo a
patrones específicos de relación causa-efecto.
Podemos aquí aclarar que, en los sistemas cerrados, el estado final se llama estado de
equilibrio, y en los sistemas abiertos se llama estado uniforme (véanse estos términos), de
manera que en la equifinalidad, el sistema tiende hacia un estado uniforme.
Von Bertalanffy da también una definición matemática de equifinalidad: un sistema de
elementos Qi (x, y, z, t) es equifinal en cualquier subsistema de elementos Qj si las
condiciones iniciales Qio (x, y, z) pueden cambiarse sin cambiar el valor de Qj (x, y, z,
inifinito). Se trata siempre de la misma idea, sólo que expresada en lenguaje matemático.
ii.
Equifinalidad y crecimiento. La equifinalidad aparece claramente en los procesos de
crecimiento. Todo organismo tiende a alcanzar un mismo estado final (el tamaño típico de su
especie), aún cuando parta de condiciones iniciales diferentes o aunque el proceso de
crecimiento se vea ocasionalmente entorpecido o interrumpido. Al menos algunos procesos
de crecimiento son equifinales, es decir que se alcanzan los mismos valores finales en
diferentes tiempos (ver el esquema del artículo de Estado Uniforme). Aún sin prueba
matemática estricta, se ve intuitivamente que esto no sería posible si la tasa de crecimiento
dependiera directamente del tiempo pues, de ser este el caso, no podrían darse tasas
diferentes en tiempos dados, como pasa a veces. El esquema al que aludimos, intenta
mostrar por sobretodo la equifinalidad en el crecimiento. La curva continua corresponde al
crecimiento normal de la rata. La curva punteada indica un crecimiento interrumpido por
deficiencia vitamínica a los 50 días. Luego de haberse restablecido nuevamente el aporte
vitamínico, los animales alcanzaron el peso final normal (o sea, desde distintos estados
iniciales se llegó al mismo estado final).
iii. Conceptos similares. La equifinalidad debe ser distinguida de otros tipos de finalidad,
especialmente de la directividad estructural y de la intencionalidad, que son las ideas más
próximas.
a. Equifinalidad y directividad estructural. Ambos procesos son observables en los
sistemas vivos, donde la directividad estructural se mafiniesta por ejemplo como
homeostasis. La diferencia está en que la directividad estructural, como su nombre lo
indica, depende de la estructura misma del organismo para lograr su fin, mientras que la
equifinalidad implica procesos que no pueden basarse en estructuras o mecanismos
preestablecidos. Si así fuera, cambiando la estructura de un cigoto transformándolo en
una mitad, no obtendríamos el mismo estado final (o sea el organismo tal como es al
nacer). Además, la directividad estructural puede estar presente en máquinas creadas por
el hombre, pero la equifinalidad no. Las máquinas son estructuralmente rígidas, los
organismos son flexibles.
b. Equifinalidad e intencionalidad. La equifinalidad es propia de todo sistema vivo,
mientras que la genuina intencionalidad es exclusiva del hombre y está posibilitada por el
desarrollo de su sistema simbólico: un cigoto no sabe 'mentalmente' que debe evolucionar
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
114
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
hacia un organismo normal ni puede hacer experimentos mentales meditando acerca de
'qué pasaría si...'. La intencionalidad implica en cambio que la meta está prevista por el
pensamiento.
26. EQUILIBRIO, PRINCIPIO
Uno de los cuatro principios básicos que fundan la psicología del hombre-robot, según el
cual el comportamiento implica esencialmente una reducción de tensiones, con el objeto de
retornar al equilibrio anterior.
i.
Definición. El principio de equilibrio es, junto a los principios de estímulo-respuesta, del
ambientalismo y de economía, uno de los cuatro pilares de las llamadas psicologías del
hombre-robot, dentro de las cuales von Bertalanffy incluye teorías tan diversas como el
conductismo y el psicoanálisis.
Formulado freudianamente, es el "principio de estabilidad": la función básica del aparato
mental consiste en mantener un equilibrio homeostático. Si se incrementan las tensiones,
particularmente las sexuales en el caso del psicoanálisis, estas deben descargarse para
recuperar el equilibrio perdido. Si se alivian las tensiones mediante la promiscuidad y otros
recursos, se tendrán seres humanos normales y satisfechos.
ii.
Críticas. Biológicamente, la vida no es mantenimiento o restauración de equilibrio sino mas
bien mantenimiento de desequilibrios, según revela la doctrina del organismo como sistema
abierto. Alcanzar el equilibrio significa la muerte. Psicológicamente, el comportamiento no sólo
tiende a aflojar tensiones sino que también las establece. Para ser más concretos, el hombre
no desarrolla solamente, conductas para sobrevivir él mismo o su especie (que implican
satisfacción de necesidades y por tanto reducción de tensiones), sino que hay una extensa
gama de comportamientos irreductibles a principios utilitarios de adaptación del individuo y
conservación de la especie como por ejemplo la escultura, la pintura, la música y, en general,
cualquier aspecto de la cultura. Considerada como adaptación, la creatividad sería un fracaso,
una enfermedad y una desdicha.
Sobre esta base, von Bertalanffy sugiere revisar el concepto de 'stress'. Este mecanismo no
está relacionado solamente con un retorno al equilibrio adaptativo, sino que también crea vida
superior. Si, luego de ser perturbada desde afuera, la vida volviera ni más ni menos a lo que
se llama equilibrio homeostático, nunca habría progresado más allá de la ameba.
Bibliografía Consultada
*
Laplanche J. y Pontalis J., Diccionario de psicoanálisis, Barcelona, Labor, 1981, 3° edición.
*
Rycroft C., Diccionario de psicoanálisis, Buenos Aires, Paidós, 1976, pág. 92.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
115
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
27. ESTABILIDAD
Es la capacidad de un sistema para responder a las perturbaciones. Cuanto más pueda
contrarrestar o compensar las perturbaciones, o cuanto mayores son las perturbaciones
compensadas, más estable es el sistema.
i.
Concepto. La idea de estabilidad procede de la mecánica. Ejemplos:
a.
un cuerpo rígido está en equilibrio 'estable' si retorna a su posición original luego de un
desplazamiento suficientemente pequeño (perturbación);
b.
un movimiento es 'estable' si es insensible a perturbaciones leves.
La idea de estabilidad puede generalizarse a los 'movimientos' de las variables de estado de
un sistema y, prescindiendo de ciertas consideraciones matemáticas, podemos afirmar que un
sistema es estable cuando puede compensar las perturbaciones, básicamente mediante un
mecanismo de control o retroalimentación.
ii.
Ejemplos. Entre los posibles comportamientos de un sistema descriptos geométricamente,
encontramos como ejemplos el comportamiento asintóticamente estable y el comportamiento
neutralmente estable. A los efectos de la TGS tienen especial importancia los primeros, que
presentan dos características básicas:
a.
se acercan a un estado independiente del tiempo transcurrido, y
b.
la compensación implica alcanzar un estado de equilibrio o un estado uniforme, según
estemos hablando de sistemas cerrados o sistemas abiertos, respectivamente.
28. ESTADO
Situación en la que se encuentra o podría encontrarse un sistema en un momento
determinado. Así por ejemplo hay estados permanentes y estados momentáneos, estados
iniciales, estados intermedios y estados finales, etc., pero la distinción más importante se
establece, en el contexto de la TGS, entre el estado de equilibrio y el estado uniforme.
i.
Concepto. Von Bertalanffy define 'estado' solamente en forma contextual, vale decir su
significado surge de las expresiones donde emplea dicho término. El estado de un sistema es
la situación en la cual se encuentra o podría encontrarse en un instante de tiempo elegido en
parte convencionalmente. De hecho, un mismo estado puede ser visto como estado inicial en
relación con los momentos subsiguientes, o como estado final en relación con los anteriores.
Desde ya, el concepto de 'estado' presupone la idea que los sistemas evolucionan o cambian,
lo que significará que pasan de un estado a otro distinto.
ii.
Tipos. Se pueden diferenciar los sistemas cerrados y abiertos recurriendo a la noción de
'estado', de dos maneras distintas:
a.
Los sistemas cerrados llegan a un estado final a partir de un único y determinado estado
inicial. En cambio, los sistemas abiertos pueden llegar al mismo estado final desde
diferentes estados iniciales, lo que constituye una importante característica de los mismos
que es la equifinalidad.
b.
En los sistemas cerrados, el estado final hacia el cual tienden se denomina 'estado de
equilibrio químico y termodinámico', o, más sencillamente, 'estado de equilibrio'. En
cambio en los sistemas abiertos, el estado final hacia el cual tienden se denomina 'estado
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
116
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
uniforme', un término creado ad hoc por von Bertalanffy y cuyas traducciones al inglés y
al alemán son, respectivamente, 'steady' y 'Fliessgleichgewicht'.
El autor citado no utiliza una terminología única. Por ejemplo, a veces se refiere al estado
uniforme como estado de equilibrio dinámico, estado de equilibrio estacionario, estado
cuasi uniforme, o estado cuasi estacionario. En la presente obra adoptaremos por lo
regular las denominaciones 'estado de equilibrio' y 'estado uniforme' para los sistemas
cerrados y abiertos, respectivamente, aún cuando el significado original de dichos
términos no reflejen con total exactitud sus diferencias.
29. ESTADO DE EQUILIBRIO
Estado final hacia el cual evolucionan los sistemas cerrados, y que se encuentra
determinado por las condiciones iniciales de partida. El estado de equilibrio se basa en
reacciones reversibles, y su mantenimiento no requiere energía. El estado de equilibrio es,
más específicamente, un estado de equilibrio químico y termodinámico.
i.
Generalidades. Cuando von Bertalanffy habla de 'estado de equilibrio', generalmente lo hace
refiriéndose al estado hacia el cual evolucionan los sistemas cerrados y, en este sentido, lo
opone al 'estado uniforme' de los sistemas abiertos. Sin embargo, a veces utiliza como
sinónimo de estado uniforme la expresión 'estado de equilibrio dinámico', por lo que cabe
suponer que el llamado 'estado de equilibrio' de los sistemas cerrados remite a un equilibrio
estático. El equilibrio dinámico no sería entonces un 'verdadero' o 'auténtico' equilibrio sino un
permanente proceso de desequilibramiento y reequilibramiento. Esto es lo que von Bertalanffy
quiere decir cuando afirma que, en realidad, el estado uniforme es básicamente un estado de
desequilibrio.
Piaget, por ejemplo, establece una terminología similar al distinguir un equilibrio estático
(propio de las concepciones gestálticas) y un equilibrio dinámico (propio de las concepciones
psicogenéticas). Conceptualmente, es posible homologar las ideas de von Bertalanffy con las
de Piaget.
ii.
Características. El estado de equilibrio tiene una serie de características que lo distinguen
del estado uniforme. El lector puede consultar el artículo "Estado uniforme", así como
también el referente a la ley de acción de masas (ver Sistema químico), ya que esta última
ley constituye un ejemplo paradigmático de funcionamiento con tendencia hacia estados de
equilibrio.
30. ESTADO UNIFORME
Estado final hacia el cual tienden los sistemas abiertos, mientras persista la vida, sean cual
fuesen las condiciones iniciales de partida (esto es, exhibe equifinalidad). El estado
uniforme se basa en reacciones en gran parte irreversibles, y su mantenimiento requiere
aporte energético del exterior.
Von Bertalanffy designa a veces el estado uniforme como estado de equilibrio dinámico,
estado de equilibrio estacionario, estado de equilibrio dinámico estacionario, estado cuasi
uniforme o estado cuasi estacionario.
i.
Generalidades. El estado uniforme ('steady' en inglés, "Fliessgleichgewicht' en alemán) es un
término introducido por von Bertalanffy que remite a una idea fundamental, tal vez la más
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
117
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
importante, dentro de la Teoría General de los sistemas abiertos, a punto tal que llega a
sugerir que en ella se encuentra todo el misterio de la vida. En efecto, todas las
características de los sistemas vivos, tales como metabolismo, crecimiento, desarrollo,
autorregulación, reproducción, estímulo-respuesta, actividad autónoma, etc., son en definitiva
consecuencias del hecho básico de la tendencia del organismo viviente hacia un estado
uniforme.
En el presente (von Bertalanffy escribía esto en 1967), no se dispone de un criterio
termodinámico que defina 'estado uniforme' en sistemas abiertos, de modo parecido a como
la entropía máxima define el estado de equilibrio en los sistemas cerrados. No obstante esta
limitación, procuraremos delimitar este concepto enumerando una serie de características
básicas que hallamos presentes en los estados uniformes.
ii.
Características. Enumeraremos algunas características importantes del estado uniforme, y al
mismo tiempo trazaremos las correspondientes diferencias con el estado de equilibrio. Estas
características se examinan aquí por separado a los efectos de una mejor comprensión del
tema: el lector no debe obviar una visión de conjunto de este complejo problema, para la cual
iremos suministrando algunas pistas esclarecedoras.
a.
Sistema abierto - sistema cerrado. El estado uniforme es una característica de los
sistemas abiertos: éstos 'pueden' alcanzar, en ciertas condiciones, un estado
independiente del tiempo que se llama 'estado uniforme', por oposición al estado de
equilibrio químico y termodinámico, que es un estado también independiente del tiempo y
que 'deben' alcanzar los sistemas cerrados.
b.
Vida - muerte. Lo anterior no significa que los sistemas abiertos tiendan 'siempre' hacia
un estado uniforme. Tienden hacia él en la medida que el sistema se mantenga vivo.
Pero tarde o temprano el organismo muere, en cuyo caso cesará su tendencia hacia un
estado uniforme y comenzará inmediatamente su camino hacia un estado de equilibrio
típico de los sistemas cerrados. Von Bertalanffy indica que un sistema abierto se
mantiene sin alcanzar, mientras la vida dure, un estado de equilibrio químico y
termodinámico, sino manteniéndose en un estado llamado uniforme.
La vida no se explica entonces en términos de entidades metafísicas (ver Vitalismo), sino
en términos de capacidad para tender hacia el estado uniforme. El hecho de que un
sistema abierto, como un ser vivo, tienda finalmente hacia un estado de equilibrio, puede
ser explicado desde varios ángulos, como por ejemplo afirmando que cumple con la
segunda ley de la termodinámica, o que el sistema vivo posee sub-sistemas que tienden
hacia el estado de equilibrio y que terminan por predominar sobre el estado uniforme, etc.
A este último respecto, von Bertalanffy indica que en el organismo se dan sistemas en
equilibrio, pero el organismo como tal no puede ser considerado como un sistema en
equilibrio (o en estado de equilibrio).
En la vida cotidiana suelen emplearse los términos 'evolución' e 'involución' para
designar, respectivamente, la tendencia hacia un orden y organización crecientes, y la
tendencia hacia un desorden y desorganización crecientes. Un embrión o un niño 'está
evolucionando', un anciano 'está involucionando'. En la terminología de von Bertalanffy,
diremos que en la 'evolución' predomina la tendencia hacia un estado uniforme, y en la
'involución' empieza a dominar la tendencia hacia un estado de equilibrio.
Estos conceptos podrán ser aclarados con mayor detalle a partir de otras características
como las que siguen.
c.
Estática y dinámica de los sistemas abiertos. Los sistemas abiertos pueden ser
estudiados desde ambos puntos de vista: estático, es decir el mantenimiento del sistema
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
118
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
en un estado independiente del tiempo, y dinámico, vale decir los cambios del sistema
con el tiempo.
Punto de vista estático. Existe en el universo una tendencia hacia la desorganización y
al desorden crecientes, como lo revela la termodinámica clásica. Pero, ¿existe alguna
situación donde se pueda detener, aunque sea momentáneamente, esta tendencia
universal hacia la llamada entropía positiva? Sí. Ello ocurre cuando el sistema específicamente un ser viviente- incorpora materia rica en energía del exterior, por
ejemplo a través del alimento.
Esa energía libre, o al menos parte de ella, está destinada a mantener un alto grado de
orden, y hasta permitir el avance hacia órdenes superiores, cosa termodinámicamente
permitida. Por ejemplo, cuando estudiamos estamos gastando energía en ordenar
nuestros pensamientos, o cuando el embrión incorpora los nutrientes de la madre utiliza
esa energía en poner orden en su estructura, pasando de un estado de indiferenciación
('amontonamiento' de células indiferenciadas) a otro estado donde las diversas células se
agrupan en tejidos y estos en órganos, vale decir, de un estado de desorden a otro de
orden. Se trata de energía utilizable, útil, de una energía capaz de producir trabajo. Así,
indica von Bertalanffy que el estado uniforme es mantenido separado del equilibrio
verdadero (estado de equilibrio) y así está en condiciones de realizar trabajo.
Una vez que la materia cumplió su cometido de suministrar energía para estos procesos
es eliminada, pero se incorporarán nuevos materiales energéticos que permitirán seguir
manteniendo el orden, o aún aumentarlo. Es así que en un sistema abierto hay un
continuo intercambio de componentes (importación y exportación de materia), una
continua degradación y construcción de esos materiales y continuos procesos
irreversibles, ¡a pesar de lo cual la composición del sistema se mantiene constante! en un
estado llamado, por ello, estado uniforme.
Por ejemplo, el lector se habrá preguntado alguna vez como puede ser que un organismo
siga siendo más o menos igual cuando en cuestiones de meses han cambiado una gran
proporción de sus componentes materiales o de sus células, o como puede ser que la
sociedad humana (un país, una cultura) siga siendo más o menos igual en cuestiones de
décadas cuando es sabido que los nuevos millones de personas son totalmente distintos
a los viejos millones de personas que había 100 años antes. A pesar de la continua
generación y destrucción de los elementos componentes, el sistema tiene la tendencia a
mantenerse en un estado uniforme, gracias a los aportes de energía de los materiales
ingresantes.
Detallemos un poco más el problema de la energía en los sistemas químicos cerrados y
en los abiertos. Un sistema cerrado en equilibrio no requiere energía para su
preservación, ni puede obtenerse energía de él. Un depósito cerrado puede tener
almacenada gran cantidad de energía pero es energía potencial, no sirve para realizar
trabajo, como por ejemplo para hacer funcionar un motor. Lo mismo pasa con un sistema
químico en estado de equilibrio. A pesar de no estar en estado de reposo, porque
continuamente están produciéndose reacciones en uno y otro sentido (reversibles)
reguladas por la ley de acción de masas, es incapaz sin embargo de realizar trabajo.
Para mantener los procesos en marcha no se requiere trabajo ni puede obtenerse trabajo
de ellos. La suma algebraica del trabajo obtenido de las reacciones y el empleado por
ellas es igual a cero.
A fin de realizar trabajo es necesario que el sistema no esté en un estado de equilibrio
sino que tienda a alcanzarlo; sólo entonces puede obtenerse energía. A fin de conseguir
esto continuamente, hay que disponer estacionariamente los sistemas (de aquí el nombre
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
119
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
estado estacionario para designar al estado uniforme), o sea hay que mantener un fluir
uniforme de sustancias químicas cuya energía se pueda transformar en trabajo. Esto se
consigue en un sistema abierto, importador de energía del medio. El aparente 'equilibrio'
de un organismo no es un verdadero equilibrio incapaz de producir trabajo, es un seudo
equilibrio dinámico (llamado estado uniforme), mantenido constante a cierta distancia del
equilibrio genuino (o estado de equilibrio), y con ello capaz de producir trabajo. El
continuo suministro exterior de energía le permite guardar siempre una distancia con
respecto al equilibrio verdadero o estado de equilibrio.
Para mantener el 'equilibrio dinámico' del estado uniforme es preciso que las velocidades
de las reacciones estén bien armonizadas. Sólo así es posible que algunos componentes
sean demolidos y puedan liberar energía utilizable, en tanto que por otro lado la
importación o ingresos de sustancias impide al sistema alcanzar el equilibrio. Las
reacciones rápidas, incluso en el organismo, conducen, sí, al equilibrio químico, pero las
reacciones lentas persisten en estado uniforme, de manera que éste exige cierta lentitud
en las reacciones. Una reacción muy veloz llega rápido al equilibrio y no da tiempo a que
el ingreso de energía desequilibre el sistema. Reacciones 'instantáneas', como las que se
dan entre iones, llevan al equilibrio en un tiempo 'infinitamente corto'.
Von Bertalanffy agrega aquí que el mantenimiento de un estado uniforme en el organismo
se debe a la presencia de carbono, pues por un lado es rico en energía, pero por otro es
químicamente inerte (no reacciona químicamente en forma directa) de modo que es
posible mantener un abundante potencial químico; por otra parte, la rápida y regulada
liberación de esta cantidad de energía se debe a la acción de las enzimas (catalizadores
biológicos), con lo cual se mantiene el estado uniforme.
Punto de vista dinámico. Los sistemas vivos, sin embargo, nunca se mantienen
exactamente iguales en el tiempo, sino que sufren cambios, los cuales pueden ser de dos
tipos:
1. un cambio puede darse porque el organismo está inicialmente en un estado inestable
y tiende espontáneamente hacia un estado uniforme mediante una actividad autónoma. A
grandes rasgos, estos son los fenómenos de crecimiento y desarrollo, pero hay ejemplos
más específicos como por ejemplo los procesos periódicos que también se originan en el
sistema mismo y son así autónomos, como los movimientos automáticos de los órganos
de la respiración, la circulación y la digestión, movimientos automáticos del organismo en
su conjunto, etc.
2. El estado uniforme puede a su vez ser perturbado por cambios exteriores (un
estímulo proveniente del medio), y estos son a grandes rasgos los fenómenos de
adaptación y estímulo-respuesta.
d.
Exceso y falso arranque. Mientras que los sistemas cerrados suelen tender hacia
estados de equilibrio siguiendo un curso asintótico, en los sistemas abiertos, en
contraste, pueden darse además de un curso asintótico hacia el estado uniforme
fenómenos de exceso y de falso arranque (o arranque en falso) como se ve en muchos
procesos fisiológicos, procesos que tiene ciertas características matemáticas predecibles
y que están vinculados con estados uniformes. En el esquema adjunto se pueden
visualizar los fenómenos de exceso y arranque en falso, además de la evolución
asintótica hacia el estado uniforme.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
120
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Evoluciones hacia el estado uniforme (esquema ligeramente modificado del original, von Bertalanffy, 149)
En dicho esquema, vemos que todo sistema abierto tiende hacia un estado uniforme, y
puede hacerlo, esquemáticamente, de tres maneras distintas:
1.
Aproximándose cada vez más hacia el estado uniforme ideal (aproximación
asintótica).
2.
Por falso arranque, donde al principio el proceso evoluciona en dirección opuesta,
pero luego se reencamina hacia el estado uniforme. Por ejemplo, si a una rata se le
interrumpe el suministro de vitaminas empieza a crecer menos e incluso puede morir
(dirección opuesta al estado uniforme), pero al suministrársele vitaminas termina
retomando el estado uniforme. Otro ejemplo: una persona gravemente enferma corre
el riesgo de morirse, pero ciertos mecanismos propios de organismo pueden hacer
que se restablezca: arrancó en falso pero luego se recuperó.
3.
Por exceso: caso inverso del anterior. Von Bertalanffy indica que las evoluciones por
exceso también aparecen en numerosos procesos fisiológicos.
El esquema nos muestra también la propiedad de los sistemas abiertos denominada
equifinalidad: un sistema abierto puede alcanzar el mismo estado final (estado uniforme),
aunque parta de diferentes condiciones iniciales (las correspondientes a las tres curvas
trazadas).
e.
Catalizadores. Los catalizadores son agentes que de una u otra forma pueden ejercer
influencia en una reacción química (posibilitándola, acelerándola, retardándola, etc.). En
los sistemas cerrados no hay catalizadores que influyan, es decir las reacciones químicas
seguirán un desarrollo sin perturbaciones hacia un estado de equilibrio químico,
espontáneamente. En los sistemas abiertos, en cambio, la presencia de catalizadores
direcciona las reacciones químicas hacia un estado uniforme y están vinculadas, por
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
121
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
tanto, con el mantenimiento de la vida. De alguna forma, las reacciones químicas en el
ser vivo no evolucionan espontáneamente hacia un estado de equilibrio sino hacia un
estado uniforme, alejado del primero, y para cuyo mantenimiento se requiere un gasto
energético; habíamos dicho que esta energía se extrae de la materia que el organismo
incorpora con el fin de mantener el estado uniforme, sea a través de una actividad
espontánea (crecimiento, desarrollo, etc.), sea como respuesta a estímulos externos
(adaptación). El organismo viviente está entonces en condiciones de dedicar potenciales
o tensiones existentes, esto es, energía, a la actividad espontánea o en respuesta a
estímulos desencadenantes.
f.
Reversibilidad - irreversibilidad. Mientras en un sistema cerrado el estado de equilibrio
se alcanza mediante reacciones químicas reversibles, en un sistema abierto el estado
uniforme se alcanza mediante reacciones en parte irreversibles, es decir, hay productos
de la reacción que no vuelven a transformarse en las sustancias reaccionantes. Para
decirlo de otra forma: en un sistema cerrado la sustancia A se transforma en B y ésta
nuevamente en A (reversibilidad), hasta un punto donde cada sustancia tiene una
determinada concentración, momento en el cual se alcanza el estado de equilibrio (Ley
de acción de masas). En un sistema abierto, una sustancia A se transforma en B pero
luego no se transforma nuevamente en A (irreversibilidad), con lo cual no cabe hablar de
equilibrio químico, que implica la idea de reversibilidad.
g.
Composición constante. Tanto en los sistemas cerrados como en los abiertos, la
proporción entre los diferentes componentes es constante, sólo que en los sistemas
abiertos tal constancia existe aún cuando haya un permanente intercambio de materiales
con el medio.
Composición constante en sistemas cerrados y abiertos
En el esquema adjunto, vemos que en la sangre la proporción entre oxígeno,
hemoglobina y oxihemoglobina se mantiene constante en un estado de equilibrio
explicable por la ley de acción de masas (sistemas cerrados). La misma situación se da
en los sistemas abiertos, a pesar de que continuamente esté entrando oxígeno desde
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
122
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
afuera y continuamente haya un recambio de hemoglobina (por destrucción y fabricación
de glóbulos rojos). Vale decir, en el estado uniforme hay constancia de composición con
recambio de componentes. Precisamente el metabolismo no es más que un balance
entre procesos anabólicos y catabólicos (o de asimilación y disimilación) a los efectos de
mantener un estado uniforme: es lo que se llama la autorregulación metabólica.
Estos ejemplos ilustran la afirmación de que un sistema abierto como lo es el organismo
viviente, contiene dentro de sí numerosos sub-sistemas (o sistemas parciales aislados)
que pueden considerarse como cerrados, pero que, tomado en su conjunto, es sin
embargo abierto, tendiendo hacia un estado uniforme.
31. ESTIMULO - RESPUESTA
El esquema [E-R] es uno de los cuatro principios básicos que fundan la psicología del
hombre-robot, según el cual el comportamiento animal y humano debe ser reducido a
respuestas a estímulos llegados desde el exterior. La TGS se opone a esta concepción del
hombre como organismo pasivo cuya conducta es básicamente reactiva.
i.
ii.
Concepto. El concepto de 'esquema estímulo-respuesta', o más simplemente 'esquema E-R',
implica considerar al comportamiento animal y humano como respuesta a estímulos externos.
Según esta concepción, el esquema E-R en parte se basa en mecanismos neuronales
heredados, como en los reflejos y la conducta instintiva. Pero la parte más importante de la
conducta humana son respuestas adquiridas o condicionadas, que también se inscriben
dentro del esquema E-R. Von Bertalanffy incluye en estas últimas diversos tipos de
condicionamiento:
a.
el condicionamiento clásico de Pavlov, que opera por repetición de la sucesión de
estímulos condicionados e incondicionados;
b.
el condicionamiento operante de Skinner, fundado en el reforzamiento de las respuestas
atinadas; y
c.
lo que von Bertalanffy califica como 'condicionamiento con trasfondo psicoanalítico',
fundado en las experiencias tempranas de la infancia y que hace que, por ejemplo, la
publicidad nos programe para comprar un refrigerador explotando su carácter de símbolo
del vientre materno.
Críticas. El esquema E-R, que junto a los principios del ambientalismo, de la economía y del
equilibrio, constituyen la base de las psicologías del hombre-robot antes mencionadas, es
fácilmente criticable, ya que deja sin explicación una gran parte del comportamiento humano
que es expresión de actividades espontáneas como el juego, la conducta exploratoria, la
autorrealización y cualquier forma de creatividad.
El esquema E-R es además, en cuanto a sus consecuencias prácticas, muy peligroso en tanto
lo consideremos como herramienta de los sistemas totalitarios que intentan transformar al
hombre en una máquina bien aceitada y ajustada al entorno social. Es un hecho que los
logros científicos se dedican tanto o más al uso destructivo que al constructivo.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
123
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
32. ESTRUCTURA
Según von Bertalanffy, todo sistema tiene un aspecto de estructura y un aspecto de
funciones o procesos que lleva a cabo merced a la primera. El aspecto estructural enfatiza
el sistema como conjunto de partes, y está estrechamente vinculado al aspecto funcional,
por lo que no tiene sentido la antigua oposición que se hacía entre ambos.
La línea europea de pensamiento se ha centrado más en las estructuras que en los
sistemas, aún cuando muchas veces ambos términos se refieren a lo mismo. Por ello en
dicho contexto de ha hablado de estructuralismos, entendiendo por tales corrientes que
han propuesto la idea de estructura como medio para la comprensión científica de la
realidad, especialmente de la realidad social.
i.
Acerca del planteo de von Bertalanffy. No es lo mismo sistema que estructura. Un sistema,
por ejemplo una célula, no puede definirse simplemente como una estructura, es decir,
entenderla como un conjunto de partes relacionadas espacialmente, sino además como una
entidad capaz de interactuar con el ambiente y/o de modificarse internamente para cumplir
determinadas funciones o finalidades. El aspecto estructural es más bien estático, y el
funcional, dinámico.
Von Bertalanffy critica la vieja antítesis entre 'estructura' y 'proceso', y que deberá acabar
resolviéndose dialécticamente en una nueva síntesis. En última instancia, estructura (como
orden jerárquico de partes) y función (como orden jerárquico de procesos) pudieran ser la
misma cosa: en el mundo físico la materia se disuelve en un juego de energías, y en el mundo
biológico las estructuras son expresión de una corriente de procesos.
Además, en el caso de la directividad estructural (Ver Finalidad), una disposición estructural
conduce el proceso de tal forma que es logrado determinado fin, aunque en otros casos,
como la equifinalidad, los procesos aparecen como relativamente independientes de la
estructura, si entendemos esta como mecanismos fijos y predeterminados. En la equifinalidad,
podría entenderse, es el proceso quien va configurando la estructura.
Von Bertalanffy relaciona también los aspectos estructurales con los aspectos internos del
sistema, y los funcionales con sus aspectos externos. Así, la descripción interna de un
sistema es esencialmente 'estructural', es decir, procura describir el comportamiento del
mismo en términos de variables de estado y de su interdependencia. La descripción externa
es 'funcional', es decir describe el comportamiento del sistema por su interacción con el medio
sin discernir las variables internas, o sea, considerándolo como una 'caja negra'.
Mientras los enfoques sistémicos se centran en el sistema, los enfoques estructuralistas lo
hacen sobre la estructura. Von Bertalanffy considera que las corrientes estructuralistas
francesas y la TGS tuvieron desarrollos independientes, lo que viene a demostrar una vez
más, para este autor, el 'paralelismo entre principios cognoscitivos generales en campos
diferentes'. Específicamente, dentro del estructuralismo francés cita a Piaget y a Lévi-Strauss,
aunque también podríamos incluir dentro del estructuralismo en general a pensadores como
De Saussure y Chomsky (en lingüística), Trubetzkoy (en fonología), Lacan (en psicoanálisis),
Barthes (en crítica literaria), y muchos otros.
ii.
Estructura según Piaget (1). La definición que da Piaget de estructura pone de relieve cómo
vuelven a reaparecer en distintas disciplinas conceptos como totalidad, autorregulación, etc.,
hecho sobre el cual von Bertalanffy funda la necesidad de una colaboración interdisciplinaria
desde una TGS.
a.
En una primera aproximación, una estructura es un sistema de transformaciones, que
implica leyes como sistema (por oposición a las propiedades de los elementos), y que se
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
124
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
conserva o se enriquece por el juego mismo de sus transformaciones, sin que éstas
lleguen más allá de sus fronteras o recurran a elementos exteriores. En una palabra, una
estructura comprende los tres caracteres de totalidad,
transformaciones y
autorregulación (1).
Totalidad significa que los elementos que conforman la estructura dependen de las leyes
propias del sistema, leyes que no se reducen a meras asociaciones acumulativas o
sumativas, sino que confieren al todo, como tal, propiedades de conjunto distintas de las
de los elementos.
Transformaciones significa que toda estructura, además de estar 'estructurada' como
totalidad, posee por sí misma una actividad estructurante que la convierte en una entidad
dinámica, y no es entonces una 'forma' estática cualquiera. Las transformaciones pueden
ser temporales (la estructura de la inteligencia a lo largo del tiempo sufre
transformaciones) o atemporales (como una estructura matemática, donde por ejemplo
sus leyes específicas permiten la 'transformación' de 1+1 en 2).
Autorregulación, finalmente, significa que las estructuras pueden regularse a sí mismas
con el fin de conservarse y obtener cierto 'cierre'. Esto a su vez implica que, mientras la
estructura se transforma y autorregula, genera elementos que también pertenecen a la
misma estructura (cierre) conservando (conservación) sus leyes. Por ejemplo si tomamos
la estructura del grupo aditivo en matemática, la suma de dos números enteros da
siempre otro número entero (o sea el resultado sigue perteneciendo a la misma
estructura= cierre), y el nuevo elemento cae también bajo la órbita de las mismas leyes.
Que una estructura tenga un cierto cierre no le impide integrar una estructura más
general en calidad de sub-estructura. El cierre es lo suficientemente sólido como para
permitirle seguir manteniendo su identidad y sus propias leyes, y lo suficientemente
elástico como para permitir su inclusión en una estructura mayor, de manera que el
cambio producido resulta siempre en un enriquecimiento.
b.
En una segunda aproximación, toda estructura debe poder dar lugar a una formalización,
y en este sentido comparte Piaget el ideal de von Bertalanffy de una futura formalización
o matematización de la ciencia. Decimos que una estructura es formalizable si su
funcionamiento puede ser traducido en términos de ecuaciones lógico-matemáticas, o
pasar por la intermediación de algún modelo cibernético. Las estructuras familiares, hoy
en día, están lejos de poder formalizarse matemáticamente, tal como están formalizados
los sistemas físicos en termodinámica, pero ni Piaget ni von Bertalanffy descartan la
posibilidad de tal emprendimiento teórico, necesario para el progreso de las ciencias.
Nota.
(1) Piaget J., El estructuralismo, Buenos Aires, Proteo, 1968, pág. 10.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
125
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
33. EXISTENCIALISMO
Como concepción psicológica, se trata de una visión totalista del hombre que incorpora
variables como el sentido o el sinsentido de la vida, la autorrealización, etc., con lo cual se
busca mostrar que la realidad humana es compleja y que el comportamiento humano no
puede ser reducido a una simple satisfacción de impulsos biológicos, o a intentos por
mantener un equilibrio psicológico y social en el restringido sentido homeostático.
Aunque von Bertalanffy critica el lenguaje oscuro -poco científico- que suelen utilizar los
existencialistas, y sus planteos acerca de que la condición humana cae más allá de la
comprensión científica, rescata de esta postura su visión holista (totalista) del hombre, la idea de
un sistema activo de personalidad que implica una reorientación de la psicología hacia la teoría de
los sistemas, opuesta a las concepciones psicológicas del hombre-robot, que pretendían reducir
los acontecimientos mentales y el comportamiento a un manojo de sensaciones, pulsiones,
reacciones innatas y aprendidas, o cualesquiera elementos últimos fuesen presupuestos
teóricamente.
En este sentido, la psicología existencial comparte este mérito con las psicologías del desarrollo
de Piaget y Werner, con varias escuelas neofreudianas, con la psicología del yo, con los nuevos
puntos de vista sobre la percepción y la cognición, con las teorías de la personalidad de Allport y
Maslow, etc..
34. EXPLICACIÓN
A. En general, explicar significa responder a un 'porqué', y más específicamente significa
incluir o subsumir un fenómeno bajo una ley.
B. En el uso que da von Bertalanffy de este término, la explicación no difiere del sentido
anterior y se aplica a todo proceso en el cual intentamos describir una determinada clase
de fenómenos a partir de ciertas leyes específicas y de ciertas condiciones dadas. Un caso
especial de explicación es la llamada 'explicación en principio'.
i.
Consideración preliminar. En general, explicar un fenómeno significa incluirlo bajo una ley y
bajo determinadas condiciones. Por ejemplo, la dilatación de los metales se explica a partir de
la ley que dice que 'todos los metales se dilatan con el calor' y a partir de la condición de que,
en el fenómeno a explicar, el metal sea sometido al calor.
De acuerdo al modelo de
explicación suministrado por
Hempel y Oppenheim (1), al
explicar
razonamos
utilizando
un
tipo
de
inferencia llamado modus
ponens y que, aplicado al
caso de la explicación, sigue
el siguiente esquema:
Que se lee: dada la ley y la
condición antecedente, por
lo tanto ocurre el fenómeno.
En el ejemplo anterior: dada
la ley de la dilatación de los
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
126
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
metales por efecto del calor (ley) y dado que estamos calentando este trozo de metal
(condición antecedente), por lo tanto dicho trozo de metal se dilatará.
Esta consideración previa nos permitirá ubicarnos mejor respecto del empleo que hace von
Bertalanffy del término 'explicación', que se funda en el criterio expuesto y que a continuación
detallamos.
ii.
Definición. Explicar un objeto determinado o una clase de objetos significa describirlo a partir
de leyes y condiciones específicas. Por ejemplo, a partir de las leyes del equilibrio químico, de
las leyes del crecimiento de un organismo, etc., podemos explicar los correspondientes
fenómenos.
La explicación constituye el tercero de los tres niveles de descripción de los fenómenos en el
contexto de la TGS, junto con la analogía y la homología (véanse estos términos). La
explicación debe distinguirse especialmente de la homología: ésta última se refiere a
correspondencias formales entre fenómenos, mientras que la explicación alude a leyes
específicas en común entre los mismos, aún cuando sea posible "que también leyes
específicas exhiban correspondencias formales u homologías".
Un ejemplo para distinguir explicación de homología puede ser el siguiente: los líquidos en
movimiento y los potenciales eléctricos son fenómenos homólogos en cuanto por ejemplo en
ambos se verifican gradientes, pero se explican de manera diferente porque para cada uno se
recurre a leyes distintas: las leyes de la hidrodinámica y las leyes de la electricidad,
respectivamente.
iii. Clasificación. Las explicaciones pueden ser cuantitativas o cualitativas, según introduzcan o
no variables medibles numéricamente. Von Bertalanffy plantea que las primeras son
preferibles a las segundas, son 'más explicativas', pero, a pesar de ello y si no hay alternativa,
una explicación cualitativa es mejor que una falta de explicación. Ello ocurre cuando la
cuantificación es imposible. En tales casos e inclusive si los componentes están mal definidos,
puede al menos esperarse que algunos principios sean aplicables cualitativamente al total
como sistema. La explicación cualitativa no es, por otra parte, exclusiva de las ciencias
sociales, sino que también existe en campos como la meteorología y la teoría de la evolución.
Tomando una denominación del economista Hayek que data de mediados de nuestro siglo, a
las explicaciones cualitativas se las puede llamar "explicaciones en principio". Hayek sostiene
que los profesores de economía no son millonarios, es decir, saben explicar bien los
fenómenos económicos 'en principio', pero no llegan a predecir fluctuaciones de la bolsa con
respecto a determinadas participaciones o fechas. Al respecto von Bertalanffy señala que si
se consiguieran insertar los parámetros necesarios [en forma cuantitativa], la explicación 'en
principio', en términos de la TGS pasaría a ser una teoría estructuralmente análoga a una
teoría física.
Hay muchas organizaciones que no se prestan fácilmente a interpretaciones cuantitativas. La
teoría de los equilibrios biológicos o la teoría de la selección natural son correctas y legítimas,
pero no resultan fácil aplicarlas porque los parámetros escogidos, tales como el valor selectivo
o el ritmo de destrucción y generación no son fáciles de medir [numéricamente].
Nota.
(1) Hempel Carl (1977) Filosofía de la ciencia natural. Madrid: Alianza, 3° edición, capítulo 5.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
127
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
35. FILOSOFÍA DE LOS SISTEMAS
Parte de la TGS en sentido amplio. Se ocupa de la reorientación del pensamiento y la visión
del mundo resultante de la introducción del 'sistema' como nuevo paradigma científico, y
como tal, abarca tres partes: la ontología de sistemas, la epistemología de sistemas y la
teoría de los valores.
La Filosofía de Sistemas, junto con la Ciencia de los sistemas y la Tecnología de los sistemas, es
una de las tres partes de la TGS en sentido amplio. Se refiere a la nueva cosmovisión resultante
de introducir el paradigma sistémico, o sea una 'nueva filosofía de la naturaleza' que contrasta con
la visión mecanicista del mundo que había imperado hasta entonces. Las tres partes de la
Filosofía de los sistemas son la Ontología de sistemas (Ver Ontología de sistemas), la
Epistemología de sistemas (Ver Epistemología de sistemas), y la teoría de los valores, y que
podríamos aquí llamar 'axiología' de sistemas (ver Valor).
36. FINALIDAD
Propiedad formal de los sistemas en general, según la cual están o parecen estar
orientados hacia un fin o meta. Bajo este concepto se incluyen una gran diversidad de
fenómenos explicables en términos de directividad, teleología, adaptación, adecuación,
homeostasis, equifinalidad, intencionalidad, etc.
Von Bertalanffy no parece establecer una distinción importante entre los términos finalidad
y teleología, razón por la cual a los efectos prácticos los consideraremos sinónimos. Los
vocablos restantes tienen en general definiciones específicas, y son en general planteados
como tipos de finalidad.
i.
Generalidades. Muchos fenómenos, y especialmente los estudiados por la biología y la
psicología, suscitaron en filósofos y científicos la hipótesis según la cual aquellos se
comportan como si intentaran alcanzar una meta prevista, es decir, que pueden expresarse
en términos de acontecimientos dependientes de un estado futuro final.
Von Bertalanffy no da explícitamente una definición del término 'finalidad'. En su lugar, se
embarca en una discusión del mismo en relación con las ideas de equilibrio y causalidad, y
luego intenta una clasificación de los distintos tipos de finalidad que pueden encontrarse
empíricamente.
ii.
Finalidad y equilibrio. Ciertas formulaciones de la física tienen un carácter en apariencia
finalista, como las abarcadas por el llamado 'principio de acción mínima' o principio del
mínimo esfuerzo de la mecánica. Este principio sostiene que, en caso de perturbación, un
sistema genera fuerzas que contrarrestan dicha perturbación y restauran el estado de
equilibrio. Para Maupertuis, quien lo formuló, su principio era una prueba de que en la
naturaleza, de los muchos posibles movimientos que se pueden realizar, se ejecuta sólo aquel
que logra el máximo efecto con el mínimo esfuerzo.
Derivaciones del principio del mínimo esfuerzo son, por ejemplo el principio físico-químico de
Le Chatelier y la regla de Lenz en electricidad: todos ellos apuntan a mostrar que un sistema
tiende siempre a volver a su equilibrio perdido.
Von Bertalanffy sostiene que tal principio exhibe finalidad pero sólo en apariencia: el sistema
no prevé un estado final de equilibrio y entonces lo busca, sino que, por las mismas leyes de
funcionamiento
del
sistema,
describibles
matemáticamente,
éste evolucionará
espontáneamente hacia el estado final de equilibrio. Se trata del fin del proceso, no de una
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
128
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
meta buscada. Si tendemos a ver en él una meta prevista es porque estamos interpretándolo
antropomórficamente.
iii. Finalidad y causalidad.- Muchos filósofos han concebido la finalidad como lo inverso de la
causalidad, en el sentido que la finalidad depende de una condición futura, mientras la
causalidad de una condición pasada. Von Bertalanffy, que al principio creía lo mismo, criticará
esta opinión diciendo que tal oposición no existe, y que la finalidad puede explicarse en
términos de causalidad, y puede reducirse a ella.
Sobre la base de ciertas consideraciones matemáticas que aquí no desarrollaremos, es
posible mostrar que en ecuaciones diferenciales que describen procesos de crecimiento a lo
largo del tiempo (por ejemplo el aumento de talla en los animales), tales procesos no quedan
determinados por ningún estado final o venidero sino por las condiciones actuales, las que,
entonces, operarían como causa del estado final, o efecto. Así, la dirección del proceso hacia
un estado final no es algo que difiera de la causalidad, sino que es una expresión más de ella.
La referencia en ciertas ecuaciones a estados finales es cosa que inquietó a algunos biólogos,
quienes creyeron ver en tal orientación una prueba de 'vitalismo', como si hubiera una fuerza
vital que lleva a los procesos hacia un fin.
iv. Tipos de finalidad. Existen dos tipos fundamentales de finalidad: la teleología estática y la
teleología dinámica. A los efectos de la TGS, son especialmente importantes los segundos, en
los que podemos discriminar cuatro variedades:
a.
Directividad 'tendencial' (von Bertalanffy no emplea este término);
b.
Directividad estructural;
c.
Equifinalidad; y
d.
Intencionalidad.
1.
Teleología estática. Llamada también adecuación, se trata de una disposición que
parece útil para determinado propósito. Ejemplos: el pelaje sirve para mantener caliente
el cuerpo, el mimetismo protege a los animales de sus enemigos, etc. En el campo de las
cosas hechas por el hombre, un abrigo en la medida en que permite protegerse del frío.
2.
Teleología dinámica o Directividad de procesos. Von Bertalanffy discrimina aquí
cuatro tipos de fenómenos, que a menudo suelen confundirse:
ά.
Directividad 'tendencial': Es la dirección de acontecimientos hacia un estado final
que puede ser expresado como si el presente comportamiento dependiera del estado
final. Todo sistema que alcanza una condición independiente del tiempo se conduce
de esta manera.
β.
Directividad estructural: Acontecimientos en los cuales una disposición estructural
conduce el proceso de tal forma que se logre determinado resultado. Ejemplos: las
máquinas creadas por el hombre y las estructuras biológicas. En ambos casos su
misma estructura las lleva a obtener tal o cual resultado final en cuanto entran en
funcionamiento. Si alteramos la estructura, no se cumple el fin original. No obstante,
hay una diferencia importante: mientras la máquina artificial funciona dando un
determinado resultado (un motor debe hacer andar el coche, por ejemplo) pues para
ello fue construida, el sistema vivo funciona de tal forma que mantiene el sistema
mismo. El motor en cambio, al no tender hacia este fin, se desgasta mucho más
rápidamente, ni tampoco puede reproducirse para auto perpetuarse.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
129
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Una parte importante de esos procesos de automantenimiento típicos del ser viviente
es posible gracias a la homeostasis, por la cual se mantiene constante la situación
material y energética del organismo. Por ejemplo, la termorregulación. la
conservación de la concentración de sales, etc. Estas regulaciones homeostáticas
están en gran medida gobernadas por la retroalimentación, que también está
presente en las máquinas artificiales.
γ.
Equifinalidad: Parece ser la responsable de la regulación primaria en los sistemas
orgánicos (Ver Regulación), o sea de aquellas regulaciones que no pueden basarse
en estructuras o mecanismos predeterminados, y que el vitalismo adjudicó a fuerzas
misteriosas y duendecillos. La equifinalidad (ver este término) es, sucintamente, la
posibilidad de poder alcanzar el mismo estado final partiendo de diferentes
condiciones iniciales y por diferentes caminos. La equifinalidad es característica de
los sistemas abiertos.
δ.
Intencionalidad: Es la genuina finalidad, una inteligencia planeadora cuyo
comportamiento está guiado por una meta prevista de antemano. Es característica
del comportamiento humano y está vinculada a la evolución del simbolismo del
lenguaje y los conceptos.
Estos cuatro sentidos de finalidad suelen ser confundidos. Von Bertalanffy, para aclarar
aún más los alcances de cada uno, da tres ejemplos:
1. en el campo de las cosas hechas por el hombre, la adecuación (1) y el
funcionamiento teleológico de las máquinas (2β) se deben, por supuesto, a una
inteligencia planeadora (2δ).
2. La adecuación en los seres vivos (1) es de suponerse que puede ser explicada
por el juego de mutaciones al azar y selección natural. Pero tal explicación ya no
sirve para explicar el origen de complicadísimos mecanismos de retroalimentación
orgánicos (2β).
3. El vitalismo es, en resumidas cuentas, el intento de explicar la directividad
orgánica (2β y 2γ) por medio de la inteligencia previsora de la meta (2δ).
37. GENERALISTA CIENTÍFICO
Persona calificada para encarar problemas de sistemas, cuya existencia se justificaría a
partir de la necesidad de un enfoque más sencillo y unificado de los problemas científicos.
Antónimo: especialista científico.
i.
Generalidades. El generalista es lo opuesto al especialista, y busca compensar la tendencia
de estos últimos a establecer, dentro de las ciencias, dominios cada vez más pequeños y
separados hasta convertirlos en áreas insignificantes y sin conexión con las demás.
Para contrarrestar esta tendencia, todo equipo de investigación debiera contar con un
'generalista' para tratar en forma más sencilla y unificada los problemas científicos,
fomentando un enfoque integrado e interdisciplinario de estos, es decir, uniendo en vez de
separar los diversos dominios de la ciencia. En una palabra, el generalista no estudiaría una
sola ciencia en particular -aunque pueda ser biólogo o psicólogo de profesión- sino que es un
estudioso de la unificación de las ciencias a partir de la TGS ya que, si bien el generalista
puede estudiar problemas muy específicos, como el especialista, lo hace sobre la base de
conceptos que, como el de 'sistema', son básicos y válidos para cualquier extensión del
conocimiento. Ello significa que no intentará aislar el problema de los demás problemas
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
130
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
científicos, ni su solución de las demás soluciones, sino que procurará integrarlos en base a
una visión de conjunto.
ii.
Educación. Para ser generalista se requiere una educación. A su vez, el generalista también
educa. En la perspectiva de la TGS de von Bertalanffy, la educación es un proceso que
implica no solamente el desarrollo de valores propiamente científicos, sino también el
despliegue de valores éticos.
Como desarrollo de valores científicos, la educación no es una mera presentación de
información donde se acumulan dato tras dato, sino en la formación de una manera de pensar
integrada que procure una comprensión de la realidad desde el punto de vista sistémico, lo
que implica no solamente comunicación sino también integración interdisciplinaria de los
hechos estudiados.
Como desarrollo de valores éticos, la educación contribuiría al desarrollo de la personalidad, y
a la concientización de la ciencia como herramienta para el bienestar de la sociedad humana,
y no para su autodestrucción.
38. HISTORIA
Ciencia social que se ocupa del estudio de cómo devienen y se desarrollan en el tiempo las
sociedades, culturas o civilizaciones humanas. Se trata de un estudio longitudinal (a través
del tiempo) que puede y debe ser encarado desde la perspectiva de la TGS constituyéndose
así, como una 'historia teórica'.
i. Historia y sociología. Mientras la sociología estudia las sociedades humanas
transversalmente, es decir, cómo es una sociedad en una sección transversal del tiempo
(presente), la historia lo encara longitudinalmente, es decir a través del tiempo. La sociología
estudia como 'son' las sociedades, y la historia como 'devienen', de manera que ambas tienen el
mismo objeto de estudio, a pesar de contar con técnicas de investigación por completo diferentes.
ii.
Historia académica e historia teórica. Von Bertalanffy establece una distinción entre una
historia académica, que sigue un procedimiento idiográfico, y la historia teórica que sigue uno
nomotético y, por tanto, más emparentado con una actitud sistémica.
La historia académica se concentra en la singularidad e irrepetibilidad de los hechos
históricos, y suele hacerlos depende mas bien de decisiones y acciones individuales. Por
ejemplo: Napoleón puso a Europa de cabeza en virtud de su ambición desmedida. Se procura
averiguar 'quién hizo qué', y eventualmente 'porqué lo hizo' invocando razones individuales y
aislando los hechos históricos entre sí por responder a motivaciones personales diferentes.
Para la historia académica los hechos históricos son únicos e irrepetibles (enfoque idiográfico)
y por tanto carece de sentido explicarlos a todos a partir de las mismas leyes y regularidades
generales (enfoque nomotético).
La historia teórica sostiene, en cambio, que los acontecimientos parecen envolver algo más
que las decisiones y acciones individuales, y estarían determinados sea por 'fuerzas
históricas', 'sistemas' socioculturales, trátese de prejuicios, ideologías, grupos de presión,
tendencias sociales al crecimiento o a decadencia, etc. Si bien dentro de este segundo
enfoque de la historia existen planteos algo intuitivos y metafísicos, como los de Vico, Hegel,
Marx, Spengler, Toynbee, Sorokin, Kroeber y otros, cabe incluir en él también las
orientaciones sistémicas, propiamente denominadas historia teórica, que conciben a ésta ante
todo como una consrtrucción conceptual fundada en las leyes o regularidades de los sistemas
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
131
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
socio-culturales, y con las cuales buscan sanamente sustituir los enfoques más filosóficos o
metafísicos antes citados.
iii. Críticas y réplicas entre el enfoque académico y el enfoque teórico de la historia. La
historia académica condena las construcciones en la historia teórica por 'intuitivas', 'contrarias
a los hechos', 'arbitrarias', etc., y le critican sus intentos por encajar los hechos de la historia
en teorías artificiosamente inventadas. La historia teórica procurará, precisamente, limpiar las
construcciones o teorías que explican la historia de sus encajes filosóficos, transformando los
problemas metafísicos en problemas científicos, y tomando como base la TGS.
Utilizando el lenguaje de la psicología de la conducta, la historia académica adopta una
actitud 'molecular' al fragmentar el comportamiento en partes aisladas y tratarlos en términos
de causas y efectos singulares, mientras que la historia teórica procura una actitud 'molar', es
decir, entender el comportamiento como un fenómeno total con la esperanza de descubrir las
grandes leyes que lo rigen. Reemplacemos 'comportamiento' por 'hecho histórico' y la
distinción entre molecular y molar podrá aplicarse a la historia.
Otra crítica que puede recaer sobre la actitud teórica se basa en el argumento de la
inevitabilidad histórica: si la historia está gobernada por leyes generales, los hechos históricos
pasados, presentes y sobre todo los futuros serían inevitables, lo cual contradice nuestra
experiencia de sujetos con libre albedrío. Von Bertalanffy replica que esta critica es
improcedente, porque las leyes históricas no pretenden predecir, al modo laplaceano, un
porvenir inexorablemente determinado, sino tan sólo probabilidades. El moderno espíritu de la
ciencia ve en las leyes un carácter mas bien estadístico, que deja cierto margen para que el
curso de la historia no devenga de manera fatal e inexorable.
En este contexto, von Bertalanffy hace referencia al principio de actualidad, según el cual no
debe recurrirse a más hipótesis o principios explicativos que los sustentados efectivamente
por la evidencia empírica hasta el presente, es decir, al momento de formular la hipótesis en
cuestión.
Von Bertalanffy cita este principio, especialmente aplicable a campos históricos como la
geología o la evolución, simplemente como criterio para elegir entre dos teorías contrapuestas
(racionalismo vs. irracionalismo) en el contexto de su discusión sobre la aplicabilidad de la
TGS a la historia y al 'libre albedrío'. En efecto, si aplicamos el principio de actualidad a las
decisiones humanas, deberemos quedarnos con el irracionalismo, porque la evidencia
empírica muestra que aquellas decisiones son, según los datos estadísticos, más irracionales
que racionales.
39. HOMEOSTASIS
Principio establecido por el fisiólogo Cannon y según el cual, una parte importante de los
procesos en los sistemas vivos tienden a mantener constante la situación material y
energética del organismo. Ejemplo típico: la termorregulación. Muchas actividades
biológicas y psicológicas no están regidas, sin embargo, por este importante principio.
I
Definición y ejemplos. Cuando por algún motivo se rompe el equilibrio en un sistema vivo,
un mecanismo homeostático produce una serie de modificaciones que devolverán al sistema
al equilibrio original. 'Homeostasis' significa 'igual estado', es decir, el sistema busca recuperar
el mismo estado de equilibrio que tenía anteriormente a la perturbación. Cannon, el
introductor del concepto en fisiología, define la homeostasis como una disposición fisiológica
que sirve para restaurar el estado normal una vez que ha sido trastornado (1).
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
132
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Ejemplos:
ii.
a.
Termorregulación: cuando la temperatura de nuestro cuerpo pasa de los límites
normales, se desencadenan ciertos mecanismos que intentarán retornar a la temperatura
normal, como por ejemplo transpirar. Si la temperatura baja demasiado, el mismo
mecanismo termorregulador se encargará de subirla, de manera que siempre tiende a
mantener una temperatura constante, a saber, la óptima para que los procesos vitales
puedan cumplirse con normalidad. Existen en el cuerpo mecanismos homeostáticos
análogos que preservan la constancia de gran número de variables físico-químicas, como
por ejemplo la conservación de la presión osmótica del pH, de la concentración de sales,
etc.
b.
Sistemas Retroalimentados. Existen en el organismo humano y animal otros sistemas
también retroalimentados comparables a los servomecanismos de la tecnología, que se
encargan de la regulación de posturas y acciones. Si queremos alcanzar un lápiz, se
envía al sistema nervioso central un informe sobre la distancia que nos impidió llegar a él
en el primer intento: esta información es retroalimentada al sistema nervioso central para
que el movimiento sea controlado, hasta que se logre la meta.
Homeostasis y retroalimentación. Los ejemplos precedentes ponen de manifiesto que el
mecanismo responsable de la homeostasis es la retroalimentación. Todos los mecanismos
homeostáticos están gobernados, en gran medida, por un mecanismo de retroalimentación,
pero no todo proceso de retroalimentación es homeostático, porque por definición, la
homeostasis se aplica sólo a sistemas vivos. Por ejemplo, es posible encontrar también
retroalimentación en las máquinas creadas por el hombre, como en los cañones antiaéreos,
los proyectiles autodirigidos y los servomecanismos.
iii. Limitaciones del principio de homeostasis. Se ha exagerado muchas veces la importancia
de este principio. Por ejemplo, fue con el principio homeostático con el cual el psicoanálisis
identificó su teoría de la descarga de tensiones como única tendencia primaria.
Sin embargo, muchos fenómenos han obligado a una completa revisión de este principio, que
insistía únicamente en la tendencia al equilibrio. De hecho, el mismo Cannon reconoció que
además de los mecanismos homeostáticos existían también mecanismos 'heterostáticos',
vinculados a fenómenos de otra índole como por ejemplo, por utilizar terminología de von
Bertalanffy, fenómenos de evolución, de entropía negativa, de producción de estados
improbables, creatividad, establecimiento de tensiones, autorrealización, etc.
Más concretamente, el esquema homeostático no es aplicable:
a.
A regulaciones dinámicas, o sea a regulaciones no basadas en mecanismos fijos sino
que se dan dentro de un sistema que funciona como un todo, como por ejemplo los
procesos de regulación después de lesiones cerebrales;
b.
A actividades espontáneas;
c.
A procesos cuya meta no es la reducción sino el establecimiento de tensiones;
d.
A procesos de crecimiento, desarrollo, creación y similares.
Tampoco el principio el aplicable a actividades humanas consideradas no útiles -para la
conservación y supervivencia, se entiende- como el arte y otras manifestaciones de la cultura.
Según von Bertalanffy, el modelo homeostático sí puede en cambio aplicarse en sicopatología,
porque en general las funciones no homeostáticas decaen en los pacientes mentales. Como
había dicho Karl Menninger, las defensas mentales enfermas hacen descender al paciente a
niveles homeostáticos cada vez más bajos, hasta no dejar sino la preservación fisiológica.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
133
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Muchos fenómenos requieren, entonces, otro tipo de explicación, más allá del principio de
homeostasis, con lo cual habrá que recurrir a conceptos tales como equifinalidad e
intencionalidad.
La insistencia en la importancia del principio homeostático puede conducir a resultados
adversos. Si tal principio fuese tomado como regla de oro del comportamiento humano, el
individuo bien llamado ajustado será la meta última del sistema social, un robot bien aceitado
que se mantenga en óptima homeostasis biológica, psicológica y social: un 'mundo feliz' que
para muchos no es en modo alguno el estado ideal de la humanidad. Del mismo modo si
adoptáramos el principio homeostático en la educación, ésta debería ser progresiva, sin
estímulos y sin influencias directoras porque todo ello aleja al sujeto cada vez más del
equilibrio original (serían fuerzas más desequilibrantes), lo cual traería como consecuencia
una cosecha de ignorantes y delincuentes juveniles sin precedente.
En sicopatología, de idéntica forma, se sabe que los sujetos con privación sensorial, aislados
de todo estímulo externo que 'rompa el equilibrio', en pocas horas sucumben a la llamada
psicosis modelo, con alucinaciones, angustia insufrible, etc. En contraste, el máximo estrés
(que implica aumento de tensiones, no reducción como dice la homeostasis) no produce
necesariamente trastornos mentales.
Nota.
(1) Cannon W., La sabiduría del cuerpo, 1932.
40. HOMOLOGÍA
Correspondencia formal fundada en la realidad, y gracias a la cual está última puede
considerársela como un sistema, sea de la índole que sea. Así, las homologías permiten el
isomorfismo en la ciencia brindando el enfoque correcto para la consideración de los
fenómenos.
i.
Concepto. En el marco de su discusión del concepto de isomorfismo, von Bertalanffy
distingue tres niveles en la descripción de los fenómenos: las analogías, las homologías y las
explicaciones.
Dos fenómenos son homólogos cuando, aunque estén determinados por causas diferentes,
siguen un modelo conceptual formalmente idéntico. Así por ejemplo el fluir de un líquido y el
fluir del calor son fenómenos formalmente idénticos, aunque estén regidos por leyes causales
distintas: el primero está regido por leyes hidrodinámicas, mientras que el segundo por la
teoría cinética del calor.
Otros ejemplos son:
a.
la corriente de un líquido y la corriente eléctrica,
b.
todos los fenómenos en los cuales hay un gradiente, es decir, una gradación de más a
menos (en oposición al 'todo o nada'), como en el potencial eléctrico, en el potencial
químico, en los líquidos en movimiento, etc.
Son estos ejemplos de homologías en física y química, pero von Bertalanffy intenta mostrar
que las homologías están presentes en todas las ciencias, y entonces habla de una
homología en un sentido muy abstracto que él llama homología lógica, y que puede
expresarse así: si un objeto es un sistema, debe tener ciertas características de los sistemas,
sin importar de qué sistema se trate. Así, el hecho de que haya homologías entre fenómenos
nos permite conceptualizarlos a todos ellos como sistemas, con lo cual estaremos en la
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
134
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
consideración correcta de los mismos (por oposición a las simples analogías, que se refieren
a semejanzas más superficiales y, por tanto, engañosas). La TGS puede permitir identificar la
distinción entre analogías y homologías, mostrando a las primeras como parecidos sin sentido
y a las segundas como traslados significativos de modelos, cosa que no debe confundirse con
hacer un reduccionismo.
ii.
Homología en biología. Cabe suponer, dada su formación como biólogo, que von Bertalanffy
extrajo los términos 'analogía ' y 'homología' de la biología evolutiva. En este contexto,
órganos análogos cumplen la misma función, pero son totalmente diferentes en cuanto a
organización y origen. Ejemplo: las alas de un ave y las alas de una mariposa. En cambio
órganos homólogos son aquellos que sí tienen organización y orígenes semejantes, más allá
de si cumplen actualmente la misma función o no. Por ejemplo el ala de un ave es homóloga
al brazo de un hombre o al ala de un murciélago.
La homología es un concepto científico más fecundo, porque permite establecer si dos seres
vivos provienen de la misma línea evolutiva y, por tanto, resulta necesario para su
clasificación concreta dentro del conjunto de los seres vivos (por ejemplo, como mamífero).
Catalogar los animales por simples analogías puede llevarnos a un sistema artificial de
clasificación y a una incorrecta interpretación de las líneas evolutivas, como por ejemplo
afirmar que la gaviota y la mariposa derivan de un mismo ancestro porque ambas tienen alas.
41. INDIVIDUO / INDIVIDUALIZACIÓN
Un individuo es un sistema centralizado. Por ejemplo una planta, un animal, una gestalten,
el hombre. Tanto en la evolución filogenética como en el desarrollo ontogenético, el ser
vivo evoluciona desde un estado de mínima individualización hacia otra de máxima
individualización, proceso que, bajo la denominación de individualización progresiva,
constituye uno de los principios formales y generales de los sistemas.
Para que un sistema llegue a constituir un individuo, sus diversas partes deben pasar a depender
progresivamente de otra parte central o conductora, es decir, la individualización presupone la
centralización. De aquí la definición de individuo como sistema centralizado. Por ejemplo, una
multitud amorfa no tiene 'individualidad'; para que una estructura social se distinga de otras, es
necesario el agrupamiento en torno a determinados individuos que constituyan su parte
conductora.
El vocablo 'individuo' significa originalmente 'indivisible' o 'único', y en la medida que es único
puede ser recortado o discernido de otros individuos. Este proceso de progresiva individualización
idealmente debiera concluir una individualización completa, pero esto es sólo un ideal: un
organismo, un sistema mental, una sociedad, en virtud de su centralización progresiva, sólo
pueden hacerse cada vez más unificados y más indivisibles, pero no totalmente en la medida en
que subsista algún tipo de relación con los demás individuos-sistemas.
En los animales inferiores (filogenia) o en los primeros estadios embrionarios (ontogenia), hay aún
poca individualización (precisamente porque hay poca centralización). ¿Será posible llamar
'individuo' a una planaria en vista de que si esos animales son cortados en muchos pedazos, cada
uno regenera un animal completo? También es fácil crear experimentalmente hidras de dos
cabezas, las cuales buscarán atrapar una pulga de agua, si bien no tiene importancia cuál de las
dos se la engullirá porque irán a parar un estómago en común para beneficio de ambas partes.
Aquí no hay una centralización suficiente como para que una de ambas cabezas domine sobre la
otra y la haga funcionar, por ejemplo, como vía de excreción. De modo similar, si cortamos en dos
mitades un embrión de salamandra, cada una generará una salamandra completa.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
135
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Von Bertalanffy menciona también a los individuos calificando a los seres humanos, y lo hace en
este caso en un sentido ético. La TGS aspira a rescatar la individualidad del hombre, sus valores,
sus derechos, etc., alertando acerca del mal uso de la teoría de sistemas cuando se pone al
servicio de organizaciones totalitarias que sojuzgan al hombre considerándolo menos como un
individuo que como un engranaje más de la máquina social. En este sentido, rescata la
advertencia del Leviatán acerca de que la organización no debe engullir al individuo si no quiere
firmar su sentencia de muerte.
42. INFORMACIÓN, TEORÍA
Teoría matemática desarrollada desde la década del '40 en adelante y basada en gran parte
en los trabajos de Shannon, que se ocupa de testimoniar la unidad conceptual de una
diversidad de procesos que implican transmitir, almacenar y procesar información.
La Teoría de la información, junto con la cibernética, la teoría de los juegos y otras disciplinas
igualmente recientes, constituyen progresos que están destinados a enfrentarse a las necesidades
de una TGS. Se trata, concretamente, de enfoques centrados en una concepción sistémica de la
realidad. Von Bertalanffy se refería a ella también como 'teoría de la comunicación', aunque en
general se tiende a concebir a la teoría de la información como una expresión más generalizada de
la teoría de la comunicación, al acentuar los aspectos formales de ésta última (sintácticos) más que
sus aspectos de contenido (semánticos y pragmáticos).
43. INTEGRACIÓN
Característica de los sistemas abiertos según la cual estos, en su evolución, van
organizando sus diversas partes y funciones en torno a otras más centrales que dirigirán el
proceso, interconectando y coordinando las primeras.
Si bien no es un término específico utilizado por von Bertalanffy, este autor utiliza la idea
sobretodo en relación con ciertas propiedades formales de los sistemas, como la centralización y
la individualización (Ver Sistema, Centralización, Individuo / Individualización).
La integración supone la centralización, y da como resultado la individualización. La centralización,
porque integrar implica reunir diferentes procesos y funciones parciales bajo el control de una
parte conductora o central. El sistema nervioso se integra en la medida en que los centros
superiores pueden dirigir o controlar a los inferiores. Esta integración da lugar a una
individualización, es decir, hace funcionar al sistema como un todo idealmente indivisible y
relativamente aislado de los otros sistemas (precisamente, individualización viene de 'individuo' y
este a su vez, de 'indivisible'). Se trata de una unificación a partir de una parte conductora.
Similares características podemos observar también en la personalidad o en los sistemas sociales.
44. INTENCIONALIDAD
Tipo de finalidad en la cual el comportamiento actual está determinado por una meta
prevista de antemano. La verdadera intencionalidad es característica del comportamiento
humano y está vinculada a la evolución del simbolismo del lenguaje y los conceptos.
La intencionalidad presupone que la meta futura está ya presente en el pensamiento y que está
dirigiendo la acción presente: 'si hago esto podré conseguir aquello'. Tal es el concepto aristotélico
original. Aristóteles distinguía cuatro causas: la causa material, la formal, la eficiente y la final. La
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
136
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
causa eficiente es la noción tradicional de causa utilizada sobretodo en la ciencia, mientras que la
causa final es, en la concepción de von Bertalanffy, lo que él llama intencionalidad.
La intencionalidad es típica de la conducta humana. De hecho, es imposible prescindir de la
persecución de metas y de la intencionalidad, aunque se adopte una posición estrictamente
conductista.
El método del ensayo y error físico, tan característico del comportamiento animal, es reemplazado
en el hombre por la 'experimentación mental', con símbolos conceptuales. Esto es lo que hace
posible la persecución de metas. La persecución de metas y la teleología en un sentido metafísico
(o sea, la tendencia del organismo a mantenerse, producirse y reproducirse) constituyen un criterio
general de vida. Sin embargo, la verdadera intencionalidad, propia del hombre, implica que las
acciones son realizadas con conocimiento de su meta o resultado final futuro; la concepción de la
meta venidera ya existe e influye sobre las acciones presentes. Esto se aplica tanto a las acciones
cotidianas como a los supremos logros del intelecto humano en la ciencia y la tecnología.
45. INTERDISCIPLINARIO
Punto de vista defendido por la TGS, y que sostiene la posibilidad de introducir nuevos
modelos conceptuales, llamados modelos interdisciplinarios, que trascienden los
compartimientos ordinarios de la ciencia y son aplicables a fenómenos de diferentes
campos.
i.
Generalidades. La TGS aspira a satisfacer la necesidad de formular principios básicos
interdisciplinarios, habida cuenta de que investigadores en campos muy diversos han dado
independientemente con conceptos generales muy similares. Semejantes correspondencias o
isomorfismos son tanto más significativos cuanto que se fundan en hechos totalmente
diferentes.
No debe confundirse un enfoque interdisciplinario con un enfoque reduccionista (todas las
ciencias se reducen a una única ciencia) ni con un enfoque monopolista (existe un 'sistema
universal' único que lo abarque todo, más allá de si pertenece o no en forma privilegiada a
una determinada ciencia).
ii.
Interdisciplina y reduccionismo. El planteo interdisciplinario no busca explicar todos los
fenómenos desde una determinada ciencia, al modo reduccionista. De hecho, las teorías de la
física ordinaria no alcanzan, por ejemplo, para explicar los fenómenos biológicos, ni el
comportamiento humano, ni la sociedad, ni las civilizaciones. Tampoco el punto de vista
interdisciplinario pretende elaborar un modelo único que monopolice todas las explicaciones
en todas las ciencias porque, si bien entre ellas pueden identificarse elementos en común (por
ejemplo la idea de 'sistema'), cada modelo tiene características especiales que no tiene el otro
y que permite explicar solamente los fenómenos dentro del ámbito de la ciencia en cuestión.
El planteo interdisciplinario busca identificar las características comunes a los diversos
modelos de cada ciencia y de cada teoría, respetando sus peculiaridades propias, que
también existen. Cada construcción científica es un modelo que representa determinados
aspectos de la realidad, y ninguna en particular puede ser considerada como el 'sistema
universal' y único. Ni siquiera la física teórica nos da un modelo de la realidad última: es un
modelo surgido de recientes investigaciones, sí, pero que no es ni exhaustivo ni único. Las
varias 'teorías de los sistemas' son también modelos que reflejan diferentes aspectos, no se
excluyen mutuamente y a menudo se aplican en forma combinada. Todo esto no elimina la
posibilidad que puedan ir realizándose síntesis cada vez más amplias que integren y unifiquen
varios enfoques actuales hacia una teoría de la "totalidad" y la "organización". Tales síntesis,
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
137
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
como por ejemplo entere la termodinámica irreversible y la teoría de la información, en verdad
van siendo elaboradas de a poco.
iii. Multidisciplinario, intradisciplinario, interdisciplinario, transdisciplinario.- Si bien von
Bertalanffy no se ocupa de establecer diferencias entre estos cuatro conceptos,
sintetizaremos a continuación una forma de poder distinguirlos.
Multidisciplinariedad alude al mero hecho de la existencia de una diversidad de ciencias. El
concepto no implica que haya necesariamente una relación entre ellas: sólo dice que hay
muchas ciencias diferentes: física, química, biología, psicología, sociología, historia, etc. En
tal sentido, lo multidisciplinario resulta una condición necesaria para lo interdisciplinario y lo
transdisciplinario, mas no para lo intradisciplinario.
Intradisciplinario es aquello que es propio y exclusivo de cada ciencia. Entre estos aspectos
están, por ejemplo, el objeto de estudio, el tipo de problema que busca resolver, algunas
construcciones teóricas (por ejemplo la genética mendeliana es propia de la biología), algunas
técnicas de recolección de datos (los tests son propios de la psicología, el sismógrafo es
propio de la geología), etc. Lo intradisciplinario es condición necesaria para lo interdisciplinario
por cuanto, como enseguida veremos, cada ciencia debe aportar lo que la otra no tiene para
que haya un intercambio genuino.
Lo Interdisciplinario en sentido amplio, tal cual lo propone von Bertalanffy, abarca dos
aspectos esenciales:
a.
una actitud de intercambio y colaboración entre disciplinas diferentes para ahondar y/o
resolver, cada una aportando lo suyo (que es lo intradisciplinario), un problema en
común. Por ejemplo, el problema de la drogadicción puede ser encarado con mayor
eficacia no sólo si se lo aborda desde la biología, la psicología y la sociología
(multidisciplinariedad), sino también si hay comunicación entre esas ciencias para
enriquecer el conocimiento de cada una sobre el tema (interdisciplinariedad propiamente
dicha).
b.
el reconocimiento de un marco teórico y/o metodológico de referencia en común, para
que luego cada ciencia pueda hacer su aporte respectivo. Este segundo aspecto suele
designárselo como transdiciplinariedad, porque los modelos son comunes, trascienden
las fronteras de cada ciencia. Por ejemplo, hay transdiciplinariedad cuando varias
ciencias se deciden a investigar el problema de la drogadicción tomando como referencia
en común el modelo sistémico, o el psicoanalítico, o el conductista, etc.
El ítem a se refiere a lo interdisciplinario propiamente dicho (a los espacios propios de cada
ciencia en tanto sirven a las demás ciencias y a la resolución de un problema), el ítem b a lo
transdisciplinario (a los espacios comunes a varias ciencias en tanto sirven para encara
unitariamente un problema), y ambos sentidos conforman lo interdisciplinario en sentido
amplio. Un objetivo transdisciplinario es en general más difícil de lograr, puesto que siempre
hay una tendencia muy humana a tratar los problemas desde modelos teóricos propios y
restringidos, no compartidos.
En suma, la interdisciplinariedad presenta las siguientes características:
1. Supone como condición previa la existencia de varias disciplinas (multidisciplina), cada
una con sus teorías y métodos propios (intradisciplina);
2. Planteo de problemas que rebasan los límites tradicionales de cada disciplina, sea por
desafíos conceptuales internos, sea por demandas sociales, e intentos por resolverlos en
función de una colaboración recurrente y no esporádica con otras ciencias (interdisciplina); y
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
138
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
3.
Adopción de un marco teórico en común (transdisciplina).
46. ISOMORFISMO
Dos o más sistemas son isomorfos cuando comparten las mismas características
generales más allá de sus diferencias específicas, que también existen. El concepto de
isomorfismo es fundamental en el pensamiento de von Bertalanffy, en la medida en que, al
afirmar la existencia de similaridades formales o estructurales en diferentes ámbitos del
conocimiento científico, sustenta y justifica la existencia misma de la TGS, que pretende
justamente lograr la unificación de la ciencia.
i. Definición. El término 'isomorfismo' significa etimológicamente 'igual forma', y con ello se
quiere destacar la idea según la cual existen semejanzas y correspondencias formales entre
diversos tipos de sistemas, a veces muy aparentemente disímiles entre sí en cuanto al contenido.
Así, las semejanzas son semejanzas de forma más que de contenido: sistemas formalmente
idénticos pueden ser aplicados, en efecto, a diferentes dominios. Por ejemplo, se puede aplicar la
llamada ley exponencial al crecimiento a ciertas células bacterianas, pero también puede aplicarse
al progreso de la investigación científica medida por el número de trabajos publicados. E incluso
también a la cantidad de dinero de una cuenta bancaria a lo largo del tiempo. Las entidades en
cuestión son bacterias, libros, o dinero (contenidos específicos completamente diferentes), pero la
ley matemática es la misma. Estas correspondencias se deben a que las entidades consideradas
pueden verse, en ciertos aspectos, como 'sistemas', es decir, como complejos de elementos en
interacción regidos por la misma ley.
ii.
Otros ejemplos.
a.
La ley exponencial afirma que, dado un complejo de cierto número de entidades, un
porcentaje constante de estos elementos se desintegran o se multiplican por unidad de
tiempo. Von Bertalanffy cita otros ejemplos de leyes isomorfas en varios dominios, como
la ley logística y la ley parabólica.
b.
La ley logística afirma que hay un incremento exponencial en un principio, pero que este
en determinado momento cesa debido a la existencia de ciertas condiciones restrictivas.
Tal ley se aplica en campos diferentes como la química y la demografía: en una reacción
autocatalítica un compuesto cataliza su propia formación, pero como dentro de un
recipiente cerrado el número de moléculas es finito, la reacción tendrá que detenerse
cuando todas las moléculas se hayan transformado y alcancen así una situación límite.
Del mismo modo, una población aumenta exponencialmente con número creciente de
individuos, pero si el espacio y el alimento están limitados, la cantidad de alimento
disponible por cabeza disminuirá; de aquí que no pueda ser ilimitado el crecimiento
poblacional y acabe por alcanzar un estado uniforme definido como la máxima población
compatible con los recursos disponibles. La misma ley logística se aplica también, por
ejemplo al tráfico ferroviario.
c.
La ley parabólica, por su parte, expresa la competencia dentro de un sistema: cada
elemento toma su parte de acuerdo con una capacidad expresada por una constante
específica. Esta ley es también isomorfa pues se aplica tanto a los individuos de un
sistema económico, según la ley de Pareto, como en biología a órganos que compitan
dentro de un organismo por el material nutritivo y exhiban un desarrollo alométrico.
Entre otros ejemplos que cita von Bertalanffy encontramos la teoría general de las
periodicidades, aplicables en varios ámbitos de la ciencia. También, la dinámica demográfica
es homologable en muchos aspectos a la dinámica como rama de la mecánica, así como
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
139
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
también hay semejanzas formales entre fenómenos tan diferentes como la formación de un
animal completo a partir de un germen dividido de salamandra, y los fenómenos perceptivos
descriptos por la psicología de la Gestalt.
En la evolución de las lenguas y en la evolución de los seres vivos también se verifican
isomorfismos: a partir de una lengua (o un ser vivo) en común, evolucionaron en forma
paralela e independiente una de otra varias otras lenguas (o especies vivientes). Von
Bertalanffy destaca este paralelismo evolutivo entre lenguas, o entre especies animales, y con
ello busca ilustrar la presencia de isomorfismos.
Otros ejemplos de isomorfismos son, finalmente:
d.
similaridades estructurales entre un sistema biológico y una sociedad humana;
e.
similaridades estructurales entre la teoría biológica de Volterra y la teoría de la economía
cuantitativa, que son isomorfas en muchos puntos. Hemos seleccionado estos dos
últimos ejemplos deliberadamente, para mostrar que los isomorfismos se pueden
establecer tanto entre 'realidades' (ejemplo d) como entre 'esquemas conceptuales' de
realidades, o teorías (ejemplo e). Esta distinción nos lleva al problema de los requisitos
previos para la existencia de isomorfismos.
1
Correspondencia entre niveles de realidad
2
Correspondencia entre realidad y teoría
3
Correspondencia entre teorías (sistemas formalmente idénticos)
iii. Requisitos. Para poder hablar de isomorfismos en la ciencia, deben cumplirse tres requisitos
previos (ver esquema adjunto):
1.
la realidad no debe ser caótica. Se trata incluso de la condición misma de la posibilidad
de la ciencia, ya que la estructura de la realidad debe ser tal que permita la aplicación de
nuestras construcciones conceptuales, es decir, que permita encontrar regularidades en
el mundo observable. En nuestro esquema, existen semejanzas o paralelismos entre la
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
140
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
realidad A, la realidad B y la realidad C (por ejemplo entre un sistema biológico y una
sociedad humana).
2.
Debe también haber una cierta correspondencia entre la realidad y la teoría que la
explica, más allá de si la teoría la 'refleja' peor o mejor. Es la misma correspondencia que
puede haber, por ejemplo, entre el plano de una casa y la casa real.
3.
Debe haber también una correspondencia entre las mismas teorías o esquemas
conceptuales, ya que de otro modo no podríamos identificar características comunes
entre ellas.
Cumplidos estos tres requisitos, ahora sí es posible trazar isomorfismos propiamente dichos y
subsumir en principio lo común a todas las teorías bajo el concepto de 'sistema', concepto
que, por otra parte, puede comenzar estableciéndose a priori y luego derivar lógicamente sus
características a teorías específicas.
Señala así von Bertalanffy que el paralelismo entre teorías de campos diferentes es
consecuencia de que todas ellas se ocupen de 'sistemas' y, por tanto, de sus principios
básicos como los de totalidad y suma, mecanización, orden jerárquico, equifinalidad,
aproximación a estados uniformes, etc. Estos principios así, aparecerán de una u otra forma
en disciplinas diferentes.
Los aspectos formalmente idénticos, o isomorfismos, en muchos casos valen sólo para ciertas
subclases de sistemas, pero parece ser que también existen leyes generales aplicables a
cualquier sistema, más allá de sus propiedades particulares o de los elementos intervinientes.
Precisamente el tema de la TGS es la formulación de principios válidos para 'sistemas' en
general, sea cual fuere la naturaleza de sus elementos componentes. En otras palabras, la
TGS busca identificar isomorfismos.
Señalemos, por último, que las semejanzas que sirven para establecer isomorfismos no son
meras analogías superficiales, sino semejanzas más profundas, como las homologías y las
explicaciones (ver Analogía, Homología y Explicación).
iv. Utilidad. Más allá de la utilidad teórica de la identificación de isomorfismos -promover la
unidad de la ciencia en torno a principios generales aplicables a todos los sistemas-, hallamos
también, íntimamente vinculada con la primera, una utilidad práctica. Así, la existencia de
leyes de análoga estructura en diferentes campos permite el empleo de modelos más
sencillos o mejor conocidos, para fenómenos más complicados y menos tratables. Así,
metodológicamente la TGS pretende ser un importante medio de controlar y estimular la
transferencia de principios de uno a otro campo, y ya no habrá que repetir o triplicar el
descubrimiento de los mismos principios en diferentes terrenos aislados entre sí.
v.
Isomorfismo y reduccionismo. No debe confundirse la búsqueda de isomorfismos con una
actitud reduccionista. Una concepción unitaria del mundo no pasa por reducir todos los niveles
de la realidad al nivel de la física (actitud reduccionista), sino en identificar, en la totalidad de
los acontecimientos observables, uniformidades estructurales que se manifiestan por rastros
isomorfos de orden en los diferentes niveles o ámbitos. En suma, no se trata de reducir todo a
un solo nivel, sino de descubrir lo común a todos ellos.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
141
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
47. LIBRE ALBEDRÍO
En un sentido amplio, capacidad que tiene el individuo de elegir entre varios caminos de
acción posibles, de acuerdo a su propio provecho o satisfacción y más allá de si sus
elecciones son o no racionales. El concepto está estrechamente vinculado con las ideas de
determinismo, responsabilidad, elección racional y elección irracional.
i.
Generalidades. En principio, desde un punto de vista teórico o filosófico, el libre albedrío se
aplica a situaciones de elección racional pero, paradójicamente, la mayoría de las acciones
humanas, supuestamente producto de un ser racional, resultan ser irracionales, con lo cual
tenemos aquí un segundo enfoque más realista y más apoyado en la evidencia empírica
acerca del libre albedrío.
El libre albedrío considerado en teoría, es decir, como 'elección racional' significa cosas como
las siguientes: la elección maximizará el provecho o la satisfacción para el individuo; el
individuo es libre de elegir entre varios caminos de acción posibles y decide de acuerdo a sus
consecuencias; informado de todas las consecuencias concebibles de sus acciones, escoge
la que figura más alto en su lista; prefiere más de un bien que menos, en igualdad de las
demás circunstancias; etc.
Desde un punto de vista más realista, quien hace elecciones 'racionales' es el animal
'irracional', por oposición al ser humano que mayoritariamente hace elecciones irracionales
(ver Comportamiento, ítem Comportamiento humano y animal).
ii.
Libre albedrío y determinismo. Tratamos de 'explicar' fenómenos mentales y de la conducta
como causalmente determinados, porque utilizamos la categoría de causalidad para poner
orden en nuestra experiencia del mundo. Sin embargo, nos 'experimentamos' como libres
porque no aplicamos aquella categoría a nuestra experiencia directa e inmediata. En otras
palabras, el libre albedrío no está 'determinado' sino que es 'determinable' a partir de las
categorías de causalidad, en cuanto que la causalidad no es una necesidad metafísica sino
un instrumento que ordena la experiencia. Una conclusión que podríamos extraer de este
planteo es la siguiente: hay en nuestras conductas y elecciones un determinismo en cuanto
obedecen a ciertas causas, pero hay también una cierta libertad en cuanto podemos ejercer
control sobre las mismas.
La oposición determinismo-libre albedrío suscita algunos problemas en las ciencias sociales,
que pueden ser resueltos en el contexto de la TGS, sobretodo si entendemos el determinismo
no en sentido absoluto, sino en un sentido estadístico (la ciencia no predice un porvenir
inexorablemente determinado sino probabilidades). Aclaremos estas cuestiones.
Aunque la causa del libre albedrío descansa en el testimonio de la intuición o la experiencia
inmediata y jamás puede probarse objetivamente (¿fue el libre albedrío de Napoleón el que lo
condujo a la campaña de Rusia?), el determinismo (en sentido estadístico) puede ser
probado, al menos en pequeña escala. Es seguro que los negocios dependen de 'decisiones'
personales de los empresarios, en el mismo sentido que la batalla de Rusia dependía de una
decisión personal de Napoleón. Sin embargo, cuando se analiza la curva de crecimiento de
compañías industriales (o, presumiblemente, del curso de la historia), se encuentra que
desviaciones 'arbitrarias' van seguidas de una pronto retorno a la curva normal, como si
actuaran fuerzas invisibles más allá del libre albedrío de los protagonistas. Del mismo modo,
se han postulado también 'fuerzas inexorables' que operan en la sociedad.
Estas inevitabilidades o inexorabilidades a nivel empresarial, histórico o social no contradicen,
sin embargo, la idea según la cual cada uno de nosotros podemos elegir según y conforme
nuestro libre albedrío, sea una elección racional o no. Se trata de dos realidades coexistentes:
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
142
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
una a nivel global o molar (determinismo histórico y social), otra a nivel individual o molecular
(libre albedrío personal), y para cada una de ellas la TGS dispone de modelos para
estudiarlos y explicarlos. Así por ejemplo, para el comportamiento de masas se aplicarían
leyes de sistemas que, si pudieran ser matematizadas, tendrían la forma de cierto tipo de
ecuaciones diferenciales, mientras que las elecciones individuales quedarían descriptas por
teorías como la de los juegos y la decisión, que se ocupan de elecciones racionales. Incluso
las grandes decisiones de los grandes hombres de la historia pueden ser entendidas como
'partes conductoras', 'disparadores' o 'catalizadores' del proceso histórico, es decir,
recurriendo a una característica básica de todo sistema que es la centralización (ver
Centralización). El libre albedrío, el problema filosófico más resistente al análisis científico,
puede así ser estudiado científicamente desde la TGS.
iii. Libre albedrío y responsabilidad. Separada de la cuestión epistemológica vista
precedentemente, está la cuestión moral y legal de la relación entre libre albedrío y
responsabilidad. Esta última es juzgada siempre dentro de un marco simbólico de valores, de
los que acepta una sociedad en circunstancias dadas. Si alguien tiene obliterada la
comprensión simbólica y no puede distinguir el bien y el mal es inimputable: carece de
responsabilidad. Pero si puede distinguir una cosa de otra, su acción será castigada o no
según los valores de cada sociedad y de cada circunstancia. Por ejemplo, en periodos de paz
el matar se castiga, y en periodos de guerra el no aceptar la orden de matar será lo castigado.
48. MAQUINA
Dispositivo creado por el hombre que sirve para producir determinados efectos. El término
designa también, entre otros varios significados, al conjunto de las partes de un todo,
especialmente el caso de un animal (máquina viviente).
i. La máquina como dispositivo inanimado. Aristóteles fue quien comenzó a utilizar el
término 'máquina' para referirse a los artefactos creados por el hombre, artefactos que pueden
ejecutar operaciones que sustituyen a las operaciones naturales, y que a veces las aventajan. Por
ejemplo, una palanca es una máquina que permite aumentar la fuerza natural del brazo (1).
ii.
La máquina como dispositivo viviente. Es a partir de la Edad Moderna donde empieza a
aplicarse el término a los seres vivos, cuando Descartes concibe al animal como una
máquina, ya que hasta entonces sólo existían las máquinas mecánicas. Desde entonces se
comparó la ser vivo con una máquina de ese tipo: un animal era un complicado mecanismo de
relojería, Borelli, Harvey y otros investigaron las funciones musculares, cardíacas, etc.,
mediante modelos mecánicos de palancas, bombas, etc. Más tarde aparecieron las máquinas
de vapor y la termodinámica, donde el organismo vivo empezó a ser considerado como una
máquina térmica. En realidad, el organismo es una máquina quimiodinámica: no transforma la
energía del combustible en calor y luego en energía mecánica, sino directamente en trabajo
efectivo (por ejemplo, en la actividad muscular).
En las últimas décadas han surgido las máquinas que se autorregulan o auto controlan, desde
el simple termóstato doméstico hasta los proyectiles autodirigidos que hicieron su aparición en
la segunda guerra mundial. El organismo pasó a ser entonces una máquina cibernética, es
decir un artificio que exhibe mecanismos homeostáticos de autorregulación.
La tecnología ha terminado pensando hoy no ya en términos de máquinas sueltas sino en
'sistemas', es decir, en complejos tecnológicos donde interaccionan varias máquinas, como
por ejemplo un vehículo espacial. También, en el sistema se incluyó al hombre, con lo que
pasaron también a un primer plano las relaciones hombre-máquina (1).
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
143
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
El paso más reciente es el de las máquinas moleculares, concepto aplicado a los seres vivos
en la medida en que se verifican en él complejas reacciones químicas (metabolismo), y en la
medida en que encierra una 'micromáquina' que traduce el código genética del ADN a
proteínas específicas y, a fin de cuentas, lleva a constituir al organismo en sí.
iii. Limitaciones del modelo del organismo como máquina.- A pesar del éxito del modelo del
organismo como una máquina, este tiene ciertas dificultades y limitaciones que se pueden
sintetizar en tres puntos:
a.
No puede explicar el origen de los seres vivos a partir de un universo de acontecimientos
físico-químicos no dirigidos.
b.
No pueden explicar cómo un ser vivo puede regularse luego de un inmenso número de
perturbaciones arbitrarias (una máquina mecánica exhibe regulación, pero sólo cuando
se produce un número finito de perturbaciones, como ocurre por ejemplo con la máquina
de Turing).
c.
No explica cómo es posible que el organismo vivo puede preservarse o auto mantenerse
a pesar de ser él mismo una máquina compuesta de combustible que se consume
continuamente. En general, estas limitaciones pueden superarse si abandonamos el
modelo del organismo como máquina, e introducimos el modelo del organismo como
sistema abierto (ver Organismo).
Este modelo permite arrojar alguna luz sobre el origen de la vida (ver Organísmica,
concepción), y también permite por ejemplo entender al organismo viviente como sistema
capaz de autoorganización, es decir, capaz de organizarse y complejizarse pero no por
estímulos externos, sino por sus propias leyes internas de organización. Los sistemas
autodiferenciantes que evolucionan hacia una complejidad creciente son, por razones
termodinámicas, sólo posibles como sistemas abiertos, pues necesitan importar materia y
energía del exterior. Sin embargo, no podemos decir que los cambios deban proceder de
algún agente externo: la diferenciación y complejización de un embrión en desarrollo son
debido a sus leyes internas de organización, y la entrada de materia y energía apenas la
posibilita energéticamente, es decir, aporta la el material y la energía para que las leyes
internas actúen.
Nota.
(1) Ferrater Mora J., Diccionario de filosofía, Madrid, Alianza, 1979, pág. 2163.
49. MATEMÁTICA
Disciplina puramente formal en sí misma, pero aplicable a las diversas ciencias empíricas.
En tal sentido, constituye una meta hacia la cual tiende la TGS, en la medida en que esta
aspira a formular principios válidos para los 'sistemas' en general, más allá de sus
componentes o contenidos específicos. De hecho, es posible definir matemáticamente un
sistema de varias maneras distintas, y plantear la TGS como un riguroso sistema
axiomático.
i.
Matemática y TGS. Para von Bertalanffy, la matemática ha de servir de modelo para una
TGS más elaborada, pues ésta última estudia los aspectos más generales y formales de los
sistemas. En forma elaborada, la TGS no sería más que una disciplina lógico-matemática, y
tendría la misma aplicación en las ciencias que se ocupan de 'todos organizados' que la teoría
de la probabilidad aplicada a las ciencias que estudian 'acontecimientos aleatorios'. De hecho,
es posible definir matemáticamente un sistema de varias maneras distintas, como por ejemplo
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
144
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
a través de un sistema de ecuaciones diferenciales simultáneas, de donde pueden derivarse
varias de las propiedades de los sistemas en general (ver Sistema). Las ecuaciones
diferenciales cubren vastas áreas de las ciencias físicas, biológicas, económicas y,
probablemente también, de las ciencias del comportamiento. Así por ejemplo, ciertas curvas
matemáticas son aplicables a sistemas materiales: una curva logística describe ciertos
sistemas químicos, una curva exponencial describe sistemas en crecimiento, etc.
No obstante, el enfoque matemático adoptado en la TGS no es el único posible ni el más
general, pues hay otra serie de enfoques modernos afines, como la teoría de la información,
la cibernética, la teoría de la decisión y las redes, los modelos estocásticos, etc. Tampoco ha
de ser absolutamente imprescindible, al menos por el momento: quizá convenga tener primero
algún modelo no matemático que, a pesar de sus limitaciones, pueda expresar algún aspecto
inadvertido, y esperar el surgimiento venidero de algún algoritmo apropiado. Es preferible esto
y no aplicar de entrada modelos conocidos que, al estrechar el campo visual, puedan pasar
por alto aquellos aspectos inadvertidos.
ii.
Las categorías lógico-matemáticas.- La lectura del texto de von Bertalanffy sugiere que
este autor intenta fundamentar o justificar, desde el concepto antropológico de 'categoría', dos
aspectos básicos de la relación entre matemáticas y TGS:
a.
el hecho de que la TGS puede concebirse matemáticamente, y
b.
el hecho de que puedan existir formas alternativas para concebirla fuera de la matemática
o la lógica tradicional.
Respecto del primer punto, cabe justificar un enfoque matemático de los sistemas porque las
categorías matemáticas tienen un importante valor que podríamos llamar heurístico: la
maquinaria matemática funciona por sí sola, dando resultados inesperados que conducirán a
nuevos descubrimientos, tarea que precisamente debe cumplir una TGS (ver Categoría y
Simbolismo).
Respecto del segundo punto, von Bertalanffy indica que, puesto que las categorías
matemáticas dependen de factores lingüísticos y biológicos, otros seres sin estas limitaciones
bien pueden construir diferentes sistemas lógico-matemáticos, tal vez mucho más aptos para
tratar ciertos aspectos de la realidad. Así, por ejemplo, la lógica aristotélica cubre un pequeño
campo de las ricas y complejas relaciones entre sujeto y predicado. Los conceptos del todo o
nada se quedan cortos ante los conceptos de continuidad básica del análisis matemático, y
probablemente ni siquiera los esfuerzos de los lógicos modernos no alcancen sino a
axiomatizar sólo un campo muy restringido del razonamiento deductivo posible. Tal vez
nuestra lógica esté fundada en la peculiar arquitectura de nuestro sistema nerviosos central,
que funciona a fin de cuentas como una computadora digital, ya que las neuronas actúan
según la ley del todo o nada de la neurofisiología, es decir, en términos de decisiones por sí o
por no, no habiendo gradaciones intermedias. A esto corresponde el principio heraclíteo de
nuestro pensar en términos de opuestos, nuestra lógica bivalente del sí-no, el álgebra
booleana y el sistema de numeración binario, transformado en decimal sólo por razones
prácticas.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
145
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
50. MECANICISMO
Punto de vista nacido de la física clásica del siglo XIX según el cual:
A. el mundo es el resultado de acontecimientos casuales o fortuitos, sin ninguna meta o
direccionalidad;
B. todos los fenómenos del mundo, inanimado, viviente y mental, están regidos por las
leyes inexorables de la causalidad, y por lo tanto,
C. la ciencia ha de ocuparse de descomponer la realidad en unidades cada vez menores y
de aislar cadenas causales separadas o independientes; d) el mecanicismo reduce todos
los fenómenos al dominio de la física.
La TGS criticará el dogma mecanicista por resultar insuficiente para la explicación de
muchos fenómenos, especialmente los de la vida. Se opondrá, concretamente, a sus
pretensiones anti-finalistas, causalistas lineales y reduccionistas.
i.
Generalidades. La expresión 'mecanicismo' tiene múltiples sentidos diferentes, y bajo esa
denominación caen autores que sustentan puntos de vista bastante disímiles. Obviaremos
esclarecer esta heterogeneidad, limitándonos a la caracterización que del concepto en
cuestión hace von Bertalanffy. Como primera aproximación, dejemos consignado que el
mecanicismo, según y conforme su raíz etimológica, intenta explicar el mundo como si este
fuera una máquina, es decir, recurriendo a un modelo mecánico. En lo que sigue describimos
con mayor detalle este punto de vista.
ii.
Mecanicismo y finalismo. A primera vista parece haber una contradicción entre los puntos A
y B, ya que por un lado se afirma que el mundo está regido por el azar, y por el otro lado que
está regido por una causalidad inexorable. Si bien von Bertalanffy no aclara explícitamente la
relación entre ambas ideas, esbozamos aquí una línea de pensamiento que intenta
compatibilizar ambas afirmaciones.
Un fenómeno cualquiera puede, en principio, ser explicado desde dos puntos de vista no
necesariamente excluyentes: en forma causal y en forma finalista o, si se quiere, en función
de una causa y/o en función de una meta. Es lo que Aristóteles había denominado,
respectivamente, la causa eficiente y la causa final. Demos dos ejemplos, el primero de ellos
típicamente aristótélico:
1. la caída de un cuerpo se puede explicar a partir de una causa (lo hemos soltado) y/o a
partir de una meta (el cuerpo tiende a ir hacia su 'lugar natural', el centro de la tierra);
2. el llanto puede ser explicado a partir de una causa (el dolor produce llanto) y/o a partir de
una meta (lloramos para reducir tensiones, o para calmarnos).
El punto de vista mecanicista ha reducido toda explicación a la explicación por causas, no por
metas o finalidades. En la medida en que los acontecimientos del mundo nos están dirigidos
hacia ninguna meta, son 'ciegos', para utilizar una expresión de von Bertalanffy, es decir no
están ordenados hacia un fin, y en este sentido podemos entender que son azarosos o
fortuitos. Por ejemplo, la evolución de los seres vivientes aparece, para el mecanicismo,
amasado por el juego sin sentido de mutaciones azarosas y selección.
Pero si bien las mutaciones no tienen una finalidad, un 'telos' o una sentido, son en sí mismas
agentes causales de la selección, y en la medida en que conocemos esas causas y las leyes
que rigen el proceso (por ejemplo las leyes de la genética), podremos predecir qué ocurrirá en
el futuro. He aquí la inexorabilidad de las leyes causales de que habla el mecanicismo, que
aparece así imbuido del conocido espíritu laplaciano según el cual, a partir del conocimiento
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
146
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
del estado inicial de un proceso y de las leyes que lo rigen, es posible predecir con exactitud
cualquier otro estado subsiguiente.
iii. Mecanicismo y determinismo. Sin embargo, no debe identificarse el mecanicismo con el
determinismo. La concepción mecanicista del mundo fue determinista en sus orígenes,
cuando postulaba que los fenómenos del mundo estaban regidos por leyes causales
inexorables. A esta primera etapa se refiere von Bertalanffy cuando habla de causalidad
unidireccional y vínculos causales separados e independientes.
Sin embargo, esta visión mecanicista no quedó alterada -antes bien, se reforzó- cuando en la
física las leyes deterministas fueron reemplazadas por leyes estadísticas. De acuerdo con la
derivación de Boltzmann del segundo principio de la termodinámica, los fenómenos
evolucionan hacia un estado de máxima probabilidad, de suerte que las leyes físicas son
esencialmente 'leyes del desorden', fruto de acontecimientos desordenados, estadísticos. Un
desarrollo posterior del mecanicismo fue, entonces, el indeterminismo.
Más claramente: cuando tratamos con partículas muy pequeñas, sub-atómicas, desaparecen
los nexos causales y todo parece estar regido por el desorden. Esto no implica imposibilidad
de predecir: las predicciones ya no se realizan en base a leyes causales estrictas sino en
base a leyes estadísticas, las cuales, por ejemplo, en lugar de afirmar que una partícula
estará con seguridad en un cierto momento en tal lugar (ley causal), afirmarán que ello sólo
puede saberse con un cierto grado de probabilidad (ley estadística).
iv. Mecanicismo y atomismo. El mecanicismo clásico es atomista, y por lo tanto la tarea del
científico es eminentemente analítica: descomponer el fenómeno en unidades o partes cada
vez más pequeñas, aislando cadenas causales separadas o independientes. Así, la realidad
física era descompuesta en puntos de masa o átomos, el organismo vivo en células, el
comportamiento en reflejos, la percepción en sensaciones puntuales, etc.
Con el advenimiento del indeterminismo, el atomismo perdió mucho de su vigencia: los
electrones, por ejemplo, ya no eran elementos o partes discernibles e identificables como
tales, sino que quedaban definidos como 'nubes de probabilidades' en un espacio cuántico
(distinto al espacio cotidiano que conocemos), espacio donde cada sector queda definido por
un cierto grado de probabilidad de encontrar un electrón, entendido este último más como
energía que como punto material.
v.
Mecanicismo y reduccionismo. Si el mecanicismo es reduccionista es sobretodo porque
reduce todas las ciencias al modelo mecánico proporcionado por la física clásica. Más
concretamente, son reducidas a la física la biología, las ciencias del comportamiento, la
sociología, la historia, etc.
a.
Reducción de la biología a la física. El fisicalismo, de inspiración mecanicista,
consideraba al organismo viviente como una extraña (en el sentido de fortuita, azarosa)
combinación de aconteceres o máquinas de naturaleza físico-química. La biología
mecanicista veía su meta en la fragmentación de los fenómenos vitales en entidades
atómicas y procesos parciales. El organismo vivo era descompuesto en células, sus
actividades en procesos fisiológicos y por último físico-químicos, el comportamiento en
reflejos condicionados y no condicionados, el mecanismo de la herencia en genes
discretos, y así sucesivamente. Es así que este reduccionismo no intenta explicar el
fenómeno de la vida sino a partir de procesos físico-químicos, es decir, proporcionando la
misma explicación que daba de la materia inanimada, con lo cual soslayaba la
especificidad del fenómeno vital. Como indica von Bertalanffy, para el fisicalismo no
interesa si el perro está vivo o está muerto, pues los procesos que en ambos ocurren,
aunque diferentes, son igualmente explicables desde el único modelo de la física.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
147
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
La evolución era explicada de manera similar. El mundo viviente aparecía como producto
de la casualidad, fruto de mutaciones al azar y de la supervivencia en el apuro de la
selección natural.
b.
Reducción de las ciencias del comportamiento y sociales a la física. La psicología de
la asociación, de inspiración mecanicista, trataba de resolver los fenómenos mentales en
unidades elementales -átomos psicológicos, se diría- tales como sensaciones. Del mismo
modo, en las ciencias sociales el concepto de sociedad fue concebido como una suma de
individuos como si fuesen átomos sociales.
Por otra parte, tanto para el conductismo como para el psicoanálisis, la personalidad
humana era considerada, desde la perspectiva mecanicista y posivitista, como el
producto casual de 'natura y nurtura', de una mezcla de genes y una sucesión accidental
de acontecimientos desde la primera infancia hasta la madurez. En la práctica, este
reduccionismo ha sido fatal para nuestra civilización, ya que la actitud de considerar los
fenómenos físicos como único patrón de realidad ha llevado a la mecanización del género
humano y a la devaluación de los valores superiores.
vi. Mecanicismo y TGS. Según von Bertalanffy, el mecanicismo ha resultado ser un punto de
vista insuficiente para la comprensión de una gran variedad de acontecimientos del mundo.
Entre las principales críticas que caben formularse al mecanicismo desde una TGS,
encontramos las siguientes:
a.
No es verdad que el mundo esté regido por las 'ciegas' leyes de la naturaleza y que
muchos acontecimientos no tengan una meta o una direccionalidad. No podríamos
concebir un organismo vivo -no digamos ya un comportamiento o la misma sociedad
humana- sin tener en cuenta lo que se suele llamar adaptabilidad, intencionalidad,
persecución de metas y cosas semejantes.
La idea de teleología, o bien era explicada a partir de ciertos agentes sobrenaturales o
misteriosos, como lo hacía por ejemplo el vitalismo, o bien considerada un seudo
problema, como lo hacía el mecanicismo al sostener que mal puede plantearse el
problema del porqué de las metas, cuando en rigor no hay metas preestablecidas y todos
los procesos son resultado del azar.
La TGS optará por una tercera solución: las metas existen, y pueden ser entendidas a
partir de ciertas características de ciertos sistemas tales como por ejemplo la
equifinalidad y la intencionalidad. Frente a la visión mecanicista del mundo como caos,
opondrá una nueva visión del 'mundo como organización'.
b.
No es verdad que todo pueda ser explicado a partir de cadenas causales lineales
independientes entre sí. La ciencia clásica se ocupaba ante todo de problemas de dos
variables, de cursos causales lineales, de una causa y un efecto o de unas pocas
variables cuanto mucho. Daba así soluciones perfectas para la atracción entre dos
cuerpos celestes, un sol y un planeta, por ejemplo, pudiendo predecir exactamente sus
futuras configuraciones. También podían solucionarse problemas de dos cuerpos como el
protón y el electrón. Si las variables en juego o los cuerpos se multiplicaban, surgían
problemas: ya la situación de tres cuerpos en mecánica es insoluble en principio y sólo
puede abordarse mediante aproximaciones.
Muchos problemas quedaban así sin resolver, como los que aparecían en la física y la
biología modernas, donde había en juego muchas variables (aunque no infinitas), es
decir, frente a totalidades organizadas en las cuales los elementos interactúan
mutuamente. La TGS viene a llenar este vacío introduciendo nuevas herramientas
conceptuales tales como interacciones multivariable (por ejemplo la cinética de reacción,
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
148
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
los flujos y fuerzas en termodinámica irreversible), organización, automantenimiento,
directividad, etc., y, en definitiva, expandiendo las leyes de la física clásica de manera tal
que poder abarcar también el reino biológico.
El método de la ciencia clásica era indudablemente lo más apropiado para estudiar
fenómenos que pueden descomponerse en cadenas causales aisladas o que son
consecuencia estadística de un número infinito de procesos aleatorios, como pasa con la
mecánica estadística y el segundo principio de la termodinámica. Pero, como quedó
indicado, los modos clásicos de pensamiento fracasan cuando hay interacción entre un
número grande, pero limitado, de elementos o procesos.
En suma,
ά los cursos causales no son lineales sino interactivos, es decir, no podemos reducir todo
a díadas causa-efecto, sino considerar totalidades de elementos interactuantes entre sí
donde cada elemento es al mismo tiempo causa y efecto.
β los cursos causales no son independientes, sino que, en virtud de aquella interacción,
unos dependerán de otros. De aquí la necesidad de nuevas categorías de pensamiento
como las de totalidad, holismo (de hole=totalidad), organismo, gestalt, etc.
c.
No es verdad que todo el conocimiento científico pueda ser reducido sin más al esquema
de la física clásica. La biología, las ciencias de comportamiento, la sociología tienen ellas
sus propios instrumentos conceptuales para explicar y predecir, tal como sucede en la
misma física. Y pueden hacerlo porque, precisamente, han expandido la física clásica
introduciendo nuevas categorías de pensamiento como las indicadas precedentemente.
En última instancia, la forma mecanicista de pensar es también consecuencia de nuestras
categorías y hábitos lingüísticos específicos y se supone que, cambiando estos,
podremos superar la estrechez del dogma mecanicista proponiendo, desde las nuevas
categorías, una también nueva visión del mundo.
51. MECANIZACIÓN
Propiedad formal de los sistemas o principio de organización de los mismos según el cual
estos, en su evolución, van pasando de un estado de interacción dinámica entre sus
componentes, hacia otro estado donde se establecen disposiciones fijas y condiciones
restrictivas que tornarán al sistema más eficiente. Se dice así, que el sistema va
mecanizándose progresivamente.
El principio de mecanización progresiva expresa la transición de una totalidad indiferenciada a una
función superior, que se hace posible gracias a la diferenciación y a la especialización (o división
del trabajo entre las partes). Tal transición implica también la pérdida de potencialidades de los
componentes, y la pérdida de la regulabilidad de conjunto o regulabilidad primaria, con lo cual
pasa a dominar la regulabilidad secundaria (ver Regulación).
La mecanización aparece en los sistemas biológicos, neurológicos, psicológicos y sociales, donde
desempeñan un importante papel. En tales ámbitos, parece ser que lo primario es un
comportamiento que resulta de la interacción de todas las partes entre sí. Secundariamente van
apareciendo elementos cuyos comportamientos sólo dependen de ellos mismos, no del todo, es
decir, se pasa a comportamientos relativamente aislados entre sí, cuya suma daría como
resultado el comportamiento de todo el sistema (sumatividad): decimos que el sistema ha ido
mecanizándose. Así por ejemplo, en la evolución del sistema nervioso hay partes que se vuelven
irreemplazables para ciertos funcionamientos, como por ejemplo los reflejos. Otro tanto ocurre en
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
149
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
las estructuras sociales. En una comunidad primitiva cada miembro puede hacer casi cualquier
cosa que pueda esperarse en su conexión con el todo, pero en una comunidad altamente
diferenciada (estadio posterior) cada miembro tiene su propia función específica: la
especialización llevó a la mecanización. El progreso sólo es posible pasando de un estado de
totalidad indiferenciada a la diferenciación de partes, o también, por subdivisión de una acción
inicialmente unitaria en acciones de partes especializadas. La diferenciación de estructuras
(partes) y funciones (acciones que ejecutan las partes) lleva entonces a la mecanización
progresiva.
Cabe destacar, sin embargo, que jamás se alcanza la mecanización completa, mientras la vida
persista. Aún cuando el organismo esté en parte mecanizado, no deja de ser un sistema unitario:
tal es el fundamento de la regulación y de la interacción con las cambiantes exigencias del medio
ambiente. Esto significa que, si el sistema vivo es afectado por influencia del entorno, buscará
compensar el desequilibrio producido comportándose como una totalidad, donde cada parte
mecanizada quedará subordinada inmediatamente a ella.
52. METABOLISMO
Es el conjunto de reacciones químicas y los cambios energéticos concomitantes que tienen
lugar en el ser vivo, y que le permiten obtener materia y energía para su trabajo de auto
mantenerse y reproducirse. Estas reacciones están reguladas de tal manera que le permiten
a la célula o al organismo mantenerse en un estado uniforme, que constituye una propiedad
fundamental de los sistemas abiertos.
i. Metabolismo y TGS. Los procesos metabólicos ilustran la hipótesis sistémica del organismo
como sistema abierto con tendencia al estado uniforme. Es un sistema abierto porque intercambia
materia y energía con el medio. Una planta, por ejemplo, incorpora moléculas simples y entrega
moléculas transformadas, y también recibe energía solar y entrega a su vez energía al medio.
Además, la célula y el organismo vivos no son máquinas estáticas compuestas de materiales de
construcción más o menos permanentes, entre los cuales los materiales productores de energía
procedentes de la nutrición fueran degradados para abastecer de energía los procesos. Encierran
en realidad un dinamismo continuo en el cual hay degradación y regeneración tanto de los
materiales de construcción (por ejemplo proteínas) como de las sustancias productoras de energía
(por ejemplo carbohidratos), procesos ambos que están regulados de tal manera que la célula y el
organismo se mantienen aproximadamente constantes en un estado llamado estado uniforme. Los
sistemas abiertos y los estados uniformes en general desempeñan un papel fundamental en el
metabolismo, si bien sólo ha sido posible formularlos matemáticamente únicamente en casos
sencillos.
53. MODELO
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
150
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Construcción conceptual que intenta representar determinados aspectos o sectores de la
realidad, y cuya finalidad es explicar y predecir cierta clase de fenómenos que en ella
ocurren y ocurrirán. Según diferentes criterios, los modelos pueden ser MECANICISTAS y
ORGANÍSMICOS, MATEMÁTICOS y VERBALES, FÍSICOS, BIOLÓGICOS, PSICOLÓGICOS y
SOCIOLÓGICOS e HISTÓRICOS, etc. Ejemplos de modelos son: el psicoanálisis, la
cibernética, el hombre-robot, la homeostasia, la alometría, el sistema abierto, etc.
i.
ii.
Características de los modelos. De acuerdo a von Bertalanffy, podemos sistematizar las
características de los modelos en los siguientes puntos:
a.
Todo modelo busca representar un aspecto o sector de la realidad, y por tanto debe estar
construido sobre la base de los datos empíricos. Los modelos puramente especulativos
carecen de interés científico, salvo que sea posible aplicarlos a alguna clase de
fenómenos.
b.
Los modelos representan en forma simplificada, y por lo tanto, comprensible, la realidad
correspondiente. Así entonces encontramos el modelo newtoniano en mecánica, el
modelo corpuscular o el ondulatorio en física atómica, el modelo de crecimiento de una
población, el modelo de los juegos para explicar y predecir decisiones políticas, etc.
c.
Todo modelo procura explicar los fenómenos observados o los resultados experimentales
obtenidos sobre ellos, y aspira también a predecir aquellos que aún no ocurrieron. Todo
modelo debe ser investigado de acuerdo con su mérito, considerando las explicaciones y
predicciones que permita, y la decisión acerca de si un modelo convendrá o no reposa
exclusivamente en hechos de observación y experimentación.
d.
Los modelos funcionan como hipótesis de trabajo para investigaciones posteriores, lo que
significa que son susceptibles de ratificación, rectificación o reemplazo por un nuevo
modelo. No hay modelos rígidos o definitivos. Ningún modelo es el único posible y en el
mejor de los casos será una aproximación por elaborar y corregir poco a poco según una
interacción estrecha entre experimentación y conceptualización. Precisamente, el riesgo
que corre todo modelo es el de incurrir en la falacia del 'nada sino', es decir, el de auto
instaurarse como el único posible, como ha ocurrido con el modelo mecanicista y el
modelo psicoanalítico.
e.
Un mismo fenómeno puede ser descrito desde diferentes modelos. Por ejemplo, las
varias teorías de los sistemas son modelos que reflejan diferentes aspectos de la misma
realidad, no se excluyen mutuamente y a menudo se aplican en forma combinada. La
cibernética y el modelo de sistema en sentido estrecho (ver Sistema) son dos modelos
que pueden aplicarse a las mismas realidades.
f.
A la inversa del caso anterior, un mismo modelo puede aplicarse a realidades distintas.
Tal el caso de los modelos interdisciplinarios, aplicables a fenómenos en diferentes
campos, como el modelo de sistema abierto, aplicable tanto en biología como en
psicología y sociología. Esto lleva al concepto de isomorfismo entre modelos (ver
Isomorfismo). Otro ejemplo: el modelo de la retroalimentación es aplicable a sistemas
materiales, psicológicos y socioculturales.
Ventajas y peligros de los modelos. Como ventaja, el modelo es el camino para crear una
teoría, es decir, el modelo permite deducciones a partir de premisas, explicación y predicción,
a menudo con resultados inesperados. El peligro es la excesiva simplificación: para hacerla
conceptualmente controlable tenemos que reducir la realidad a un esqueleto conceptual,
dejando en pie la pregunta acerca de si no habremos obviado aspectos cruciales o esenciales
de la misma. El riesgo de súper simplificación es tanto mayor cuanto más múltiple y complejo
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
151
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
es el fenómeno. Fenómenos complejos son los culturales e históricos, por ejemplo, y de aquí
que las grandes teorías de la cultura y la historia resultan ser modelos muy imperfectos.
iii. Modelos matemáticos y verbales. Los primeros describen la realidad en términos de
ecuaciones y algoritmos, y los segundos son menos precisos ya que utilizan palabras para
esas descripciones. Ciertos modelos económicos y evolucionistas como el de Darwin
comenzaron siendo modelos verbales, y luego fue posible matematizarlos parcialmente. Otros
modelos son fundamentalmente verbales, como el psicoanálisis. Otros, en fin, nacieron como
modelos matemáticos, pero pronto encontraron dificultad en ser aplicados como tales en
psicología y sociología.
Von Bertalanffy piensa al respecto que primero debe intentarse la construcción de un modelo
no matemático, verbal, aún cuando los algoritmos sean mucho más precisos que el lenguaje
ordinario, y, a partir de ellos, intentar luego matematizarlos hasta donde sea posible. No
conviene, en cambio, construir a priori un modelo matemático prematuro que calque
algoritmos conocidos, ya que con ello se puede restringir el campo visual, es decir, no ver
ciertos aspectos esenciales de los fenómenos de la realidad.
iv. Otros tipos de modelos. Von Bertalanffy contrapone en primer lugar los modelos
mecanicistas y vitalistas a los modelos organísmicos (ver Mecanicismo, Vitalismo y
Organísmica, concepción). Entre los modelos mecanicistas está por ejemplo el modelo del
hombre-robot como esquema con pretensiones de universalidad para explicar el
comportamiento humano, y fundado en cuatro principios básicos: estímulo-respuesta,
equilibrio, ambientalismo y economía (ver estos artículos, y también Comportamiento).
Ejemplos de modelos organísmicos que von Bertalanffy describe con cierto detalle son: el
modelo de organismo como sistema abierto y estado uniforme, la homeostasis, la alometría, y
el modelo de Bertalanffy para el crecimiento.
54. OBSERVACIÓN
De acuerdo a la epistemología sistémica, la observación como parte del quehacer científico
tiene dos importantes características:
A
está impregnada de teoría, y
B
por sí sola es insuficiente como medio de conocimiento: la ciencia procura siempre
expandir lo observable.
i.
Caracterización. En el marco de la epistemología de los sistemas, la observación forma parte
imprescindible del quehacer científico, y presenta los siguientes caracteres:
a.
La percepción no es una simple copia de las 'cosas reales', sino el resultado de una
interacción entre el conocedor y lo conocido, interacción que a su vez depende de
múltiples factores de tipo biológico, psicológico, cultural, lingüístico, etc. (ver Categoría).
La propia física enseña que no hay entidades últimas tales como corpúsculos u ondas
que existan independientemente del observador. La observación no es entonces neutral,
y aún la que se considera supuestamente no adulterada, está ya impregnada de toda
suerte de imágenes conceptuales, modelos o teorías. Por lo tanto, la opción no es o bien
observar o bien teorizar, sino mas bien elegir entre modelos que estén más cerca o más
lejos de la observación directa, o que sean más, o menos adecuados para representar lo
observado.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
152
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
b.
ii.
Si bien la observación es un importante punto de partida para la investigación científica
(la física comienza por fuerza con la experiencia sensorial del ojo, el oído, el sentido
térmico, etc.), la ciencia busca trascender la simple observación expandiéndola mediante
la construcción de teorías cada vez más abstractas y abarcativas, e incluso estas a su
vez se fundirán entre sí hasta el punto en que ya no tienen más una relación ostensible
con lo 'visualizable' o lo 'intuíble'. Esta evolución forma parte del proceso de
desantropomorfización del conocimiento científico, esto es, de su proceso de liberación
de las determinaciones específicamente humanas, y esta evolución está también ligada a
la invención de órganos artificiales de los sentidos (microscopios, telescopios, etc.), con
lo que las partículas últimas dejan de ser realidades metafísicas escondidas detrás de lo
observado, y a la sustitución del observador humano por el instrumento registrador
(amperímetro, balanza, etc.).
Ejemplo.
a.
Un investigador generalista sistémico guiará sus observaciones según este enfoque, y
entonces seleccionará especialmente por ejemplo las interacciones entre los elementos
del fenómeno observado.
b.
Sin embargo, dicho investigador no se quedará con una mera descripción particular y
superficial. No será particular porque buscará semejanzas significativas con otras
observaciones e intentará generalizarlas a partir del concepto teórico de 'sistema'. No
será superficial porque su descripción no se basará en simples analogías engañosas (ver
Analogía), sino que buscará similitudes más profundas, como las homologías y las
explicaciones (ver Homología y Explicación).
55. ONTOLOGÍA DE SISTEMAS
Parte de la Filosofía de los sistemas que se ocupa de establecer qué se entiende por
'sistema' y cómo están plasmados los sistemas en los distintos niveles del mundo de la
observación.
La TGS en sentido amplio abarca la Ciencia de los Sistemas, la Tecnología de los sistemas y la
Filosofía de los sistemas y, dentro de esta última, una parte es la Ontología de sistemas.
En sentido genérico, la ontología es el estudio de los entes. Específicamente, la Ontología de
sistemas aborda el estudio de entidades especiales llamadas 'sistemas', fijando su significación,
alcance y tipos.
Discrimina así dos tipos de sistemas: los sistemas reales y los sistemas conceptuales. Los
primeros son entidades percibidas en la observación o inferidas de ésta. Por ejemplo un perro,
una galaxia, una célula o un átomo. Los segundos son ante todo construcciones simbólicas, como
por ejemplo la lógica o la matemática, sin referencia a la realidad, pero también los hay referidos a
ella, como los llamados sistemas abstraídos, es decir, las diversas teorías científicas. (Para mayor
información, ver Sistema).
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
153
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
56. ORDEN JERÁRQUICO
Propiedad formal de los sistemas según la cual estos están superpuestos de forma tal que
sus miembros o partes son a su vez sistemas del nivel inmediato inferior. Semejante
estructura jerárquica y combinación en sistemas de orden creciente es característica de la
realidad como un todo y tiene fundamental importancia especialmente en biología,
psicología y sociología.
i.
Generalidades. Hoy en día 'vemos' el universo como una gran jerarquía. Empezando desde
las más inferiores encontramos, en orden: partículas elementales, núcleos atómicos, átomos,
moléculas, compuestos de molécula compleja, una pléyade de estructuras que caen entre las
moléculas y las células (y visualizables en microscopía electrónica y óptica), luego célulasorganismos y, más allá, organizaciones supraindividuales como los organismos inferiores, los
animales, el hombre, hasta llegar a los sistemas socio-culturales y simbólicos.
Una jerarquía parecida surge tanto en 'estructuras' como en 'funciones', pero sea cual fuese el
punto de vista considerado, una teoría general del orden jerárquico será un pilar de la TGS. Si
bien hay progresos en cuanto a forma de representar los niveles jerárquicos (en forma verbal,
semi matemática, lógica matemática, 'árboles', etc.), aún no pueden ser expresados
adecuadamente en términos de energía (entropía negativa) ni el términos de información
(bits), habida cuenta de que el orden jerárquico está íntimamente vinculado a las ideas de
diferenciación, evolución y medición de la organización.
ii.
Relación entre los niveles. Los niveles jerárquicos no son independientes entre sí. Por
ejemplo el organismo vivo es un orden jerárquico de sistemas abiertos. Lo que se impone
como estructura duradera en determinado nivel está sustentado, de hecho, por un continuo
intercambio de componentes en el nivel inmediatamente inferior. Así el organismo multicelular
se mantiene en y por intercambio de células, la célula por intercambio de estructuras
celulares, éstas por intercambio de ingredientes químicos, etc. Como regla general, los ritmos
de renovación son tanto más veloces cuanto menores son los componentes considerados.
iii. Orden jerárquico y centralización. Se trata de dos de las propiedades formales de los
sistemas (ver Sistema), y están particularmente vinculadas entre sí, en el sentido que la
progresiva centralización conduce a un progresivo desarrollo de nuevos niveles jerárquicos.
Al respecto, von Bertalanffy refiere que la mecanización conduce a menudo al establecimiento
de 'partes conductoras', o componentes que dominan la conducta del sistema. Tales centros
pueden funcionar como disparadores, es decir, un cambio pequeño en una parte conductora
por medio de mecanismos amplificadores, provoca grandes cambios en el sistema total. De
esta manera llega a establecerse un orden jerárquico de partes o procesos. En el cerebro, así
como en la función mental, se alcanzan la centralización y el orden jerárquico por
estratificación, es decir por superposición de 'capas' más altas que adoptan el papel de partes
conductoras
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
154
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
57. ORGANÍSMICA, CONCEPCIÓN
Los fenómenos vitales se explican, en el contexto de la TGS, a partir de una concepción
organísmica según la cual los sistemas vivos son sistemas abiertos y, como tales, exhiben
características tales como el estado uniforme, la equifinalidad, la entropía negativa y el
orden jerárquico. El origen y la evolución de la vida podrían quedar también explicados en
los mismos términos, aún cuando falten todavía más investigaciones al respecto. En
contraste, los puntos de vista mecanicistas y vitalistas han resultado insuficientes para
explicar la especificidad del fenómeno vital.
i.
Generalidades. Básicamente hay tres puntos de vista que intentan explicar el fenómeno de la
vida: el mecanicismo, el vitalismo y la concepción organísmica.
a.
El mecanicismo reduce los procesos biológicos a las leyes de la naturaleza inanimada: en
términos físico-químicos, un organismo vivo es un agregado de un gran número de
procesos definibles mediante fórmulas químicas, ecuaciones matemáticas y leyes de la
naturaleza. Tales procesos ocurren tanto en organismos vivos como en organismos
muertos, por lo cual recurrir a ellos para explicar la vida carece de sentido.
b.
El vitalismo intenta explicar la vida a partir de la existencia de ciertas entidades
metafísicas como el impulso vital, etc. Se requiere, sin embargo, una explicación
científica de la vida, y a ella se acerca más la TGS al dar cuenta de ciertos fenómenos
vitales a partir de ciertas características de los sistemas, como por ejemplo la
equifinalidad (ver Vitalismo).
c.
En oposición a los planteos mecanicistas y vitalistas, la TGS procura explicar el
fenómeno vital desde una concepción organísmica, según la cual la regulación de
aconteceres en el sentido del mantenimiento, la producción y la reproducción de la
totalidad orgánica- constituyen un criterio general de la vida.
El comportamiento de los seres vivos puede ser explicado si los consideramos como
sistemas abiertos. Todo organismo viviente es ante todo un sistema abierto. Se mantiene
en continua incorporación y eliminación de materia, constituyendo y demoliendo
componentes, sin alcanzar, mientras la vida dure, un estado de equilibrio químico y
termodinámico, sino manteniéndose en un estado llamado uniforme (steady) que difiere
de aquél. Tal es la esencia misma de ese fenómeno fundamental de la vida llamado
metabolismo, es decir el conjunto de los procesos químicos que ocurren dentro de las
células vivas.
El organismo viviente como sistema abierto que se mantiene en estado uniforme
presenta algunas características como las siguientes:
1.
Equifinalidad: los estados uniformes son equifinales, es decir, el mismo estado
independientemente del tiempo puede ser alcanzado a partir de diferentes
condiciones iniciales y por distintos caminos, en gran contraste con los sistemas
físicos ordinarios, donde el estado de equilibrio está determinado por las condiciones
iniciales.
2.
Entropía positiva: Mientras los sistemas físicos exhiben entropía positiva, los
sistemas vivientes poseen entropía negativa. En los sistemas cerrados el cambio de
entropía es siempre positivo, es decir, la entropía siempre aumenta, lo que equivale a
decir que hay una continua destrucción del orden. En los sistemas abiertos, sin
embargo, no sólo tenemos producción de entropía debida a procesos irreversibles,
sino también entrada de entropía que bien puede ser negativa, vale decir, pueden
desarrollarse hacia estados de orden y organización crecientes. Tal es el caso del
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
155
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
organismo vivo, que importa complejas moléculas ricas en energía libre. Orden y
organización crecientes implican la posibilidad de persistir, crecer, desarrollarse,
reproducirse, etc..
3.
Orden jerárquico: El organismo vivo es un orden jerárquico de sistemas abiertos. Lo
que se impone como estructura duradera en determinado nivel está sustentado por
un continuo intercambio de componentes en el nivel inmediatamente inferior. Así, el
organismo se mantiene en y por intercambio de células, la célula por intercambio de
estructuras internas a la célula, éstas por intercambio de ingredientes químicos, etc.
La teoría de los sistemas abiertos y los estados uniformes es una expansión de la físicoquímica, la cinética y la termodinámica ordinarias, necesaria para poder explicar el
acontecer vital. Esta expansión es conocida como 'termodinámica irreversible'. Esta
'revolución organísmica' es relativamente reciente, y está basada en los modernos
adelantos de las ciencias biológicas y del comportamiento.
Puesto que los sistemas vivos son sistemas abiertos, remitimos al lector a los
correspondientes artículos para ampliar las características del sistema vivo tales como el
estado uniforme, la equifinalidad, la entropía negativa, el orden jerárquico, etc.
ii.
La concepción organísmica y la biogénesis. Examinemos por último, la posición de la
concepción organísmica frente al problema del origen de la vida. Von Bertalanffy admite la
posibilidad de responder a este interrogante desde la teoría de los sistemas abiertos, aún
cuando todavía falte investigar más en este ámbito.
Concepciones tales como la teoría del océano primordial y la teoría sintética de la evolución
resultan, hoy por hoy, insuficientes para la explicación del origen de la vida y la evolución de
las especies vivientes. La primera de estas teorías explica el origen de la vida por la aparición
casual de compuestos orgánicos (aminoácidos, ácidos nucleicos, enzimas, ATP, etc.) en un
océano primordial, los cuales, por selección, constituyeron unidades que se reproducían,
formas análogas a los virus, protoorganismos, células, etc. De modo similar, la teoría sintética
de la evolución explica la evolución de la vida como el resultado de mutaciones casuales en el
código genético bajo el imperio de la selección, es decir de la supervivencia de aquellos
genotipos que producen mayor descendencia en las condiciones externas existentes.
Von Bertalanffy criticará estas posturas, señalando que la selección, la competencia y la
supervivencia del más apto 'presuponen' la existencia de sistemas que se auto mantengan, es
decir de sistemas vivos; así, no pueden ser el resultado de la selección. Hoy por hoy no
conocemos ley física alguna que prescriba que, en una 'sopa' de compuestos orgánicos como
la del océano primordial, se formen sistemas abiertos que se auto mantengan, ni menos aún
que evolucionen formando nuevos y distintos seres vivos. La generación de las condiciones
para que haya vida y para que ésta evolucione es físicamente posible sólo si intervienen
'fuerzas organizacionales' de alguna clase y haya una acumulación de información en el
código genético. Este último no estaría constituido solamente por un vocabulario (dado por los
nucleótidos) sino por una 'gramática' sin la cual, en el mejor de los casos, produciría un
montón de proteínas, pero no un organismo organizado. Ciertas experiencias sobre la
regulación genética indican la existencia de esa organización del sustrato hereditario; habrá
que estudiar también sus efectos en las leyes macroscópicas de la evolución.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
156
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
58. ORGANISMO
Los fenómenos de la vida sólo residen en entidades llamadas organismos, y todo
organismo es un sistema, esto es, un orden dinámico de partes y procesos en mutua
interacción. Ejemplos: una planta, un árbol, un animal, el hombre. Von Bertalanffy tiende a
calificar organismo al ser vivo multicelular, aún cuando su definición es igualmente
aplicable a un organismo unicelular.
i.
El organismo como sistema abierto. Si bien dentro del organismo existen sistemas en
equilibrio (sistemas cerrados como por ejemplo el sistema oxígeno-hemoglobinaoxihemoglobina), al organismo como tal no puede considerárselo como un sistema cerrado o
en equilibrio, porque continuamente está intercambiando materia y energía con el medio
ambiente y, en lugar de tender hacia un estado de equilibrio, tiende hacia un estado uniforme,
propio de los sistemas abiertos. En efecto, el organismo mantiene un desequilibrio llamado
estado uniforme, y está así en situación de canalizar tensiones hacia la actividad espontánea
o en respuesta a estímulos desencadenantes, lo que hace que, respectivamente, el
organismo pueda ser considerado como activo por tener actividad autónoma, y como pasivo
por responder a estimulaciones perturbadoras, aunque la primera de estas características
tiene una especial importancia en la consideración sistémica.
El modelo de organismo como sistema abierto ha demostrado su utilidad en la explicación y
formulación matemática de numerosos fenómenos vitales, y lleva también, como es de
esperar de toda hipótesis científica de trabajo, a nuevos problemas, algunos de ellos
fundamentales. En oposición a este modelo, existe también el modelo de organismo como
máquina (modelo mecanicista), cuyas dificultades y limitaciones obligaron a abandonarlo,
sustituyéndoselo por el modelo sistémico abierto (ver Máquina).
ii.
Organismo y personalidad. Del mismo modo que los fenómenos de la vida los hallamos en
entidades llamadas organismos, los fenómenos psicológicos sólo se hallan en entidades
individualizadas que en el hombre se denominan personalidades. Como indica Allport, sea lo
que fuere la personalidad, tiene las propiedades de un sistema.
59. ORGANIZACIÓN
Sistema de variables mutuamente dependientes. En cuanto un sistema es concebido como
un conjunto de partes en interacción, los conceptos de 'sistema' y 'organización' son
asimilables entre sí, implicándose recíprocamente. Complejidades organizadas son tanto
los sistemas cerrados como los abiertos, y dentro de estos últimos son organizaciones por
ejemplo los organismos y los grupos sociales.
i.
Organización y sistema. El análisis de sistemas trata a la organización como un sistema de
variables mutuamente dependientes, y de aquí que la moderna teoría de la organización
conduzca casi inevitablemente a una discusión de la TGS. Toda organización implica
interacciones de muchas (pero no de infinitas) variables.
Sea que hablemos de sistemas u organizaciones, von Bertalanffy resalta en todo caso la
importancia de las relaciones entre las partes, más que los elementos en sí. Estas relaciones
son interacciones 'fuertes', en oposición a las complejidades no organizadas donde las
interacciones, o bien son tan débiles que en la investigación se puede prescindir de ellas, o
bien directamente no existen, pasando a ser un simple conglomerado o amontonamiento de
elementos.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
157
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Von Bertalanffy indica al respecto que la teoría de la complejidad no organizada se arraiga a
fin de cuentas en las leyes del azar y la probabilidad de la segunda ley de la termodinámica,
dando como ejemplo el comportamiento de un gas como resultado de infinidad de
movimientos desorganizados de sus innumerables moléculas. En este sentido el problema de
las complejidades organizadas escapa a la física habitual, en la medida que entendamos por
ellas a los organismos vivientes y a los grupos sociales. Aún así, es posible encontrar, pero ya
en una concepción más moderna de la física totalidades organizadas como por ejemplo un
átomo, un cristal o una molécula. Es así que tanto los sistemas cerrados como los abiertos
son concebibles como organizaciones (o totalidades organizadas, o complejidades
organizadas).
Otras ideas vinculadas con la de organización son las de orden, fuerzas organizacionales y
leyes de la organización. El orden es la base de la organización; toda organización es tal
porque entre sus elementos operan fuerzas organizacionales de alguna clase, como por
ejemplo las valencias o las fuerzas reticulares en el caso de la formación de cristales;
finalmente si una complejidad está organizada es porque está regida por leyes, como por
ejemplo las denominadas leyes férreas de las organizaciones (ver Sociología).
ii.
Tipos de organización. Las totalidades organizadas pueden estar configuradas como
sistemas cerrados (un cristal, un átomo, etc.) o como sistemas abiertos (un ser vivo, un grupo
social, etc.). En este último caso, el sistema consigue mantenerse en un estado uniforme, lo
cual al implicar un alto nivel de organización, ésta última se convierte en un fin a alcanzar.
En el contexto de las ciencias sociales es posible encontrar a su vez organizaciones
informales (como la sociedad) y organizaciones formales (estructuras escrupulosamente
instituidas como el ejército, el clero o las empresas comerciales).
Desde un punto de vista metodológico, podemos hablar de organizaciones cuantitativas y
organizaciones cualitativas (o más precisamente, aspectos cuantitativos y cualitativos de una
organización). Así, hay organizaciones que se prestan para ser estudiadas cuantitativamente,
como las organizaciones biológicas poblacionales tal como fueron descriptas por Lotka,
Volterra y otros, pero hay muchos aspectos de esas mismas organizaciones que no se
prestan con facilidad a un abordaje cuantitativo, en cuyo caso nos queda recurrir a
explicaciones 'en principio' de orden cualitativo.
60. PARADIGMA
En el contexto de la obra de Thomas Kuhn, los paradigmas son realizaciones científicas
universalmente reconocidas que, durante cierto tiempo, proporcionan modelos de
problemas y soluciones a una comunidad científica (1).
Von Bertalanffy retoma esta idea cuando sostiene que el concepto de 'sistema' constituye
un nuevo 'paradigma', en contraste con el paradigma mecanicista de la ciencia clásica.
Muy esquemáticamente, podemos decir con Kuhn que los paradigmas nacen, se desarrollan a
través de la llamada 'ciencia normal', y luego poco a poco van siendo reemplazados, total o
parcialmente, por nuevos paradigmas: es el momento de la 'revolución científica'.
Von Bertalanffy señala que tal desarrollo ocurrió cuando el paradigma sistémico, que él designa
como 'nueva filosofía de la naturaleza', reemplazó al anterior paradigma de la ciencia clásica, un
paradigma analítico que sustentaba una causalidad unidireccional y un mecanicismo que hablaba
de las 'leyes ciegas de la naturaleza' que regían el mundo y el devenir, como si fuese un
argumento shakesperiano contado por un idiota.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
158
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
El nuevo paradigma propone una visión organísmica del mundo 'como una gran organización',
sólo comprensible a partir de la idea de sistema. Permite explicar muchos fenómenos de la
naturaleza como sistemas, es decir, como conjuntos de partes en interacción. El paradigma
clásico estaba muy limitado en este sentido porque, si bien desmenuzaba el todo en partes, no
tomaba en cuenta la interacción entre las mismas, característica esta definitoria de todo sistema.
El nuevo paradigma pone así en primer plano aspectos de la realidad que anteriormente no eran
considerados, y aún eran suprimidos, por el paradigma anterior.
Las primeras versiones de un nuevo paradigma suelen ser toscas, resuelven pocos problemas, y
las soluciones distan mucho de ser perfectas. Hay una profusión y competencia de teorías,
limitada cada una al número de problemas que puede resolver con elegancia. Sin embargo, el
nuevo paradigma abarca nuevos problemas, especialmente los que antes eran rechazados por
'metafísicos'. Estos criterios que Kuhn establece para un nuevo paradigma se aplican, según von
Bertalanffy, al nuevo paradigma sistémico. Por ejemplo en cuanto a la profusión de teorías, la
teoría de los sistemas comprende un conjunto de enfoques que difieren en estilo y propósito (ver
Enfoques de sistemas). Y en cuanto a los nuevos problemas que abarca y que anteriormente
eran 'metafísicos', encontramos el problema del espíritu vital como entidad metafísica, y que el
paradigma sistémico plantea en los términos más científicos de la equifinalidad (ver Vitalismo).
Nota
(1) Kuhn T., La estructura de las revoluciones científicas, Madrid, Fondo de Cultura Económica, 1975, pág. 13.
61. PERSONALIDAD
En el contexto de la TGS, la personalidad es concebida como un sistema activo, vale decir,
capaz de cierta actividad autónoma, en contraposición a la concepción del hombre-robot o
del autómata, que la entiende desde un modelo reactivo o pasivo.
i.
La personalidad como un autómata reactivo. Las llamadas psicologías del hombre-robot
conciben el psiquismo como una entidad reactiva, esto es, como una instancia cuya 'actividad'
se reduce simplemente a reaccionar frente a estímulos externos para retornar a un equilibrio
original. Doctrinas como el conductismo y el psicoanálisis sostienen este punto de vista, que
se funda en cuatro principios básicos (ver Ambientalismo, Economía principio, Equilibrio
principio, y Estímulo-respuesta). Las teorías del hombre-robot interpretan al organismo
psicofísico y a la conducta en términos de satisfacción de necesidades, relajamiento de
tensiones, restablecimiento de un equilibrio homeostático, y elaboran interpretaciones
utilitarias y ambientalistas.
ii.
La personalidad como un sistema activo. En las últimas décadas, la psicología se ha
reorientado hacia una concepción más humanística, holística y organísmica, que, en contraste
con la postura anterior, hace hincapié en el aspecto creador del ser humano, en la importancia
de las diferencias individuales, en aspectos no utilitarios y que están más allá de los valores
biológicos de subsistencia y supervivencia. El hombre no es un receptor pasivo de estímulos
que le llegan del mundo externo, sino que, en un sentido muy concreto, 'crea' su universo. Al
igual que la noción de organismo en las teorías biológicas actuales, la psicología de los
últimos tiempos ha defendido la noción de personalidad en términos de actividad espontánea
y funcionamiento autónomo.
Von Bertalanffy define esta postura, a la cual adscribe, y tal vez parafraseando una expresión
de Freud relativa al principio del placer, como un punto de vista que está 'más allá del
principio homeostático', y critica tres ideas básicas de la psicología del hombre-robot:
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
159
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
a.
El esquema E-R no explica el juego, las actividades exploratorias, la creatividad, la
autorrealización, etc., y otras especies de comportamientos espontáneos y autónomos.
b.
El principio económico no explica la cultura como logro específicamente humano, y
c.
el principio de equilibrio se equivoca al considerar la conducta en términos de reducción
de tensiones. De hecho, por ejemplo la privación sensorial puede acarrear trastornos de
índole sicótica.
Entre los representantes de esta corriente se encuentran Allport, Murray, Goldstein y Maslow,
que plantean teorías organísmicas de la personalidad; las psicologías del desarrollo de
Werner, Schachtel, Bühler y Piaget; varias escuelas neofreudianas y la psicología del yo; las
nuevas psicologías de la percepción, como el New Look, y de la cognición; la terapia de
Rogers, la psicología existencial, etc. Dada la fecha en que von Bertalanffy hacía esta
compilación de autores y corrientes, no podía mencionar toda la gama de escuelas de
psicología sistémica que existen actualmente y que, en aquella época (1966), recién estaban
dando sus primeros pasos.
iii. Defensa del enfoque sistémico de la personalidad. Von Bertalanffy se pregunta si este
modelo, en tanto asimilable al enfoque sistémico de la TGS, puede realmente resultar eficaz,
ya que podría objetarse que la noción de sistema está más ligada a la física que a la
psicología, y además que opera con variables cuantitativas, cuando en psicología las
variables son fundamentalmente cualitativas. Al respecto, este autor responde ambos
cuestionamientos del siguiente modo:
a.
La noción de sistema es lo suficientemente amplia como para abarcar tanto los sistemas
físicos como los psicológicos. Sus propiedades formales (ver Sistema), son igualmente
aplicables a ambas realidades, vale decir que pueden aplicarse también a sistemas no
materiales (como la personalidad).
b.
Aunque sea imposible una cuantificación en la investigación psicológica de la
personalidad, esta noción entendida como sistema activo permite igualmente explicar la
conducta humana, aunque se trate solamente de una 'explicación en principio' (ver
Explicación).
62. PERSPECTIVISMO
Postura asumida por von Bertalanffy según la cual ninguna ciencia ni ninguna cosmovisión
en particular tienen el monopolio del conocimiento. Antes bien, cada disciplina o cada
cosmovisión constituyen simplemente una determinada 'perspectiva' desde la cual puede
conocerse el mundo.
Clásicamente, la física ha tenido el monopolio del conocimiento dentro de la ciencia, y ésta, a su
vez, lo ha tenido dentro de las producciones culturales en general como el arte, etc. Debemos ver
a la ciencia como una de las posibles 'perspectivas' que el hombre, de acuerdo a sus capacidades
y limitaciones biológicas y culturales, ha creado para vérselas con el universo al cual está
'arrojado'. Las posturas perspectivista y sistémica de von Bertalanffy resultan congruentes, en la
medida que se considere a la TGS como una nueva perspectiva para la comprensión de la
realidad, o también, a la idea de sistema como una nueva categoría para la construcción de
nuestra imagen del mundo.
En tal sentido, la posición perspectivista se opone al reduccionismo, que justamente pretende todo
lo contrario: erigir una determinada ciencia (paradigmáticamente, la física) como 'el' conocimiento
al cual deben reducirse todas las demás ciencias.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
160
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
También debe distinguirse el perspectivismo del kantismo y del relativismo, ubicándose como una
postura intermedia entre éstas dos últimas. En rigor, al relativismo debiera llamárselo relativismo
absoluto o estricto, y al perspectivismo, relativismo moderado, aún cuando von Bertalanffy no
utilice estas denominaciones (ver Categoría).
63. PSICOLOGÍA
En un sentido amplio, disciplina que estudia el comportamiento humano individual. En el
marco de la TGS, von Bertalanffy contrapone las teorías psicológicas del hombre-robot, a
las nuevas corrientes psicológicas y psicopatológicas más congruentes con una visión
organísmica, holística o sistémica del comportamiento humano. Es así que
progresivamente, el hombre-robot va siendo reemplazado por la idea de sistema activo de
personalidad.
i.
La psicología del hombre-robot. El modelo del robot para el comportamiento humano
propone una 'imagen del hombre' originada en un universo físico-tecnológico, que según von
Bertalanffy es demostrablemente falsa. El modelo en cuestión abarca un amplio espectro de
doctrinas, antagónicas en otros sentidos, que van desde un conductismo que no ve diferencia
entre la conducta humana y la conducta de las ratas de laboratorio, hasta un existencialismo
para el cual la situación humana cae más allá de la comprensión científica, pasando por los
modelos computarizados de los procesos cognitivos, y por el psicoanálisis.
Los planteos de la psicología del hombre-robot pueden explicitarse a partir de cuatro
principios básicos:
ii.
a.
Esquema estímulo-respuesta: el comportamiento animal y humano, es respuesta a
estímulos llegados del exterior (ver también Estímulo-respuesta);
b.
Ambientalismo: La conducta y la personalidad con conformadas por influencias externas
(ver también Ambientalismo);
c.
Principio de equilibrio: Formulado freudianamente, es el principio de estabilidad, que
afirma que la función básica del aparato mental consiste en mantener el equilibrio
homeostático reduciendo todas las tensiones (ver también Equilibrio, principio);
d.
Principio de economía: el comportamiento es utilitario y debe ser realizado con el
mínimo gasto de energía mental o vital (ver también Economía, principio).
Críticas a la psicología del hombre-robot. El modelo del hombre-robot tuvo su justificación
política. Servía de base a la ingeniería del comportamiento, es decir, a la posibilidad de
manipular la conducta de los seres humano como si fueran ratas skinnerianas o robots,
compradoras autómatas, conformistas y homeostáticamente ajustados (idiotas y zombis), con
lo que las ganarías pecuniarias y los productos brutos nacionales crecerían cada vez más. Si
estos postulados fueran ciertos, la tensión y el estrés generarían seres perturbados
mentalmente, pero los hechos mostraron no sólo que fenómenos como la guerra no
aumentaba las neurosis y las psicosis (aparte de efectos del choque directo o neurosis de
combate), sino que en épocas de prosperidad y tranquilidad aparecía un número sin
precedentes de enfermos mentales. Precisamente en condiciones de reducción de tensiones
y satisfacción de necesidades biológicas aparecieron nuevas formas de trastorno mental:
neurosis existenciales, tedio 'maligno' y otras derivadas de no hallar un significado a la propia
vida.
iii. Un ejemplo: el psicoanálisis. El psicoanálisis es la teoría psicológica fundada por Sigmund
Freud para explicar el comportamiento humano normal y en especial el patológico, y que
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
161
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
propone al mismo tiempo un método de investigación (la interpretación) y un modelo
terapéutico (la psicoterapia analítica). Von Bertalanffy critica el psicoanálisis, especialmente
en cuanto desarrolla una concepción del hombre entendido como un robot que busca reducir
permanentemente la tensión, planteamiento radicalmente opuesto al enfoque sistémico de la
personalidad que él mismo sostiene y propugna.
La TGS, a través de su autorizado vocero, von Bertalanffy, critica la teoría psicoanalítica en
cuanto la misma propone al hombre como un ser cuyo comportamiento se halla regido por los
cuatro principios básicos de las psicologías del hombre-robot, dentro de las cuales incluye
también al conductismo. Esos cuatro principios son el de estímulo-respuesta, el de equilibrio,
el de economía y el ambientalismo (véanse los respectivos artículos).
De acuerdo con Freud, dice von Bertalanffy, la tendencia suprema del organismo es quitarse
de encima tensiones y pulsiones y reposar en un estado de equilibrio regido por el 'principio
de estabilidad' que tomó Freud del filósofo alemán Fechner. Así, la conducta neurótica o
sicótica resulta ser un mecanismo más o menos fallido destinado a restaurar el estado de
equilibrio original. El 'principio de estabilidad' al que hace referencia von Bertalanffy es
conocido también como principio de constancia, y sería equivalente al principio de
homeostasis de Cannon, sólo que el primero se aplica mas bien al psiquismo, y el segundo a
los procesos fisiológicos. La equivalencia está dada porque ambos principios aluden a la
existencia de mecanismos que permiten compensar desequilibrios y que permiten el retorno a
un estado de equilibrio original. Mientras Freud siguió tomando el principio de constancia
como básico y fundamental, Cannon admitió, acercándose así más al enfoque organísmico de
la TGS, que no todo puede reducirse a una explicación homeostática, refiriéndose a la
existencia de fenómenos que caen fuera de ese ámbito y que llamó genéricamente
'heterostasia'. Von Bertalanffy plantea también la necesidad de revisar el principio original de
homeostasia cuando se trata de la comprensión de fenómenos de comportamiento y sociales,
ya que buena parte de la conducta humana, lejos de buscar retornar as un equilibrio sin
tensiones, tiende a aumentarlas, a buscar estimulación, lo que probaría que el sistema de la
personalidad es un sistema activo y relativamente autónomo.
Si bien no profundiza ni fundamenta sus críticas, von Bertalanffy señala también que ninguna
de las formulaciones disponibles del psicoanálisis está libre de objeciones, tales como por
ejemplo la teoría del aparato psíquico constituido por las instancias yo, superyo y ello, así
como los conceptos de conciente e inconciente.
iv. El surgimiento de las nuevas orientaciones. Las psicologías del hombre-robot fueron
generando poco a poco malestar en los ámbitos de la psicología teórica y aplicada, y
empezaron a surgir nuevas orientaciones centradas en el organismo psicofísico no ya como
un robot, sino como un sistema activo de personalidad. En esas nuevas orientaciones se
encolumnaron varias escuelas neofreudianas, la psicología del yo, las teorías de la
personalidad (Murray, Allport), la psicología europea del desarrollo infantil (Piaget, Werner,
Bühler), el New Look, la autorrealización (Goldstein, Maslow), la terapia de Rogers, las
actitudes fenomenológicas y existenciales, los conceptos sociológicos del hombre (Sorokin), y
otros.
La teoría de los sistemas en psicología, sicopatología y psiquiatría no fueron entonces un
emocionante desenlace de nuevos descubrimientos, porque la orientación ya venía
preparándose desde antes o en forma paralela. Con todo, el concepto des sistema representa
un viraje en redondo con respecto a las teorías del robot, conducente a una imagen del
hombre más realista y, de paso, más digna. Su influencia también abarcó la práctica
psiquiátrica, y von Bertalanffy cita al respecto una discusión seria de la TGS, a la cual la
American Psychiatric Association dedicó dos sesiones durante el año 1966, decidiéndose
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
162
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
entonces incorporarla en las reuniones regulares de psiquiatras para desarrollar esta teoría
unificada del comportamiento humano fundada en la idea de sistema, y a la que por entonces
se calificó como la 'tercera revolución psicológica', después del conductismo y el psicoanálisis.
v.
La noción de sistema en psicología, sicopatología y psiquiatría. Considerar la
personalidad como un sistema implica un estudio del comportamiento fundado en los
siguientes criterios (algunos de los cuales corresponden a importantes propiedades formales
de los sistemas en general):
a.
El criterio de totalidad. El concepto 'molar' de organismo psicofísico como sistema se
opone al concepto 'molecular', o sea como agregado de unidades últimas tales como
reflejos, sensaciones, pulsiones, respuestas reforzadas, rasgos, factores, etc. En un
contexto sistémico, la disfunción mental no significa pérdida de funciones sueltas sino
perturbación del sistema en conjunto. Incluso las lesiones muy localizadas (por ejemplo
las corticales), afectan al sistema total de la personalidad, en particular a las funciones
superiores.
b.
El criterio de integración. Es posible definir limpiamente las perturbaciones mentales en
términos de funciones de sistema: la enfermedad mental es a fin de cuentas una
perturbación de las funciones de sistema del organismo psicofísico. Entonces, ¿cómo
definir un sistema no perturbado, es decir, cómo definir la salud mental? Von Bertalanffy
ofrece su propio criterio, derivado del enfoque sistémico, cuando indica que la salud
mental depende en última instancia de un universo integrado congruente con el marco
cultural que le toque vivir a cada persona, de lo cual se desprende que lo que para una
cultura puede ser patológico para otra no lo es, según han mostrado los antropólogos
culturales. Así, un científico y un esquizofrénico construyen un mundo igualmente
fantástico e impresionante, porque la percepción no capta las cosas tal cual son. La
diferencia radica en que en la esquizofrenia los elementos subjetivos están 'desbocados y
desintegrados', y en el científico las ideas encajan en un sistema integrado.
c.
El criterio de autonomía. Aún sin estímulos externos, el organismo psicofísico no es un
sistema pasivo sino intrínsecamente activo. El estímulo no 'causa' algún proceso en el
sistema, sino que 'modifica' procesos ya existentes en un sistema autónomamente activo
que tiende a mantener un desequilibrio permanente llamado estado uniforme. De hecho,
la actividad espontánea es la forma más primitiva de comportamiento, e intentar reducir
las tensiones desde el modelo del hombre-robot implica el riesgo de provocar desórdenes
mentales e impedir al hombre el desarrollo de sus potencialidades. Una personalidad con
la espontaneidad perturbada se torna un autómata, un ser pasivo, estado típico de la
conducta estereotipada de los catatónicos, por ejemplo. El hecho de que la personalidad
sea un sistema activo que busca la integración con su entorno, lleva a considerar a la
psicoterapia no como ajuste pasivo, sino como una oportunidad para desarrollar
potencialidades creativas, instaurar motivaciones normales que impliquen una actividad
autónoma, con integración de la conducta, plasticidad y adaptabilidad a situaciones
cambiantes, libre curso de la anticipación simbólica, etc. Las ideas de 'actividad
espontánea' y 'funciones simbólicas' deben ser la piedra angular para la consideración de
la salud y la enfermedad a la luz de la TGS.
d.
El criterio homeostático. En general, el modelo de la homeostasis no es aplicable a la
personalidad en tanto sistema activo y autónomo. Sí es aplicable en sicopatología porque
en general las funciones no homeostáticas decaen en los pacientes mentales, incluso
hasta llegar a convertirse en un ente que subviene exclusivamente a sus necesidades
fisiológicas.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
163
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
e.
El criterio temporal. En un contexto psicoterapéutico interesará menos escarbar en el
pasado, y más ahondar en los conflictos presentes y en procurar la reintegración y la
orientación hacia metas y el porvenir (anticipación simbólica). Del mismo modo, si gran
parte de la neurosis actual es 'existencial', la psicoterapia procurará el encuentro con un
sentido de la vida, tal como por ejemplo lo plantea Frankl con su 'logoterapia'. En suma,
una teoría de sistemas de la personalidad proporcionará un buen fundamento para la
psicología y la sicopatología.
f.
El criterio de diferenciación. Werner sostuvo acertadamente que las funciones
mentales suelen progresar desde un estado indiferenciado, sincrético, donde
percepciones, motivaciones, sensaciones, imaginación, símbolos, conceptos, etc.,
aparecen constituyendo una unidad amorfa, hasta un estado diferenciado donde se
distinguen más nítidamente estas funciones. Más específicamente, el lenguaje progresa
de un estado 'holofrástico', indiferenciado, hacia una diferenciación de significados en un
lenguaje articulado. También, las categorías de yo, objeto, espacio, tiempo, número,
causalidad evolucionaron originalmente a partir de un continuo perceptivo – conceptual motivacional indiferenciado, como señalaron autores como Arieti, Piaget y Werner.
En patologías como la esquizofrenia se observa una regresión a los estados
indiferenciados, pero no tal como estaban instaurados originalmente, porque los niños y
los salvajes, aunque tengan experiencias primitivas, tienen un universo organizado.
La personalidad va diferenciándose en el sentido del trazado de límites. Al principio hay
un continuo organismo - mundo indiferenciado, pero poco a poco el yo se va
constituyendo por diferenciación del entorno, aunque los límites jamás son rígidos, salvo
en los trastornos mentales donde, paradójicamente, los límites entre el yo y el mundo son
a la vez demasiado fluidos y demasiado rígidos. El enfermo está escindido, encapsulado,
lo que limita sus potencialidades, pero la persona sana está 'abierta al mundo' y, a
diferencia del animal, puede conectarse con él más allá del lazo biológico o las
limitaciones de los sentidos.
g.
El criterio de centralización y orden jerárquico. Tanto en el cerebro como en las
funciones mentales, la centralización y el orden jerárquico van alcanzándose por
estratificación, es decir, por superposición de 'capas' más altas (orden jerárquico) que
adoptan el papel de partes conductoras de las anteriores (centralización). La
estratificación es indispensable para comprender las perturbaciones psiquiátricas: la
regresión de los sicóticos no sólo es desdiferenciación, como se indicó en el parágrafo
anterior, sino también descentralización y relajamiento de la organización mental
jerárquica.
h.
El criterio del simbolismo. Lo propio del hombre es la actividad simbólica, y
probablemente todas las nociones para caracterizar la conducta humana sean
consecuencias o diferentes aspectos de aquella actividad, tales como la cultura, la
percepción creadora, la unidad yo-mundo, etc. Por ello, en los trastornos mentales están
por regla general comprometidas las funciones simbólicas. Así, en la esquizofrenia
podemos ver dificultades asociativas, desplome de los límites del yo, perturbaciones del
habla y el pensamiento, etc. Como las funciones simbólicas son ingredientes básicos de
la enfermedad mental, esta resulta un fenómeno específicamente humano.
En lo concerniente al simbolismo en el contexto de la persona normal, von Bertalanffy
indica que el afán humano es más que la autorrealización, pues se dirige a metas y
realización de valores, que no son otra cosa que entidades simbólicas destinadas a
quedar desprendidas de sus creadores.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
164
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
vi. Síntesis del aporte del enfoque sistémico. Entre las consecuencias generadas a partir de
una consideración sistémica en el ámbito de la psicología, pueden citarse las siguientes:
a.
Ofrece un armazón teórico psicofísicamente neutral, en el sentido de que se opone a
reducir lo fisiológico a lo psicológico o viceversa, proponiendo en cambio la idea de
sistema como concepto igualmente aplicable a ambos campos, sin reducir uno al otro.
b.
Ofrece un 'lenguaje común' para la comprensión de aspectos muy diversos entre sí como
conciencia e inconciente, cuerpo y mente, exterior y yo interior, etc., renunciando por
tanto a escindir estas áreas de lo real en compartimientos aislados, al modo dualista
cartesiano. Aquel 'lenguaje común', proporcionado por la TGS, algún día podrá
desembocar en alguna teoría unificada que pueda explicar al mismo tiempo todos los
aspectos mencionados.
c.
Ofrece un nuevo sentido al libre albedrío y al determinismo, al proponer que este último
no limita la libertad humana, sino que funciona como marco de referencia para organizar
causalmente nuestro universo simbólico.
d.
Ofrece también un nuevo sentido de la responsabilidad: el hombre no es ni un ser
totalmente irresponsable a merced de sus pulsiones e impulsos, ni totalmente
responsable según una norma universal, que por otra parte no existe. La responsabilidad
se juzga siempre dentro de un marco simbólico de valores, de los que acepta una
sociedad en una circunstancia dada.
64. REDUCCIONISMO
Punto de vista según el cual todos los fenómenos, tanto biológicos, del comportamiento
como los sociales pueden ser 'reducidos', es decir, explicados a partir de las leyes y teorías
de la física. Al referirse al reduccionismo, entonces, von Bertalanffy habla específicamente
de un fisicalismo, postura que considerará insostenible, y que debe ser reemplazada por
otra llamada 'perspectivismo'.
Si bien existen otros tipos de reduccionismos, incluso mencionados por von Bertalanffy tales como
el vitalismo y el biologismo, el autor tiende a definir reduccionismo en términos de fisicalismo, es
decir, la pretensión de explicar toda la realidad desde procesos puramente físicos, o bien de
reducir toda ciencia posible a la ciencia física. Por ejemplo, se ha hablado de una 'física social',
que intentaría explicar las ciencias sociales a partir de leyes físicas. En otra parte, von Bertalanffy
reserva el término fisicalismo sólo para la reducción de la biología a la física, y en tal sentido lo
distingue del biologismo (ver más adelante en este mismo artículo).
Como indicó Aldous Huxley, el mundo es un helado napolitano cuyos niveles -físico, biológico,
social, moral- corresponden a las capas de chocolate, fresa y frutilla, y la ridícula pretensión
reduccionista es precisamente reducir la fresa al chocolate.
Las tesis fisicalista y reduccionista se volvieron problemáticas y hasta se manifestaron como
prejuicios metafísicos. Las entidades de que trata la física (átomos, partículas subatómicas, etc.)
resultaron ser mucho más ambiguas de lo supuesto: no son metafísicas piedras de construcción
del universo sino modelos conceptuales harto complicados, inventados para explicar ciertos
fenómenos observados.
Von Bertalanffy propone un punto de vista más modesto, que él denominó 'perspectivismo'. En
rigor, cada nivel de la realidad tiene sus propias leyes, distintas a las de la física ordinaria, y lo que
propone el perspectivismo es mostrar que la física (y, por extensión, la ciencia que conocemos en
nuestra cultura) no es la única forma de conocer la realidad, ya que este conocimiento depende de
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
165
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
factores culturales y biológicos (ver Categoría). La física en sí no tiene nada de singular ni de
particularmente sagrado, y hasta dentro de nuestra propia ciencia son igualmente legítimos otros
sistemas simbólicos tales como la taxonomía, la genética o la historia del arte. Incluso otras
culturas o aún inteligencias subhumanas pueden tener otro tipo de 'ciencia' que representen otros
aspectos de la realidad tan bien o mejor a como lo hace nuestra imagen científica del mundo.
Una idea empleada por von Bertalanffy, el concepto de 'homología' (ver Homología), puede hacer
pensar en un reduccionismo, pero la homología de características de sistemas no implica
reducción de un dominio a otro inferior.
Von Bertalanffy incluye incidentalmente otro reduccionismo, el biologista: una vez eliminado el
fisicalismo, puede persistir una actitud biologista según la cual, los fenómenos relativos al
comportamiento y a la sociedad pueden ser explicados desde las leyes biológicas, considerando
por ejemplo a la sociedad humana como una colmena o una granja de cría de equinos. El
biologismo reduce así la psicología, la sociología, la historia, y, en general, las ciencias sociales, a
la biología.
No obstante sus críticas a las actitudes reduccionistas, ciertos comentarios de von Bertalanffy
parecen reivindicar tímidamente esta postura, como cuando señala que "también dejamos abierta
la cuestión de la 'reducción última' de las leyes de la biología y demás ámbitos no físicos a la
física". O también cuando sostiene que las fronteras entre la física y la biología (o entre ésta y la
psicología) no son tan claras, habiendo entre ellas una continuidad revelada por los importantes
avances en la explicación físico-química de los procesos vitales, y que nos obliga a no insistir
demasiado en la irreductibilidad de la biología a la física. Tal vez el autor se halle aquí influido
además por la idea, sugerida por la observación, de que los procesos físicos y químicos son
condiciones necesarias para los procesos biológicos (por ejemplo la conducción nerviosa es
posible por la presencia de una diferencia de potencial de membrana), y a su vez estos son
condición necesaria de los procesos psíquicos (la memoria tiene un sustrato de ARN), y así
sucesivamente con la psicología y la sociología. Desde ya, esto no significa que se puedan
explicar fenómenos de una ciencia con los conceptos de otra ciencia: los potenciales de acción no
son aplicables a fenómenos mentales, ni mucho menos aún las nociones psicológicas a los
fenómenos físicos.
65. REGULACIÓN
En general, conjunto de procesos que permiten corregir o compensar perturbaciones
arbitrarias, orientando a un sistema hacia un estado de equilibrio o hacia un estado
uniforme. El concepto es aplicado por von Bertalanffy especialmente a los sistemas vivos,
de los cuales entonces se dice que exhiben autorregulación.
En tales sistemas, en una primera etapa se establecen regulaciones primarias, que luego
progresivamente van siendo reemplazadas por regulaciones secundarias según y conforme
el principio de mecanización progresiva.
i.
Introducción. Si bien las máquinas creadas por el hombre exhiben cierto tipo de
autorregulación, como los proyectiles autodirigidos o la máquina de Turing, en lo que sigue
nos referiremos exclusivamente a las llamadas regulaciones orgánicas u organísmicas, es
decir, las que intervienen en los procesos vitales.
Para el vitalismo, las regulaciones orgánicas quedaban explicadas por la intervención de
agentes suprafísicos, como por ejemplo las entelequias, que misteriosamente eran capaces
de controlar y reparar la maquinaria orgánica. Con el advenimiento de la TGS, estas
regulaciones orgánicas pudieron ser tratadas en un contexto más científico y menos
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
166
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
especulativo, que es el que seguidamente explicaremos en forma sucinta a propósito de la
distinción entre regulaciones primarias y secundarias.
ii.
Tipos de regulación. Las regulaciones primarias son regulaciones de naturaleza 'dinámica'
resultantes del libre juego de fuerzas y de la interacción mutua entre componentes, tendiente
hacia el equilibrio o estados uniformes. Son las más primitivas, y el ejemplo es la
equifinalidad.
Las regulaciones secundarias son regulaciones basadas en disposiciones preestablecidas o
'estructurales', es decir, fundadas en mecanismos ya estructurados donde se recorren
caminos fijos encadenados causalmente. Con el tiempo van superponiéndose a las
regulaciones primarias, y el ejemplo es la directividad estructural (ver Finalidad) o la
retroalimentación.
Tipos de regulación
REGULACIONES PRIMARIAS
REGULACIONES SECUNDARIAS
Más primitivas
Más posteriores
Mecanismo: equifinalidad
Mecanismo: directividad estructural (equifinalidad)
Se deben al libre juego de fuerzas
dentro de un sistema dinámico
Son el resultado de constreñimientos impuestos
por mecanismos estructurales de
retroalimentación
Ejemplo: desarrollo embrionario
Ejemplo: control neurohormonal
Los sistemas vivos, tanto en su evolución filogenética como ontogenética atraviesan, en lo
concerniente a procesos de regulación, por dos etapas, siendo el pasaje de una a otra
progresivo y paulatino: una primera etapa donde predominan las regulaciones primarias (por
ejemplo en el embrión), y una segunda etapa donde aquellas van siendo reemplazadas por
las regulaciones secundarias (por ejemplo en el organismo adulto).
Se trata de un proceso de mecanización progresiva (ver Mecanización) que, en términos de
regulaciones, puede ser entendido del siguiente modo. Si introducimos alguna perturbación
en un huevo de erizo de mar, como por ejemplo cortarlo en dos mitades, tal perturbación es
corregida o compensada por las regulaciones primarias, de forma tal que el organismo pueda
evolucionar hacia la forma de erizo de mar normal. Esto habla de una gran plasticidad, de un
libre juego de fuerzas donde las mutuas interacciones permiten que, aún partiendo de
condiciones iniciales modificadas, el sistema evolucione hacia el mismo fin (equifinalidad).
Sin embargo, a medida que el huevo se desarrolla, comienzan a diferenciarse más sus
células, es decir, empiezan a estar cada vez más constreñidas a cumplir determinada función.
Consecuentemente el organismo se torna cada vez más 'mecanizado': mecanización
creciente significa determinación creciente de elementos por funciones sólo dependientes de
ellos mismos, con la consiguiente pérdida de regulabilidad sustentada en el sistema de
conjunto, vale decir, con una progresiva pérdida de las regulaciones primarias. A pesar de ello
estas nunca desaparecen totalmente, es decir, la mecanización debida a regulaciones
secundarias nunca es completa.
Para decirlo de otra manera: al principio los sistemas, sean biológicos, neurológicos,
psicológicos o sociales, están gobernados por interacción dinámica entre sus componentes;
más tarde se establecen disposiciones fijas y condiciones de restricción [derivadas de la
especialización de sus componentes] que hacen más eficientes al sistema pero que, al mismo
tiempo, disminuyen gradualmente su equipotencialidad hasta acabar por abolirla. Podríamos
también decir: al principio todos los elementos están relacionados con todos los demás
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
167
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
(interacción dinámica), pero conforme avanza la diferenciación y la especialización, ciertos
elementos quedarán más relacionados con ciertos otros, formando entre sí cadenas causales
circulares (retroalimentación) relativamente aisladas del resto. Si hipotéticamente el proceso
siguiese mecanizándose más, las cadenas circulares pasarían a ser cadenas causales
totalmente independientes unas de otras, y el organismo perdería organización y se
disgregaría. Evidentemente esto sucede, pero ya no podemos decir que haya propiamente
vida, y en este caso tampoco hablaremos de ningún tipo de regulación orgánica.
A partir de lo dicho podemos concluir que toda regulación orgánica es ante todo una
autorregulación: el organismo tiene la propiedad de regularse a sí mismo, tanto en cuanto a
regulaciones primarias como a regulaciones secundarias. De aquí que conceptos íntimamente
relacionados con la autorregulación sean los de autoorganización, auto restauración, auto
mantenimiento, auto orientación o auto dirección (ver Auto-). El ser viviente puede auto
organizarse, auto mantenerse, etc., gracias, precisamente, a sus mecanismos de
autorregulación.
66. RETROALIMENTACIÓN
La regulación por retroalimentación es un proceso circular en el cual parte de la salida es
remitida de nuevo a la entrada como información sobre el resultado preliminar de la
respuesta, haciendo así que el sistema se auto rregule, sea en el sentido de mantener
determinadas variables (por ejemplo en la termorregulación), sea en el sentido de dirigirse
hacia una meta deseada (por ejemplo en los proyectiles autodirigidos).
i.
Caracterización. La retroalimentación (feed-back) es el mantenimiento homeostático de un
estado característico o bien la búsqueda de una meta, basado en cadenas causales circulares
y en mecanismos que devuelven información acerca de desviaciones con respecto al estado
por mantener o la meta por alcanzar. Retroalimentación, servomecanismos, sistemas
circulares y procesos circulares pueden tomarse como expresiones distintas pero en gran
medida equivalentes de la misma concepción.
El esquema básico de retroalimentación aparece representado en el dibujo adjunto, en el cual
figuran ejemplos biológicos y tecnológicos. El sistema comprende, primero, un receptor u
'órgano sensorio' que incorpora la información. Luego, un centro de control que recombina los
mensajes que llegan y los transmite al efector. Por último, el funcionamiento del efector está
empalmado al receptor, lo cual hace que el sistema se autorregule, o sea que garantiza la
estabilización o la dirección de la acción.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
168
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Esquema sencillo de retroalimentación
ii.
Ejemplos. Este tipo de regulación existe tanto en los organismos vivos como en las máquinas
creadas por el hombre, y, en ambos casos, existen las dos modalidades de la
retroalimentación: como mantenimiento de variables en un valor fijo, y como búsqueda de
metas (ver esquema anterior). Expliquemos brevemente un ejemplo de cada una de las cuatro
posibilidades.
a.
Termorregulación: el enfriamiento de la sangre estimula ciertos centros cerebrales que
'echan a andar' los mecanismos productores de calor del cuerpo, y la temperatura de éste
es registrada a su vez por aquellos centros, de manera que es mantenida a nivel
constante.
b.
Control propioceptivo del movimiento voluntario: si queremos alcanzar un lápiz, se
envía al sistema nervioso central un informe acerca de la distancia que nos impidió llegar
al lápiz en el primer intento; esta información es retroalimentada al sistema nervioso
central para que el movimiento sea controlado, hasta que se logre la meta.
c.
Termostato: Dispositivo que regula la temperatura. Cuando hace mucho calor, el
termostato lo baja, y cuando el calor desciende, el termostato lo sube automáticamente.
Se usa en muchos sistemas, como por ejemplo el motor de un automóvil, el que para
funcionar óptimamente debe mantenerse a una temperatura constante.
d.
Proyectiles autodirigidos: proyectiles que automáticamente corrigen su propio rumbo
en función de la posición cambiante del blanco: apuntan a un blanco, se dirigen hacia él,
advierten que el blanco cambia y vuelven a cambiar su dirección en el rumbo correcto.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
169
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Ejemplos de retroalimentación
Mantenimiento de variables
En seres vivos
En máquinas
Búsqueda de metas
Termorregulación
Conservación de la glucemia
Conservación del PH
Control neurohormonal
HOMEOSTASIS
Control propioceptivo de
movimientos voluntarios, etc.
Termóstato
Homeóstato de Ashby
Proyectiles autodirigidos
Sistema de control en cañones
antiaéreos
Pilotaje de buques
Servomecanismos
iii. Regulación, retroalimentación y homeostasis. Estos términos no son exactamente
sinónimos. Dentro de los mecanismos de regulación, y más específicamente dentro de los
sistemas autorregulados, encontramos los mecanismos de retroalimentación como un caso
especial. A su vez, dentro de estos últimos se incluyen los mecanismos homeostáticos.
Los organismos vivos presentan regulaciones primarias y secundarias (ver Regulación).
Mientras las regulaciones primarias se fundan en el modelo de la equifinalidad, el modelo de
la retroalimentación es eminentemente aplicable a regulaciones secundarias, es decir a
regulaciones basadas en disposiciones estructurales en el sentido amplio de la palabra, en
mecanismos preestablecidos y caminos fijos, y su carácter mecanicista lo hace especialmente
aplicable a órganos o sistemas de órganos. El modelo de la retroalimentación no debe
entonces considerarse una panacea para la regulación fisiológica en general, y menos aún
identificarse con la teoría de los sistemas.
Como vemos en el esquema de ejemplos de retroalimentación, el término homeostasis se
suele aplicar específicamente a mecanismos de mantenimiento de variables en los sistemas
vivos. De hecho, el principio homeostático fue formulado originalmente en ese sentido por
Cannon, más allá de que autores como Ashby hayan construido una máquina que imita el
modelo homeostático, llamada homeóstato. En la base del mecanismo de homeostasis, en fin,
encontraremos entonces un modelo de retroalimentación.
iv. Criterios de retroalimentación. Afinaremos aún más las distinciones anteriores
estableciendo los tres criterios esenciales que definen los sistemas de control por
retroalimentación:
a.
Están vinculados a las regulaciones secundarias, es decir, son sistemas que tienen el
carácter de mecanismos con caminos preestablecidos, en contraste con las regulaciones
dinámicas resultantes del libre juego de fuerzas y la interacción mutua típicas de los
sistemas abiertos.
b.
Las líneas causales dentro del sistema de retroalimentación son lineales y
unidireccionales. El esquema básico de la retroalimentación sigue siendo el esquema E-R
(estímulo-respuesta), sólo que el bucle de retroalimentación hace que la causalidad se
convierta en circular.
c.
Los fenómenos típicos de retroalimentación u homeostáticos son 'abiertos' con respecto a
la información entrante, pero 'cerrados' por lo que atañe a la materia y la energía.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
170
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
67. SEGREGACIÓN
Propiedad formal de los sistemas según la cual las interacciones entre sus elementos van
disminuyendo con el tiempo. Tal característica parece desacostumbrada en los sistemas
físicos, pero es común y fundamental en sistemas biológicos, psicológicos y sociológicos.
Segregación significa separación. La segregación progresiva implica pasar de un estado inicial de
totalidad, a otro estado de independencia entre los elementos. El estado primario es el de un
sistema unitario, que se va escindiendo gradualmente en cadenas causales independientes. Esto
significa que los elementos van circunscribiendo cada vez más su radio de interacción, de forma
tal que terminan 'agrupados' en conjuntos relativamente aislados entre sí y en los cuales se
relacionan mucho más entre ellos que con respecto a otros elementos de otros conjuntos.
Mientras los sistemas físicos tales como átomos, moléculas o cristales resultan de la 'unión' de
elementos preexistentes, en contraste los sistemas biológicos se constituyen por 'diferenciación'
de un todo original que se segrega en partes. Por ejemplo, en el desarrollo embrionario el germen
pasa de un estado de equipotencialidad, a otro donde se comporta como un conjunto de regiones
que se desarrollan independientemente originando órganos definidos.
El término 'equipotencialidad' empleado por von Bertalanffy alude al hecho de que al comienzo del
desarrollo embrionario todas las células son equipotenciales, vale decir, tienen el mismo potencial
para generar estructuras de forma tal que, en caso de destrucción experimental de algunas de
ellas, pueden ser fácilmente reemplazada por las otras. Si cortamos por la mitad el huevo cigota
del erizo de mar, de cada mitad podrá desarrollarse un organismo entero.
Y así, mientras más partes se especializan de determinado modo, más irreemplazables resultan, y
la pérdida de partes puede llevar a la desintegración del sistema total. En lenguaje aristotélico,
toda evolución, al desplegar alguna potencialidad, aniquila en capullo muchas otras posibilidades.
El progreso sólo es posible por subdivisión de una acción inicialmente unitaria en acciones de
partes especializadas, y desde ya que esto implica un empobrecimiento, es decir, una pérdida de
posibilidades que aún subsistían en el estado inicial indeterminado.
La segregación progresiva se ve también en el desarrollo filogenético, en la especialización de la
ciencia, en la vida cotidiana, y también en el comportamiento, donde vemos una transición gradual
de la conducta de conjunto hacia la conducta sumativa.
La razón del predominio de la segregación en la naturaleza viviente parece ser que la segregación
en sistemas parciales subordinados implica un aumento de complejidad en el sistema. Semejante
tránsito hacia un orden superior presupone suministro de energía, y esto a su vez la condición que
el sistema sea abierto, es decir, que pueda tomar energía del medio circundante.
68. SIMBOLISMO
La actividad simbólica es frecuentemente reconocida como la gran diferencia del hombre
con las demás especies, y la cultura, como sistema de símbolos o universo simbólico se
encuentra estrechamente ligada a la evolución del lenguaje y la formación de conceptos.
i.
Concepto. Von Bertalanffy indica que la especificidad de la condición humana no tiene una
relación necesaria con la racionalidad, sino con la capacidad exclusiva del hombre de crear
símbolos y ser dominado por ellos. Este criterio es reconocido por biólogos, por fisiólogos
pavlovianos, por psiquiatras como Appleby, Arieti y Goldstein, y por filósofos como E.
Cassirer.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
171
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Si bien en el mundo animal se observa 'lenguaje' (como por ejemplo el canto de las aves),
sólo en el hombre el lenguaje funciona como representación y comunicación de hechos y
como sistema de símbolos no heredados sino libremente creados y transmitidos por tradición.
En tal sentido, el lenguaje no sólo comprende la palabra hablada sino también la escritura y el
lenguaje matemático.
ii.
Ejemplos. Sin intentar una definición precisa de actividad simbólica, von Bertalanffy cita un
repertorio de nociones que suelen utilizarse para caracterizar la conducta humana y que son
consecuencias o aspectos diferentes de aquella actividad. Entre ellas, sobresalen las
siguientes:
a.
cultura y civilización,
b.
creatividad en contraste con la percepción pasiva,
c.
objetivación, tanto de la realidad como del sí mismo,
d.
visión del pasado y del porvenir,
e.
intencionalidad como planeamiento conciente,
f.
temor a la muerte y suicidio,
g.
devoción a una causa,
h.
afán de auto trascendencia,
i.
códigos morales, superyo, disimulo, mentira,
j.
la experimentación mental, que se realiza mediante símbolos conceptuales por oposición
al ensayo-error físico, tan típico del comportamiento animal, etc.
Todas estas características están sostenidas por los universos simbólicos, y no pueden ser
explicadas por simples pulsiones biológicas, instintos psicoanalíticos, reforzamiento de
gratificaciones u otros factores biológicos Mientras los valores biológicos conciernen a la
conservación del individuo o la especie, los valores propiamente humanos están vinculados a
la actividad simbólica. De hecho, muchas perturbaciones mentales son perturbaciones de las
funciones simbólicas, ya que la enfermedad mental es un fenómeno específicamente humano.
iii. Simbolismo y autonomía. Von Bertalanffy menciona, finalmente, una característica única y
muy importante de la actividad simbólica: su autonomía relativa. El mundo simbólico creado
por el hombre es capaz de adquirir vida propia, por así decirlo: se torna más inteligente que su
creador.
Al respecto, von Bertalanffy cita el ejemplo del sistema simbólico de la matemática, el cual
está encarnado en una enorme máquina de pensar que, cuando se le administra un
enunciado, produce una solución en base a un proceso fijo de concatenación de símbolos que
hubiera sido difícil de prever. En otros términos, una vez introducidas las instrucciones
adecuadas, la maquinaria matemática funciona por sí sola, dando resultados inesperados que
sobrepasan el volumen inicial de hechos y reglas de donde se partió originalmente. Tal ocurre
con cualquier predicción algorítmica (como por ejemplo un razonamiento deductivo) o con
cualquier predicción sobre los hechos del mundo, como el de un nuevo elemento químico o el
de un nuevo planeta, cuyas existencias pueden ser predichas sobre la base de una fórmula
matemática. Esta sustitución de la experiencia directa por un sistema algorítmico que marcha
solo, está estrechamente relacionada con la progresiva desantropomorfización de la ciencia,
cuestión esta última desarrollada con mayor detalle en el artículo Categoría.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
172
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
69. SISTEMA
Un sistema es un complejo de elementos en interacción. 'Interacción' significa que un
elemento cualquiera se comportará de manera diferente si se relaciona con otro elemento
distinto dentro del mismo sistema. Si los comportamientos en ambas relaciones no difieren,
no hay interacción, y por tanto tampoco hay sistema.
Los sistemas pueden clasificarse de varias maneras diferentes, siendo la más importante
aquella que los tipifica como sistemas cerrados y sistemas abiertos.
i.
Definición. Von Bertalanffy define sistema como un complejo o un conjunto de elementos
interactuantes, definición que reitera permanentemente a lo largo de su obra. Así entendida,
esta importante noción puede parecer un concepto pálido, abstracto, vacío, o bien una noción
tan general y vaga que no hubiera gran cosa que aprender de ella. Sin embargo, encierra un
sentido oculto con explosivas potencialidades, según la misma expresión de von Bertalanffy.
Ejemplos de sistemas son por ejemplo un ser vivo, una célula, un planeta, una reacción
química, la personalidad, etc., pero el prototipo de su descripción es un conjunto de
ecuaciones diferenciales simultáneas. Este modelo matemático tiene la desventaja de que
prescinde de condiciones espaciales y temporales, tal como las tienen los sistemas que
hemos dado como ejemplos (para ello habría que modificar el sistema matemático propuesto
transformándolo en ciertas ecuaciones íntegrodiferenciales). La gran ventaja es, sin embargo,
que el análisis del sistema de ecuaciones diferenciales simultáneas permite discutir y aclarar
varias de las propiedades generales de sistemas como por ejemplo el crecimiento, la
competencia (o lucha entre las partes), totalidad, sumatividad física, sumatividad matemática,
segregación progresiva, centralización y mecanización progresiva, orden jerárquico, finalidad.
Estas características -o al menos algunas de ellas- se llaman también principios, ya que rigen
el funcionamiento de todo sistema y pueden ser detectados no sólo en el modelo matemático
que sirvió a von Bertalanffy para describir un sistema, sino también en diferentes campos de
la ciencia natural, la psicología y la sociología.
Por consiguiente, un sistema es un modelo de carácter general, y alude a características muy
genéricas compartidas por gran número de entidades que acostumbraban a ser tratadas por
diferentes disciplinas. Todas esas características pueden formalizarse en un sistema
matemático: a fin de cuentas, como dice von Bertalanffy, la TGS es una 'ciencia lógicomatemática de la totalidad', y su desarrollo rigurosamente 'técnico' y matemático, aunque no
sean desdeñables las descripciones y los modelos 'verbales'. De hecho hay que 'ver'
intuitivamente, hay que reconocer los problemas antes de intentar formalizarlos
matemáticamente. De otra manera el formalismo matemático quizá llegue a impedir la
exploración de problemas muy 'reales'.
ii.
Descripción interna y externa. En el contexto de la llamada teoría dinámica de los sistemas
(que se ocupa de los cambios en los sistemas con el tiempo), hay dos modos principales de
descripción: la descripción interna y la descripción externa.
La descripción interna investiga las relaciones entre los mismos elementos del sistema, y ha
sido el objeto de estudio de la teoría 'clásica' de los sistemas. Define un sistema a partir de un
conjunto de variables de estado, y su cambio a partir de cómo estas variables, al interactuar
entre sí, van determinando la evolución temporal del sistema.
La descripción externa investiga las relaciones del sistema considerado globalmente, con el
medio circundante, y por lo tanto el sistema es concebido como una 'caja negra' (no se
atienden a las relaciones entre sus elementos, indagadas por la descripción interna), y
descrito en términos de entradas y salidas.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
173
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
En suma: la descripción interna es esencialmente 'estructural': procura describir el
comportamiento del sistema en términos de variables de estado y de su interdependencia. La
descripción externa es 'funcional', describe el comportamiento del sistema por su interacción
con el medio. Por ejemplo, una célula es un sistema. Como tal está compuesta por diversos
elementos, como pueden ser el núcleo, el retículo endoplásmico, las mitocondrias, el aparato
de Golgi, los nutrientes, etc. Entre ellos se establecen relaciones estructurales, atendidas por
la descripción interna de la célula. Sin embargo, la célula como totalidad está también
relacionada con otras células, con el tejido, con el órgano y con el aparato donde la célula
está localizada, llamadas relaciones funcionales.
Estructura y función no son independientes: en la medida que el sistema se vincula con el
medio, sus relaciones internas cambian, y en la medida que estas cambian, ello repercute en
su relación con el medio. Esta interdependencia aparece patentizada especialmente en los
sistemas abiertos. Piaget, por ejemplo, han insistido en la interdependencia entre
organización y adaptación. En la teoría piagetiana de la inteligencia, la 'organización' aparece
en la descripción interna o estructural según terminología de la TGS, y la 'adaptación' en la
descripción externa o funcional, según terminología de la misma teoría de von Bertalanffy.
iii. Límites. Si de describir externamente un sistema se trata, ¿dónde empieza y dónde termina
un sistema? Von Bertalanffy indica que todo sistema como entidad investigable por derecho
propio debe tener límites, espaciales o dinámicos. Estrictamente hablando, los límites
espaciales sólo se ven en la observación ingenua, ya que en rigor todos los límites son en
realidad dinámicos. Es imposible señalar con exactitud los límites de un átomo (con valencias
saliéndole, digamos, para atraer a otros átomos), de una piedra (agregado de moléculas y
átomos consistente más que nada en espacio vacío, con partículas separadas por distancias
enormes), o de un organismo (que continuamente intercambia materia con el medio).
En psicología, los límites del yo son tan fundamentales como precarios, y se van
estableciendo con el desarrollo, no quedando nunca fijos por completo. En sicopatología se
exhibe la paradoja de que los límites del yo sean a la vez demasiado fluidos y demasiado
rígidos. Las alucinaciones, por ejemplo, provocan una inseguridad en los límites del yo.
iv. Clasificación. Von Bertalanffy propone o sugiere varios criterios para clasificar los sistemas,
que resumiremos a continuación.
a.
Según el sector de la realidad y/o según la ciencia que los estudian, los sistemas pueden
ser biológicos, neurológicos, psicológicos, sociales, etc. todos ellos englobables dentro de
los llamados sistemas vivos. Habría entonces también sistemas no-vivos, como por
ejemplo un sistema matemático o un sistema físico-químico, en la medida en que a éste
último no lo consideremos en relación con procesos vitales.
b.
Según el nivel de observación, los sistemas pueden ser reales y conceptuales. Sistemas
reales son entidades percibidas en la observación o inferidas de ésta, y que existen
independientemente del observador. Por ejemplo una galaxia, un perro, una célula o un
átomo. Sistemas conceptuales son ante todo construcciones simbólicas, como por
ejemplo la lógica, las matemáticas, y hasta la música. Dentro de los sistemas
conceptuales hay una subclase especialmente importante, que son los sistemas
abstraídos, es decir, sistemas conceptuales correspondientes a la realidad y estudiados
por las diferentes ciencias, naturales o sociales.
La distinción entre sistemas reales y conceptuales no es tan nítida como pudiera creerse,
y no son problemas sencillos de resolver. Un ecosistema o un sistema social es bien
'real', según apreciamos en carne propia cuando por ejemplo el ecosistema es perturbado
por la contaminación, pero al mismo tiempo puede ser concebido como un sistema
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
174
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
conceptual por cuanto los datos no son simples impresiones sensoriales sino que están
organizados o construidos mentalmente sobre la base de determinantes lingüísticos,
culturales, gestálticos, etc. (Ver Categoría).
v.
c.
Según su apertura al medio, los sistemas pueden ser cerrados o abiertos, siendo esta la
clasificación que más desarrolla y detalla von Bertalanffy. Un sistema abierto es definido
como un sistema que intercambia materia [y consiguientemente energía] con el medio
circundante, que exhibe importación y exportación, formación y degradación de sus
componentes materiales. El sistema cerrado se considera aislado del exterior, no
intercambiando materia con él. Un sistema puede recibir desde afuera información, como
el caso de los sistemas retroalimentados, sin que ello implique recibir materia. Un tal
sistema sería abierto desde el punto de vista de la información, pero cerrado desde el
punto de vista material, energético o entrópico, siendo éste último enfoque el que tomará
von Bertalanffy para definir sistema cerrado o abierto. A partir de estas definiciones se
desarrollan toda una serie de características diferentes en cada tipo de sistema. Dada la
amplitud con que este tema es tratado, remitimos al lector a los correspondientes
artículos del presente trabajo (ver Sistema abierto, Sistema cerrado).
d.
Según el modo de concebirlo según una u otra teoría, los sistemas pueden ser pasivos o
activos, estas calificaciones o tipificaciones encuentran su mayor aplicabilidad
especialmente en en psicología. Así, las teorías del hombre-robot conciben el psiquismo
como una entidad pasiva, que busca reducir tensiones y evitar la estimulación
desequilibrante, mientras que las nuevas orientaciones conciben a la personalidad más
como un sistema esencialmente activo (ver Personalidad).
Propiedades formales. Más allá de las propiedades típicas de cada tipo de sistema von
Bertalanffy, al comienzo de su desarrollo de la TGS ha establecido ciertas propiedades
formales de todo sistema, y que también ha designado como 'principios generales' o
'principios de Bertalanffy'. Sin la pretensión de ser exhaustivo al respecto, este autor ha
ilustrado estos principios a partir de otras tantas propiedades de las ecuaciones diferenciales
simultáneas, que en sí mismas ya son sistemas matemáticos. La denominación 'formales'
apunta mostrar que tales principios son a priori, es decir, independientes de su interpretación
física, química, biológica, sociológica, etc. No obstante resultan ser intuitivamente accesibles,
sin aspirar al rigor y la generalidad matemática. Von Bertalanffy subrayará, unos veinte años
después de haber formulado estos principios, que un sistema de ecuaciones diferenciales
simultáneas no es en modo alguno la formulación más general, y que la ha escogido sólo con
propósitos ilustrativos. Con los ulteriores progresos en la TGS y con la distinción más
detallada entre sistemas abiertos y cerrados, algunas de las llamadas propiedades formales
de los sistemas se han revelado ora como predominantes, ora como exclusivas de cierto tipo
de sistema (no de 'todos' los sistemas).
Prescindiendo entonces de los tecnicismos matemáticos, definiremos cada una de las
propiedades formales de los sistemas tal como fueron formuladas originalmente, del siguiente
modo:
a.
Crecimiento. Propiedad según la cual los sistemas tienden a aumentar o a disminuir su
cantidad de elementos, es decir, que el crecimiento podrá ser positivo o negativo. Tal
incremento o decremento no ocurre al azar sino de acuerdo a ciertas leyes, como por
ejemplo la ley exponencial o la ley logística, y son aplicables a un gran número de
sistemas: el crecimiento individual de ciertas bacterias y animales, la variación
cuantitativa de poblaciones, el aumento del conocimiento científico a partir del número de
publicaciones, las reacciones auto catalíticas donde el producto formado acelera su
propia producción, etc.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
175
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
b.
Competencia. La competencia puede ser descripta, cuando no hay interacción entre
partes, mediante ecuaciones alométricas. Nos interesa sin embargo aquí especialmente
el caso donde los elementos interactúan entre sí compitiendo, como por ejemplo la
competencia entre especies animales, o entre el depredador y la presa, etc. Tal
competencia hace que las poblaciones aumenten y decrezcan de acuerdo a ciertas leyes,
tendiendo a estabilizarse alrededor de un valor medio.
c.
Totalidad. Propiedad según la cual el sistema se conduce como un todo, es decir que los
cambios en cada elemento dependen de todos los demás. Así, un elemento A cambia por
influencia de los otros elementos, y a su vez provoca un cambio en todos los demás
elementos y en el sistema total.
d.
Sumatividad. En oposición a la propiedad anterior, la sumatividad indica que los
elementos no se influyen mutuamente, siendo independientes entre sí. En otras palabras,
la variación del complejo total es la suma de las variaciones en sus elementos, o también,
el todo equivale a la suma de las partes, a diferencia de la propiedad de la totalidad,
donde debido a la interacción entre las partes, el todo resulta ser diferente a su mera
suma.
Según se aplique a sistemas físicos o matemáticos, tendremos una sumatividad física o
una matemática. El primer caso resulta especialmente importante para la TGS. En la
realidad encontramos sistemas que tiene la propiedad de la sumatividad, como puede
serlo un montón de ladrillos, pero en muchos otros casos no ocurre lo mismo, como en
las gestalten. No está de más subrayar también el carácter no sumativo de los sistemas
biológicos, por ejemplo. Sin embargo, el principio de sumatividad es aplicable al
organismo vivo pero hasta cierto punto, es decir, a ciertos sub-sistemas del mismo
altamente mecanizados, como la palpitación del corazón, casi enteramente igual tanto si
se lo estudia en el organismo como aislado de él.
e.
Segregación progresiva y mecanización progresiva. Propiedad de los sistemas según
la cual las interacciones entre sus elementos disminuyen con el tiempo. Caso
desacostumbrado en los sistemas físicos, es común y fundamental en sistemas
biológicos, psicológicos y sociológicos.
También puede decirse que la segregación progresiva es el proceso por el cual un
sistema pasa del estado de totalidad (propiedad c) a un estado de independencia de los
elementos: el sistema va escindiéndose, separándose o segregándose gradualmente en
cadenas causales independientes, con lo cual dejan de interactuar dinámicamente 'todos
con todos'.
Así por ejemplo, en el desarrollo del sistema nervioso y de la conducta, partiendo de
acciones de cuerpo entero o de grandes regiones, se pasa luego de a poco al
establecimiento de centros definidos y arcos reflejos localizados.
Este principio destaca la idea de que hay seis procesos íntimamente vinculados entre sí:
la segregación, la diferenciación, la especialización, la complejización, la mecanización, y
la pérdida de regulabilidad, siendo todos ellos, en el caso de los sistemas biológicos,
psicológicos y sociales, progresivos o crecientes. Ello significa que a medida que
aumenta la diferenciación y la especialización, aumenta también la segregación, la
mecanización y la complejización, y en la medida que el sistema va mecanizándose, va
perdiendo regulabilidad, pasando paulatinamente de las regulaciones primarias a las
regulaciones secundarias (ver Regulación).
f.
Centralización e individualización progresiva. Paralelamente a los anteriores
procesos, ocurre también una centralización y una individualización progresivas. A
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
176
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
medida que las partes van diferenciándose, unas empiezan a dirigir o a dominar a las
otras, es decir, se constituyen en 'partes conductoras' o centros conductores
(centralización). Así por ejemplo, conforme evoluciona el sistema nervioso, se observa
que algunas partes pasan a controlar a las otras (los centros superiores a los inferiores),
mientras que en estadios muy primitivos de este sistema no se advierte esto, como en el
caso de los sistemas nerviosos difusos de animales inferiores, constituidos por una red
nerviosa homogénea. Durante el desarrollo embrionario, del mismo modo, ciertas partes
empiezan a estar privilegiadas, dirigiendo el desarrollo de las demás partes: son los
llamados 'organizadores'.
Correlativamente con la centralización, el organismo va individualizándose, es decir,
haciéndose 'único', individual. Von Bertalanffy define precisamente individuo como un
sistema centrado, lo cual de hecho es un caso límite al cual tienden el desarrollo y la
evolución, de modo que el organismo se vuelve cada vez más unificado e 'indivisible'. La
relación entre centralización e individualización es evidente: en la medida que todas las
partes pasan a depender de otra parte central, el todo queda unificado en torno de esta
última.
g.
Orden jerárquico. Los sistemas están frecuentemente estructurados de modo tal que
sus partes son a su vez sistemas del nivel inmediato inferior. Aunque von Bertalanffy no
suele utilizar el término, podríamos decir que los sistemas se organizan en 'sub-sistemas',
etc., y así sucesivamente. Desde ya, en la dirección opuesta habrá también 'suprasistemas', es decir, sistemas formados por sistemas.
Semejante estructura jerárquica es característica de la realidad como un todo y tiene
fundamental importancia especialmente en biología, psicología y sociología.
h.
'Diversidad'. Este principio, que aquí podríamos llamar principio de diversidad, afirma
simplemente que no hay una única clase de sistemas. La clasificación más importante los
divide en sistemas cerrados y sistemas abiertos, cada cual con sus propiedades
específicas (ver los respectivos artículos).
i.
Finalidad. A medida que evolucionan, los sistemas están o parecen estar orientados
hacia un fin, como por ejemplo mantener constante alguna variable (directividad
estructural u homeostasis). Hay sin embargo otros tipos de finalidad más típicas de los
sistemas biológicos, como la equifinalidad, o de los sistemas psicológicos como la
intencionalidad.
Para una ampliación de todos estos principios, remitimos al lector a los artículos
respectivos. Aquí completamos nuestra explicación afirmando que, si bien von Bertalanffy
enunció estos principios sin pretender ser exhaustivo, dicho repaso demostró ser
notablemente completo. Salvando variaciones secundarias en cuanto a terminología, no
han sido agregados más principios de significación comparable, por deseable que esto
hubiese sido. Aún así, consideramos conveniente agregar a las propiedades formales
explícitamente enunciadas por von Bertalanffy, también la estabilidad y la adaptación.
vi. Sistema y modelo. Si se enfatizan y desarrollan alguno o algunos de los principios indicados
en el ítem anterior a ciertas áreas de la realidad, se obtienen ciertos modelos específicos. Por
ejemplo en el campo del metabolismo cuantitativo, si enfatizamos el principio del crecimiento
se obtendrán modelos como el alométrico, o incluso otro modelo propuesto por el mismo von
Bertalanffy (ver Crecimiento). Asimismo, si enfatizamos el principio de finalidad, se podrán
desarrollar modelos del organismo como sistema abierto y estado uniforme, o modelos de
homeostasis.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
177
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
70. SISTEMA ABIERTO
Todo sistema que intercambia materia (y por tanto, energía) con el medio circundante, que
exhibe importación y exportación, constitución y degradación de sus componentes
materiales. Los sistemas abiertos poseen ciertas características propias tales como la
tendencia hacia un estado uniforme, la entropía negativa, o tendencia hacia grados
crecientes de complejidad y organización y hacia estados de máxima improbabilidad, la
presencia de procesos irreversibles etc. Ejemplos: los seres vivos, la personalidad, la
familia, las sociedades, etc.
i.
Aspectos históricos. Tradicionalmente, la físico-química se ocupa de sistemas cerrados,
pero en décadas recientes ha sido necesario ampliar esta perspectiva a propósito del estudio
de sistemas biológicos, psicológicos y sociales, que deben ser entendidos como sistemas
abiertos con estados y procesos especiales: estados de desequilibrio (o estados uniformes), y
procesos irreversibles. Por lo tanto, cabe considerar a la teoría de los sistemas abiertos como
una importante generalización de la teoría física, la cinética y la termodinámica, al incluir
nuevos conceptos como equifinalidad, orden creciente, etc., propios de los sistemas abiertos,
y al extender la idea de sistema al campo de la biología, la psicología, la sociología, y hasta la
geología y la meteorología (como sugirió, en este último caso, Prigogine).
ii.
Sobre la definición de sistema abierto. Si bien von Bertalanffy es lo suficientemente claro e
insistente al afirmar que un sistema abierto es aquel que intercambia materia y energía con el
entorno, en algún momento llega a afirmar que ciertos sistemas son abiertos respecto de la
información, pero cerrados respecto de la materia y la energía, es decir, intercambian
información con el medio pero no intercambian componentes materiales ricos en energía,
siendo un ejemplo de ellos los sistemas retroalimentados. Esta afirmación supone,
obviamente, que la información y la energía no son exactamente equivalentes, ya que puede
circular información sin que circule energía.
No obstante, en el presente texto consideraremos sistema abierto como aquel que
intercambia materia y energía, salvo indicación en contrario. Desde este punto de vista,
debemos entender un sistema abierto como aquel que, como consecuencia de este
intercambio (importación-exportación de materia), él y su entorno se modifican e influencian
recíprocamente, y que es además capaz de una actividad relativamente autónoma (por
ejemplo sintetiza y degrada materia), lo que es posible gracias al aporte energético del
exterior. Aún sin estímulos externos, el organismo no es un sistema pasivo sin
intrínsecamente activo.
Tal vez resulte un poco chocante hablar de intercambio de componentes materiales en
sistemas abiertos como la personalidad, la familia o la sociedad. Von Bertalanffy, sin negar,
afirmar o analizar explícitamente esta cuestión, al hablar de sistemas abiertos en términos de
intercambio de materia y energía está tomando mas bien como modelo al sistema biológico, al
organismo viviente, mientras que cuando se refiere a sistemas psicológicos y sociales pone
mas bien en énfasis en su condición de sistema intrínsecamente activo y autónomo, o en
algunas de sus otras propiedades como la organización, el orden creciente, la equifinalidad, la
tendencia al estado uniforme, etc.
iii. Características de los sistemas abiertos y comparación con los sistemas cerrados.
Enumeraremos estas características en forma escueta, porque las explicaciones
correspondientes podrán encontrarse en los artículos respectivos, a los que aquí se hace
referencia.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
178
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
a.
Los sistemas abiertos tienden a evolucionar hacia un estado uniforme, y los sistemas
cerrados hacia un estado de equilibrio (ver Estado uniforme, donde se detallan varias
otras características derivables de este tipo de estado).
b.
Los sistemas abiertos tienen entropía negativa, es decir, 'pueden' evolucionar hacia
estados de mayor organización y complejidad, mientras que los sistemas cerrados
exhiben entropía positiva, o sea 'deben' evolucionar hacia estados de menor organización
y complejidad. La diferencia entre 'deben' y 'pueden' alude la hecho de que el sistema
abierto puede también tener entropía positiva, y de hecho esta es su tendencia final,
desde que su destino es la muerte. Los sistemas vivos, si se mantienen como tales es
porque logran evitar el aumento de entropía (positiva) y hasta pueden desarrollarse hacia
estados de orden y organización crecientes. (Para mayores detalles, ver Entropía).
c.
Si bien hay ejemplos de sistemas abiertos y cerrados, como un ser vivo y un átomo,
respectivamente, ello no debe hacernos pensar que nada tienen que ver uno con el otro,
puesto que un ser vivo (sistema abierto) contiene dentro de sí átomos (sistemas
cerrados). En efecto, algunos sub-sistemas de los sistemas abiertos son cerrados, pero
ello no alcanza para caracterizar a los primeros como cerrados, porque el todo es más
que la suma de partes.
d.
En cuanto a la finalidad todos los sistemas abiertos, en oposición a los sistemas
cerrados, exhiben ciertos tipos de finalidad como la equifinalidad y, particularmente el
hombre, la intencionalidad (ver Finalidad, Equifinalidad e Intencionalidad). Los
sistemas cerrados poseen exclusivamente otros tipos de finalidad.
e.
Los sistemas abiertos son estudiados por la termodinámica de los procesos irreversibles,
y los sistemas cerrados los estudia la termodinámica clásica, o termodinámica de los
procesos reversibles (ver Estado uniforme, punto 2, apartado 6). Hemos ya indicado que
la termodinámica irreversible es una extensión de la última de manera de poder incluir los
sistemas abiertos de la biología, la psicología, la historia, etc.
71. SISTEMA CERRADO
Es aquel sistema donde ni entra ni sale de él materia, y en este sentido se consideran
aislados del medio circundante. Son sistemas que tienden hacia un estado de equilibrio,
que exhiben entropía positiva, y que se caracterizan por reacciones reversibles. Ejemplo
típico: un recipiente cerrado donde se mezclan sustancias que, al reaccionar, llegan
finalmente a un estado de equilibrio, según la ley de acción de masas.
Los estudios clásicos de física y química estudiaban los sistemas cerrados, y sólo en décadas
recientes se incorporaron los estudios de sistemas abiertos.
Von Bertalanffy considera los sistemas cerrados en relación con la ausencia de intercambio de
materia. No obstante esto, debemos tener en cuenta que algunos sistemas cerrados son 'abiertos'
a otras influencias como por ejemplo a la energía radiante (que puede ingresar al sistema sin un
sustrato material) o a la información (como los sistemas retroalimentados). La definición de un
sistema cerrado pasa entonces por especificar qué cosas puede intercambiar y qué cosas no. En
el texto de von Bertalanffy se considera predominantemente el intercambio de materia.
En rigor, sistemas cerrados ciento por ciento no existen, salvo que se considere como tal al
universo en su conjunto. Si se habla de sistemas cerrados a una escala mucho menor, como por
ejemplo una reacción química que sigue la ley de acción de masas, es por razones más bien
convencionales.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
179
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Los sistemas cerrados presentan una serie de características, que el lector podrá consultar en el
artículo Sistema Abierto, apartado 3.
72. SISTEMA QUÍMICO
La fisicoquímica estudia fundamentalmente sistemas cerrados, como los sistemas regidos
por la ley de acción de masas, y apenas si considera los sistemas químicos abiertos, en la
química tecnológica. Sin embargo, otros sistemas químicos abiertos, como los organismos,
resultan de importancia fundamental para el biólogo. Los sistemas químicos cerrados y
abiertos presentan algunas semejanzas y diferencias.
i.
Sistemas químicos cerrados. Un sistema químico cerrado se caracteriza por estar
constituido siempre por los mismos componentes, que reaccionan entre sí una y otra vez de
acuerdo a la ley de acción de masas, es decir, unos se transforman en otros hasta llegar a un
equilibrio donde la relación entre las concentraciones de ambos componentes alcanza un
cierto valor.
Hay dos razones en esta preferencia por el estudio de los sistemas cerrados: una razón
teórica (la físico-química se interesa más que nada por estudiar lo que ocurre en sistemas
aislados material y energéticamente del entorno), y una razón práctica (es más difícil
establecer técnicamente sistemas abiertos).
Von Bertalanffy cita la ley de acción de masas como un ejemplo de funcionamiento de
sistemas cerrados en química: a temperatura fija, en el equilibrio de una reacción reversible,
la relación entre el producto de las concentraciones de las sustancias formadas y el de las
sustancias reaccionantes, es constante.
El enunciado anterior es una de las formas de expresar esta ley química, establecida en 1867
por Guldberg y Waage. Si colocamos en un recipiente las sustancias reaccionantes A y B,
estas reaccionan formando los productos C y D. A su vez, C y D reaccionan formando
nuevamente A y B, y así sucesivamente:
Se trata entonces de una reacción reversible, lo que queda indicado por la doble flecha. Las
sustancias seguirán reaccionando en uno y otro sentido hasta llegar a un estado de equilibrio
donde las velocidades en uno y otro sentido se igualan. Esto ocurre, dice la ley de acción de
masas, cuando las sustancias involucradas en la reacción adquieren una determinada
concentración.
La ley de acción de masas puede ser descripta a partir de un determinado sistema de
ecuaciones. Este último, dado sus carácter matemático abstracto, puede ser también aplicado
a otros campos, como la demografía, la cinética de los procesos celulares y la teoría de la
competencia dentro de un organismo.
ii.
Sistemas químicos abiertos. Un sistema químico abierto se caracteriza porque los
componentes no son siempre los mismos: continuamente está ingresando la sustancia A y
eliminándose la sustancia B (recambio permanente). Ejemplos típicos de sistemas químicos
abiertos los encontramos en la química industrial (en la fermentación continua, en la
producción de ácido acético, etc.) y en la biología (el organismo viviente es, en sí mismo, un
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
180
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
sistema químico abierto en tanto intercambia permanentemente materia y energía con el
medio).
iii. Semejanzas y diferencias. Los sistemas químicos cerrados y los abiertos exhiben cierta
semejanza, en el sentido que ambos procuran mantener constante ciertos valores, como las
relaciones de concentración. En ninguno de los dos hay un reposo químico, ni siquiera en el
sistema cerrado: el sistema químico cerrado no está en reposo, pues continuamente hay
reacciones entre componentes, aunque si hay un estado de equilibrio, donde los
componentes siguen reaccionando pero manteniendo constante determinada concentración.
Sin embargo, en otros aspectos igualmente esenciales, ambos tipos de sistema químico
presentan diferencias, a saber:
a.
Los sistemas cerrados alcanzan un equilibrio 'auténtico', y los sistemas abiertos un
equilibrio estacionario (o también cuasi-uniforme), también llamado estado uniforme. Más
específicamente:
b.
Los equilibrios en sistemas químicos cerrados y abiertos de caracterizan por la
composición constante: en el momento del equilibrio siempre hay las mismas
concentraciones de sustancias. La diferencia está en que en el sistema cerrado las
sustancias son siempre las mismas, porque ni se reciben del exterior ni se eliminan hacia
él. En el sistema químico abierto, en cambio, hay un fluir continuo de las sustancias
desde y hacia el exterior. En la reacción vista, por ejemplo, si la concebimos como
sistema abierto la sustancia A es continuamente recibida desde afuera y la sustancia C
continuamente eliminada, pero sus concentraciones tienden a permanecer siempre
constantes, al igual que en un sistema cerrado. Un ejemplo demográfico puede ser este:
un país tiene una cantidad de habitantes siempre igual, pero los habitantes mismos van
cambiando (unos nacen, entran al sistema, otros mueren y salen del sistema). En suma:
En los sistemas cerrados no hay un recambio permanente de sustancias, lo que sí
sucede en los sistemas abiertos.
c.
"Los equilibrios químicos en sistemas cerrados se basan en reacciones reversibles. Por el
contrario, en los sistemas abiertos el estado uniforme no es reversible". En los sistemas
abiertos hay numerosas reacciones donde la sustancia A se transforma en la sustancia
B, pero ésta no vuelve a transformarse en A.
d.
Un sistema cerrado 'debe' alcanzar un estado de equilibrio sí o sí, independiente del
tiempo, pero en un sistema químico abierto en cambio 'puede' alcanzar un estado
uniforme, también independiente del tiempo. Este 'puede' significa que el sistema abierto
alcanzaría su estado uniforme si cesaran las influencias del entorno.
e.
Un sistema cerrado en equilibrio no requiere energía para su preservación, ni puede
obtenerse energía de él (téngase en cuenta que en un sistema cerrado, por definición, no
puede entrar ni salir energía). Un sistema abierto puede en cambio producir energía
(trabajo), pero siempre que no alcance efectivamente un equilibrio típico de sistema
cerrado, sino que 'tienda' a alcanzarlo. Por ello las reacciones químicas del organismo
vivo son sistemas abiertos, es decir, están dispuestos de forma de mantener un fluír
constante de agua y elementos químicos cuyo contenido energético pueda transformarse
en trabajo, y poder ser usado por el organismo.
Para decirlo en otras palabras: los sistemas cerrados 'deben' tender hacia un estado de
equilibrio, mientras que los sistemas abiertos 'pueden' tender, dadas ciertas condiciones,
a alcanzar un estado uniforme. Por ejemplo, un depósito cerrado tiene mucha energía
potencial, pero no sirve para producir trabajo, como podría ser para impulsar un motor. En
el sistema químico abierto, en cambio, al ingresar continuamente materia y energía, una
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
181
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
parte de esta puede ser utilizada para producir trabajo (por ejemplo para desplazar un
objeto mediante la fuerza muscular). Estos sistemas abiertos se mantienen siempre
alejados del estado de equilibrio típico del sistema cerrado (es decir mantienen intacta su
capacidad de producir trabajo) gracias al continua suministro de energía del medio. El
estado uniforme tiene precisamente esa capacidad de producir trabajo, mientras que el
estado de equilibrio de los sistemas cerrados se caracteriza, al revés, por un mínimo de
energía libre.
73. SOCIOLOGÍA
Ciencia que se ocupa del estudio de grupos o sistemas humanos, desde los más reducidos
como la familia, hasta los más grandes como las naciones. El moderno enfoque de
sistemas va introduciéndose cada vez más en la sociología, a través de conceptos como
sistema general, retroalimentación, información, comunicación, etc.
i.
Sociología e historia. Ambas disciplinas estudian las sociedades humanas, con la diferencia
de que la historia la estudia a través del tiempo, en su devenir, y la sociología lo hace sobre el
presente analizando cómo es la sociedad hoy. El primero es un estudio longitudinal, y el
segundo es un estudio transversal de la sociedad.
ii.
Objeto de estudio de la sociología. Más específicamente, la sociología estudia los sistemas
humanos, desde los más reducidos como la familia o el grupo de trabajo, hasta las naciones,
bloques de poder y las relaciones internacionales. Entre ambos extremos hay también una
gama de organizaciones tanto formales como informales, también estudiadas por la
sociología. Aunque tradicionalmente la sociología estudia organizaciones informales,
últimamente ha incorporado también el estudio de organizaciones formales, como las
empresas, el ejército o las organizaciones confesionales, todas estructuras escrupulosamente
instituídas con fines determinados. Tanto las organizaciones informales como las formales
han sido estudiadas, sobre todo en los últimos tiempos, desde un punto de vista sistémico.
iii. Enfoque sistémico en organizaciones informales. La reciente teoría sociológica busca en
gran medida definir el 'sistema' sociocultural y en discutir el funcionalismo, vale decir, la
consideración de los fenómenos sociales con respecto al 'todo' al que sirven. A grandes
rasgos se trata de un enfoque similar al de la TGS, con la única diferencia de que ciertas
teorías funcionalistas (por ejemplo la de Parsons) insiste demasiado en el mantenimiento del
equilibrio, el ajuste, la homeostasis y la estabilidad institucional, mientras que el enfoque
sistémico procura ceder el mismo espacio teórico también a los procesos de cambio, al
desarrollo dirigido desde dentro del seno social, a los conflictos, etc.
Como ejemplo de aplicación de la TGS a la sociedad humana, von Bertalanffy cita los análisis
de Boulding, quien elabora un modelo general de organización regida por las llamadas leyes
férreas, válidas para cualquier organización social. Ejemplos:
a.
Ley de Malthus: el incremento de la población supera por regla general al de los
recursos para alimentarla;
b.
Ley de las dimensiones óptimas: mientras más crece una organización, más se alarga
el camino para la comunicación, lo cual a su vez actúa como factor limitante, no
permitiendo a la organización crecer más allá de ciertas dimensiones críticas:
c.
Ley de inestabilidad: muchas organizaciones no están en equilibrio estable, sino que
exhiben fluctuaciones cíclicas resultantes de la interacción entre sub-sistemas.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
182
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Existen aún otras muchas leyes similares, como las leyes de Volterra y la ley del oligopolio,
etc., pero todas están enunciadas en el marco teórico de un enfoque sistémico de los estudios
sociológicos.
iv. Enfoque sistémico en organizaciones formales. Las teorías de las organizaciones formales
encaran su estudio bajo la premisa de que el único modo significativo de estudiar la
organización es estudiarla como sistema de variables mutuamente dependientes, lo cual
implica nuevamente un acercamiento al enfoque de la TGS.
Un ejemplo podría ser el estudio funcionalista de una empresa de negocios, donde se trata de
examinar las interacciones entre sus elementos en función al todo. Un análisis de sistemas de
este tipo tendrá en cuenta por ejemplo hombres, máquinas, edificios, entradas de materia
prima, salida de productos, valores monetarios, buena voluntad y otros imponderables, dando
diagnósticos sobre la situación de la empresa y sugiriendo medidas prácticas de intervención.
En general, la TGS ha ejercido considerable influencia sobre el funcionalismo sociológico de
finales del Siglo XX en general y muy especialmente en la nueva conceptualización de mundo
actual: la Globalización.
74. SUMATIVIDAD
A. En general, característica de los sistemas según la cual sus elementos pueden
considerarse independientes unos de otros y por tanto, su suma total es igual a la suma de
sus elementos componentes.
B. En particular, la sumatividad es una característica de algunos sistemas matemáticos
(sumatividad matemática), pero también es una característica de algunos sistemas físicos
y, hasta cierto punto, de los organismos vivos (sumatividad física).
i.
Características sumativas y constitutivas. Un sistema está constituido ante todo por
elementos. A su vez en los elementos podemos atender tres cosas:
a.
su número (cantidad de elementos del sistema),
b.
sus especies (tipos de elementos del sistema), y
c.
sus relaciones (cómo están vinculados los elementos dentro del sistema).
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
183
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Siguiendo el esquema adjunto, podemos apreciar que, en cuanto al número, los sistemas A y
B son distintos, porque el primero tiene cuatro y el segundo cinco. En cuanto a las especies,
ambos sistemas también son distintos porque en el sistema B aparece un elemento de tipo
diferente, aún cuando ambos tengan el mismo número de elementos. Finalmente en cuanto a
las relaciones, los sistemas A y B también son distintos porque, aún cuando tengan el mismo
número y todos los elementos sean de la misma especie, sus relaciones son diferentes: en el
sistema A el primero y el último elemento no se relacionan directamente, cosa que sí ocurre
en el sistema B.
En los casos 1 y 2, el complejo puede ser comprendido como suma de elementos
considerados aisladamente; pero en el caso 3 no sólo hay que conocer los elementos, sino
también las relaciones entre ellos. Características del primer tipo se llaman 'sumativas', y
del segundo tipo 'constitutivas'.
Las características sumativas de un elemento, entonces, son aquellas que son iguales tanto
dentro como fuera del sistema, con lo cual el comportamiento de éste resulta de la simple
suma de las características o comportamientos de los elementos. Por ejemplo el peso de un
juguete o de un átomo, que resulta de la simple suma de los pesos parciales de sus partes
componentes.
Las características constitutivas son las que dependen de las relaciones específicas dadas
dentro del sistema, como el caso de las características químicas. Un ejemplo es la isomería:
los isómeros son compuestos con iguales elementos (iso = igual, mero = parte), pero
relacionados de distinta manera según el isómero considerado, vale decir, los átomos
presentan diferentes disposiciones dentro de la molécula. Las características constitutivas no
son explicables a partir de las características de las partes aisladas, y por lo tanto aparecen
como 'nuevas' o 'emergentes'. Sin embargo, si conocemos el total de partes contenidas en un
sistema y la relación que hay entre ellas, el comportamiento del sistema es derivable a partir
del comportamiento de las partes. También puede decirse: si bien es concebible la
composición gradual de una suma, un sistema, como total de partes interrelacionadas, tiene
que ser concebido como compuesto instantáneamente.
Si bien las características sumativas han sido privilegiadas por el paradigma mecanicista y las
constitutivas por el paradigma sistémico, interesarán también para este último las
características sumativas por encontrarse presentes también en los sistemas. En particular,
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
184
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
los principios de sumatividad son aplicables al organismo hasta cierto punto, como cuando
consideramos que la palpitación de un corazón ocurre del mismo modo tanto si lo
consideramos dentro del organismo (dentro del sistema), como aislado, experimentalmente o
no, fuera de él.
ii.
La sumatividad como propiedad formal de los sistemas. Entre las propiedades de los
sistemas encontramos la totalidad y la sumatividad (ver Sistema). La totalidad está
estrechamente vinculada con las características constitutivas, pero aquí explicaremos
brevemente la sumatividad, vinculada con las características sumativas.
Desde esta perspectiva, diremos entonces que la sumatividad es una propiedad formal de los
sistemas según la cual sus elementos pueden ser considerados independientemente unos de
otros, es decir, su suma total es igual a la suma de sus elementos componentes. La
sumatividad aparece por ejemplo en sistemas matemáticos (sumatividad matemática o en
sentido matemático y en los sistemas reales (sumatividad física o independencia).
Nos interesa especialmente la sumatividad según este segundo planteo, y en tal sentido la
sumatividad resulta ser una propiedad formal de los sistemas parciales [es decir, subsistemas] altamente 'mecanizados'. Esto significa lo siguiente: un organismo vivo es un
sistema total donde tienen gran importancia las características constitutivas. Sin embargo, y
como consecuencia de los procesos de diferenciación y segregación, a medida que dicho
sistema evoluciona sus partes o conjuntos de partes van aislándose progresivamente entre sí
(aunque no totalmente) y constituyendo sistemas parciales o sub-sistemas donde sí pasan a
un primer plano las simples características sumativas, es decir, estos sub-sistemas se
comportarán del mismo modo tanto dentro del sistema como fuera de él, por encontrarse
altamente 'mecanizados'. Es el ejemplo del corazón que dimos en un párrafo anterior en este
mismo artículo.
Para von Bertalanffy, las propiedades constitutivas son muy importantes en el contexto de los
sistemas abiertos como los seres vivos, y en este sentido critica la posición de Bertrand
Russell según la cual hasta la fecha, no hay evidencias que en los fenómenos biológicos
existan propiedades constitutivas y, por ende, sólo debe admitirse como hipótesis de trabajo
la hipótesis de las propiedades sumativas, en tanto no aparezcan elementos de juicio en
contra de ella.
75. TECNOLOGÍA
En general, la tecnología es la aplicación de los conocimientos científicos a la realidad a los
efectos de influir sobre ella para transformarla. Específicamente, la Tecnología de los
sistemas se ocupa de la aplicación de los conocimientos obtenidos mediante la Ciencia de
los sistemas.
La ciencia abarca dos grandes campos: la ciencia pura y la ciencia aplicada, o tecnología. La
primera elabora conocimiento, la segunda aplica ese conocimiento a la realidad con algún fin
utilitario. Por ejemplo, la física es ciencia pura, y la ingeniería es un ejemplo de la correspondiente
tecnología o ciencia aplicada. Otro tanto ocurre por ejemplo con la química y la merceología, o con
la biología y la medicina.
La Tecnología de los sistemas es la parte de la TGS en sentido amplio que se ocupa de los
problemas que surgen en la tecnología y la sociedad modernas y que comprenden tanto el
hardware de las computadoras y máquinas autorreguladas, como del software de los nuevos
adelantos y disciplinas teóricas. Es, entonces, la aplicación práctica de los conocimientos acerca
de los sistemas.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
185
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
El desarrollo de la maquinaria autorregulada es un ejemplo de tecnología física, pero, en la
medida en que podamos conocer los principios que rigen los sistemas psicológicos (por ejemplo la
personalidad) y los sistemas sociales (por ejemplo la sociedad), estaremos en condiciones de
aplicarlos para evitar la deshumanización del hombre, y habremos empezado a desarrollar una
tecnología psicológica y una tecnología sociológica. Tal deshumanización se podría producir,
según von Bertalanffy, por el contraste entre un desarrollo excesivo de la tecnología física y un
vacío de conocimientos de la naturaleza humana a nivel individual y social.
76. TEORÍA
Las teorías son sistemas hipotético-deductivos o esquemas conceptuales que:
A. orientan la observación científica, y
B. constituyen una importante meta de la ciencia en su búsqueda de explicaciones cada
vez más satisfactorias de la realidad.
Empecemos por aclarar que, en general, una teoría científica es un sistema de enunciados
ordenados jerárquicamente desde los más generales a los menos generales, donde los últimos se
deducen de los primeros, y donde todos están referidos a un determinado sector de la realidad.
Casi todos estos enunciados son hipótesis, y de aquí que una teoría sea en última instancia un
sistema hipotético-deductivo. Por ejemplo, la TGS, la teoría psicoanalítica, la teoría de la
probabilidad, etc.
En la perspectiva de von Bertalanffy, la ciencia busca siempre construír teorías para explicar cada
vez mejor la realidad. No obstante, queda abierta aún la cuestión de si algún día se llegará a
establecer un sistema hipotético-deductivo que abarque todas las ciencias, de la física a la
biología y la sociología. Por ahora, sólo estamos en condiciones de establecer leyes específicas
para los distintos niveles o estratos de la realidad, y de ahí encontramos una correspodencia o
isomorfismo de leyes y esquemas conceptuales en diferentes campos que sustentan la unidad de
la ciencia.
Para von Bertalanffy es esencial no considerar a las teorías como sistemas cerrados y definitivos.
A partir de allí, la discusión acerca de si una teoría debe o no estar enunciada axiomáticamente o
bien formulada laxamente como una hipótesis de trabajo, puede pasar a un segundo plano
Suele oponerse observación y teoría: por un lado estarían los 'hechos observados' y por el otro la
'mera teoría' como producto de alguna especulación sospechosa. Para von Bertalanffy tal
oposición no existe, en cuanto una presupone la otra. Por ejemplo, los datos supuestamente
brutos o incontaminados de la observación están siempre impregados de teoría (ver también
Observación), y además, ésta última se construye como un intento por resolver los problemas
detectados mediante la observación.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
186
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
77. TEORIA GENERAL DE LOS SISTEMAS (TGS)
Doctrina que se ocupa de la formulación y derivación de principios aplicables a los
sistemas en general, sin importar la naturaleza de sus componentes ni las fuerzas que los
gobiernan. Representa un amplio punto de vista que trasciende grandemente los problemas
y requerimientos tecnológicos, una reorientación que, según von Bertalanffy, se ha vuelto
necesaria en la ciencia en general, desde la física y la biología hasta las ciencias del
comportamiento, las ciencias sociales y la filosofía.
i.
Qué es la TGS. La TGS busca aquellos principios que sean aplicables a los sistemas en
general, sin importar que sean de naturaleza física, biológica o sociológica. A partir de aquí y
definiendo bien el sistema, hallaremos que existen modelos, principios y leyes que se aplican
a sistemas generalizados, o sistemas en general, sin importar su particular género, elementos
y 'fuerzas' participantes. Consecuencia de la existencia de propiedades generales de sistemas
es la aparición de similaridades estructurales (ver Isomorfismo) en diferentes campos, es
decir, hay correspondencias entre los principios que rigen el comportamiento de entidades
intrínsecamente muy distintas. Conceptos, modelos y leyes parecidos surgen una y otra vez
en campo muy diversos, independientemente y fundándose en hechos del todo distintos.
Estas correspondencias o isomorfismos constituyen el dominio de la TGS, y de aquí que su
utilidad reside precisamente en proporcionar modelos utilizables y transferibles entre
diferentes campos evitando, al mismo tiempo, vagas analogías que a menudo han
perjudicado el progreso en dichos campos.
La denominación 'teoría general de los sistemas' y su respectivo programa fueron introducidos
por Ludwig von Bertalanffy, aún cuando no pocos investigadores de varios campos habían
llegado ya a conclusiones y enfoques similares.
ii.
Qué NO es la TGS. Diversos críticos han cuestionado la TGS desde varios ángulos. Al
respecto, von Bertalanffy contesta estas críticas indicando lo que NO es la TGS.
a.
La TGS no es una simple o trivial aplicación de la matemática conocida a diferentes
ámbitos de la realidad. La aparición de problemas novedosos vinculados a nociones
como totalidad, organización, teleología, etc., requieren, en realidad, nuevos modos de
pensamiento matemático. En forma elaborada, la TGS sería una disciplina lógicomatemática, puramente formal en sí mísma pero aplicable a las varias ciencias empíricas.
b.
La TGS no se ocupa de trazar simples analogías entre diferentes fenómenos de la
realidad. Las analogías superficiales son engañosas, como por ejemplo pretender
comparar un organismo viviente con un Estado o nación. La TGS no busca analogías
sino isomorfismos, que son correspondencias más profundas que permiten afirmar que
las realidades comparadas tienen en común el hecho de constituír sistemas.
c.
La TGS no es una concepción que carezca de valor explicativo. Von Bertalanffy
plantea que hay grados y grados en la explicación científica, y que en ciertos campos
complejos y teóricamente poco desarrollados debemos conformarnos con 'explicaciones
en principio' (ver Explicación), que siempre son mejores a la falta total de explicación.
iii. Metas de la TGS. Sus metas principales pueden resumirse del siguiente modo:
1.
Hay una tendencia general hacia la integración en las varias ciencias, naturales y
sociales.
2.
Tal integración parece girar en torno a una TGS.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
187
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
3.
Tal teoría pudiera ser un recurso importante para buscar una teoría exacta en los campos
no físicos de la ciencia.
4.
Al elaborar principios unificadores que corren 'verticalmente' por el universo de las
ciencias, esta teoría nos acerca a la meta de la unidad de la ciencia.
5.
Esto puede conducir a una integración, que hace mucha falta, en la instrucción científica.
En última instancia, según se ve, la TGS busca la unificación de todas las ciencias, pero no a
partir de un reduccionismo (reducir todas las ciencias a la física), sino a partir un
perspectivismo (el principio unificador es la existencia de sistemas en todos los niveles, es
decir, de principios comunes o uniformidades estructuraless denominadas isomorfismos, en
diferentes ámbitos científicos).
iv. Motivos que llevaron a postular una TGS. Von Bertalanffy resume estos motivos en seis
puntos, que son un tanto redundantes:
v.
1.
Los mismos adelantos en la física mostraron que los átomos, partículas subatómicas, etc,
no eran piedras metafísicas de construcción del universo sino modelos conceptuales
harto complicados, inventados para dar razón de lo observado. Por otro lado, los avances
en biología, ciencias del comportamiento y ciencias sociales revelaron conexiones con
estos nuevos campos, con lo cual se impuso una 'generalización de los conceptos
científicos', más allá de la física clásica, plasmada en una TGS.
2.
La aparición de nuevos modelos en biología, ciencias del comportamiento, sociología,
etc., que, retomando aspectos clásicamente considerados ilusorios o metafísicos como la
interacción multivariable, la organización, el automantenimiento, la directividad, etc.,
obligó a la introducción de nuevas categorías en el pensamiento y la investigación
científica.
3.
En la física y la biología modernas salen sin cesar al paso problemas tocantes a la
'complejidad organizada', interacciones entre muchas (pero no infinitas) variables, que
requieren nuevas herramientas conceptuales.
4.
Cada ciencia tiene sus propios instrumentos conceptuales para explicar y predecir sus
fenómenos correspondientes, no obstante lo cual ellas no son compartimientos estancos
e independientes, habiendo una cierta continuidad, por ejemplo, entre la física y la
biología, y entre ésta y las ciencias del comportamiento y de la sociedad.
5.
Hace falta expandir la ciencia para vérselas con los nuevos fenómenos biológicos,
comportamentales y sociales, para lo cual hay que introducir nuevos modelos
conceptuales.
6.
Estas construcciones teóricas ampliadas y generalizadas son interdisciplinarias:
trascienden el marco de una determinada ciencia y son aplicables a fenómenos de
distintos campos, lo que conduce al isomorfismo de modelos.
Métodos de la TGS. Hay dos métodos generales posibles en la investigación general de los
sistemas: el método empírico-intuitivo y el método deductivo.
a.
Método empírico-intuitivo. Parte de la observación de diversos fenómenos del mundo,
examina los varios sistemas encontrados, y acto seguido ofrece enunciados acerca de
las regularidades que se han hallado válidas. Aunque no tiene mucha elegancia
matemática ni vigor deductivo, este procedimiento tiene la ventaja de mantenerse muy
cerca de la realidad y de ser fácil de ilustrar y hasta de verificar mediante ejemplos
tomados de distintas ciencias.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
188
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Este método lo utilizó por ejemplo el mismo von Bertalanffy, cuando investigando en
biología encontró ciertos principios básicos como totalidad, suma, centralización,
finalidad, competencia, y varios otros que han sido luego utilizados para la definición
general de sistema.
b.
Método deductivo. En lugar de estudiar un sistema, después otro, y luego otro más, etc.,
se empieza considerando el conjunto de todos los sistemas concebibles, y se reduce el
conjunto a dimensiones más razonables mediante ciertos conceptos fundamentales. Un
problema de este método es cómo saber si los términos fundamentales del punto de
partida están o no correctamente elegidos, vale decir, si serán lo suficientemente
generales como para incluir en ellos todos los fenómenos observados.
Ashby fue un autor que siguió este segundo método. Por ejemplo, comenzó
preguntándose por el 'concepto fundamental de máquina' y lo describe en términos de
ecuaciones diferenciales simultáneas. El método tiene su limitación: el concepto de
máquina de Ashby no resultó lo suficientemente general, pues no era aplicable a muchos
problemas de organización (cosa que el mismo Ashby reconoció), y por lo tanto no
alcanzaba la generalidad del concepto de 'sistema'. Adujo simplemente que había
escogido ese modelo con propósitos de ilustración.
Von Bertalanffy indica que ambos métodos son importantes: como en cualquier otro
campo científico, la TGS tendrá que desarrollarse por interacción de procedimientos
empíricos, intuitivos y deductivos.
vi. Clasificación de la TGS. Von Bertalanffy empieza discriminando una TGS en sentido
estricto, y una TGS en sentido amplio. La primera es también designada como TGS en
sentido técnico o también 'teoría clásica de los sistemas'.
a.
En sentido estricto, la TGS procura derivar, partiendo de una definición general de
'sistema' como complejo de componentes interactuantes, conceptos característicos de
totalidades organizadas, tales como interacción, suma, mecanización, centralización,
competencia, finalidad, etc., y aplicarlos entonces a fenómenos concretos. Los principios
generales podrán ser aplicados a sistemas en general o también a subclases definidas de
ellos (por ejemplo sistemas cerrados y abiertos). En razón de la generalidad de tal
descripción, puede afirmarse que algunas propiedades formales así encontradas serán
aplicables a cualquier entidad en tanto sistema, aún cuando su naturaleza específica se
desconozca o no se investigue. La TGS en sentido técnico sigue entonces un camino
deductivo, y más concretamente intenta caracterizar el sistema desde el punto de vista
matemático.
b.
En sentido amplio, que es el adoptado por von Bertalanffy, la TGS se define como
hemos indicado al comienzo de este artículo. Surgió debido al escaso alcance de la TGS
en sentido estricto, la cual, al describir los sistemas en términos matemáticos, dejaba
fuera muchos otros problemas de sistemas que no podían ni pueden por el momento ser
descriptos en dichos términos. La TGS en sentido amplio resulta ser así una expansión
de la TGS en sentido técnico, pero debe tenerse presente que también se constituyó
como una generalización de la llamada Teoría de los Sistemas Abiertos, surgida de la
observación de esta clase de sistemas.
La TGS en sentido amplio (designada en este trabajo simplemente como TGS),
comprende las siguientes subdivisiones:
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
189
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Ciencia de los Sistemas
Tecnología de los sistemas
SENTIDO AMPLIO
TGS
Ontología de sistemas
Filosofía de los sistemas
Epistemología de sistemas
'Axiología' de los sistemas
SENTIDO TÉCNICO O ESTRICTO
(Teoría clásica de los sistemas)
En su sentido amplio, la TGS comprende tres aspectos principales:
1.
Ciencia de los Sistemas, o exploración y explicación científicas de los 'sistemas' de
las diversas ciencias, con la TGS como doctrina de principios aplicables a todos los
sistemas o a sub-clases definidas de ellos (ver Ciencia de los sistemas).
2.
Tecnología de los Sistemas, que aborda los problemas que surgen en la tecnología
y la sociedad modernas y que comprenden tanto el hardware de computadoras,
como el software de los nuevos adelantos y disciplinas teóricas (ver Tecnología).
3.
Filosofía de los Sistemas, o reorientación del pensamiento y la visión del mundo
resultante de la introducción del 'sistema' como nuevo paradigma científico (ver
Filosofía de los sistemas).
Desde esta perspectiva, la Filosofía de los Sistemas abarca la Ontología de sistemas,
que indaga qué es un sistema y qué tipos hay (ver Ontología de sistemas); la
Epistemología de sistemas que, por oposición a la epistemología del positivismo lógico,
propone una epistemología perspectivista (ver Epistemología de Sistemas y
Perspectivismo); y la 'Axiología' de los sistemas, referida al aspecto humanístico de la
TGS a partir de la noción de 'valor'. La denominación 'axiología' no es de von Bertalanffy,
y la utilizamos aquí en razón de su significado como 'teoría de los valores' (ver Valor).
vii. Historia de la TGS. La TGS tiene una larga historia. Una extensa serie de ilustres
pensadores utilizaron la idea de sistema, aunque no hayan utilizado precisamente ese
término. Entre ellos están Leibniz, Nicolás de Cusa, Paracelso, Vico, Hegel, Marx e incluso
algunos literatos como Hermann Hesse.
En la década 1920-1930 se destacan los trabajos independientes entre sí de Köhler y de
Lotka, que representan los primeros esbozos de una TGS. Sin embargo, la necesidad y
factibilidad de un enfoque de sistemas no fue evidente hasta hace poco, al tomarse
conciencia de la insuficiencia del modelo mecanicista.
Hacia 1925, von Bertalanffy se había percatado de la insuficiencia de este modelo en la
biología, y propuso en esta disciplina la adopción de un enfoque organísmico que hiciera
hincapié en la consideración del organismo como un todo o sistema y viese el objetivo
principal de la biología en el descubrimiento de los principios de su organización. Hubo
indudablemente precursores como Claude Bernard, y desarrollos paralelos como los de
Whitehead y Cannon. La aparición de ideas similares en distintos campos fue sintomática de
la nueva tendencia, que, sin embargo, requeriría tiempo para ser aceptada.
En conexión con sus trabajos experimentales sobre metabolismo y crecimiento por una parte,
y su esfuerzo por concretar el programa organísmico por la otra, von Bertalanffy adelantó su
teoría de los sistemas abiertos sobre la base que el organismo vivo era uno de ellos. Para
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
190
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
incluirlos, fue necesaria la expansión de la física acostumbrada, lo que más tarde se concretó
cuando por ejemplo la termodinámica clásica se expandió como termodinámica irreversible. Al
mismo tiempo, se vio que podía construirse un modelo matemático general que incluyese la
consideración de estos nuevos problemas como los de orden, organización, totalidad,
teleología, etc. Tal fue la idea de la 'TGS'.
La propuesta de una TGS fue recibida como fantástica o presuntuosa, y llovieron las críticas
(ver en este mismo artículo "Qué NO es la TGS"). Finalmente, en 1954 cuajó el proyecto de
una sociedad dedicada a la TGS que se llamó Sociedad para la Investigación General de
Sistemas, y hoy está afiliada a la AAAS (American Association for de Advancement of
Science), teniendo varios centros en EE.UU. y Europa. Sus funciones principales son:
a.
investigar el isomorfismo de conceptos, leyes y modelos en varios campos, y fomentar
provechosas transferencias de un campo a otro;
b.
estimular el desarrollo de modelos teóricos adecuados en los campos que carecen de
ellos;
c.
minimizar la repetición de esfuerzo teórico en diferentes campos;
d.
promover la unidad de la ciencia mejorando la comunicación entre especialistas.
Mientras tanto hubo otros progresos: surgen la cibernética de Wiener (1948), la teoría de la
información de Shannon y Weaver (1949) y la teoría de los juegos de von Neumann y
Morgenstern (1947). Wiener, por ejemplo, llevó los conceptos de cibernética,
retroalimentación e información más allá de la tecnología, generalizándolos en los dominios
biológico y social.
Sin embargo, no debe reducirse la TGS a la cibernética. Esta última es sólo una parte de la
primera, pues los sistemas cibernéticos son un caso especial de los sistemas que exhiben
autorregulación. La cibernética, junto con la teoría de la información, la teoría de los juegos y
otras teorías constituyen diferentes 'enfoques' dentro de la TGS (ver Enfoques de sistemas).
Tampoco debe pensarse que la TGS surgió para resolver problemas tecnológicos en la
segunda guerra mundial pues, como quedó indicado, sus orígenes son bastante anteriores.
La TGS tiene aún importantes problemas para resolver, como por ejemplo la formulación de
una teoría general de las ecuaciones diferenciales no lineales, de los estados uniformes y los
fenómenos rítmicos, un principio generalizado de mínima acción, la definición termodinámica
de los estados uniformes, etc.
78. TERMODINÁMICA IRREVERSIBLE
Generalización de la termodinámica clásica que permite incluir la consideración de los
procesos irreversibles característicos de los sistemas abiertos y del estado uniforme. Tal
expansión teórica vino a resolver la aparente contradicción entre la tendencia al desorden
de los sistemas físicos, y la tendencia al orden de los sistemas vivientes.
i.
Concepto. La teoría termodinámica de los sistemas abiertos es la llamada termodinámica
irreversible, y llegó a ser una importante generalización de la teoría física gracias a los
trabajos de Prigogine y otros pensadores. La termodinámica irreversible intenta resolver la
cuestión de como se justifica la existencia de sistemas abiertos con tendencia hacia el orden y
hacia la entropía negativa (o neguentropía, o anentropía) crecientes, habida cuenta de que la
tendencia universal de los acontecimientos es en realidad hacia el desorden y hacia la
entropía positiva crecientes. Una primera solución a esta cuestión fue la vitalista, que
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
191
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
propugnaba la existencia de entidades fantásticas (soplos vitales, entelequias, duendecillos)
que infundían vida, es decir tendencia hacia el orden. Rechazada por anticientífica, la nueva
solución llegó de la mano de la termodinámica irreversible, que intenta establecer la diferencia
entre los sistemas cerrados y los abiertos a partir de la díada reversibilidad-irreversibilidad.
En efecto, los equilibrios químicos en sistemas cerrados se basan en reacciones reversibles.
Por el contrario, en los sistemas abiertos el estado uniforme no es reversible, ni en conjunto ni
en muchas reacciones. Von Bertalanffy relaciona los sistemas químicos cerrados con la
reversibilidad a partir de la ley de acción de masas, que sostiene que en tales sistemas las
reacciones químicas ocurren en ambas direcciones (A se convierte en B y B en A, ver
esquema del artículo: Sistema químico), es decir, hay reversibilidad.
ii.
Comentarios. Von Bertalanffy sin embargo, no es lo suficientemente claro al respecto, y por
momentos parece contradecirse cuando asigna irreversibilidad tanto a los sistemas cerrados
como a los abiertos. Probablemente, el autor citado afirme la irreversibilidad de los sistemas
cerrados fundándose en la idea de proceso irreversible de la termodinámica clásica, que hace
alusión al hecho de que, en toda transformación de una forma de energía en otra, una parte
se desprende como calor tornándose energía inutilizable e irrecuperable, con lo cual jamás
puede volverse al anterior estado inicial (irreversibilidad).
En suma: es posible concebir que tanto en los sistemas cerrados que tienden al desorden,
como en los sistemas abiertos que tienden al orden se verifican procesos irreversibles, si
entendemos por irreversibilidad en el primer caso la imposibilidad de volver a transformar
íntegramente calor en trabajo útil, y en el segundo caso la imposibilidad del ser vivo de
evolucionar 'hacia atrás', pues, para von Bertalanffy, el estado uniforme propio de los sistemas
vivientes no es reversible.
79. TOTALIDAD
Propiedad formal de los sistemas según la cual éstos se conducen como un 'todo', es decir,
los cambios en cada elemento dependen de todos los demás. Como tal, este concepto está
estrechamente vinculado con los de 'ORGANISMO', 'ORGANIZACIÓN' y 'SISTEMA
ABIERTO' y, en algún sentido, se opone a la idea de 'SUMATIVIDAD'.
Existen, desde ya, sistemas en los cuales en vez de encontrar totalidad encontramos sumatividad,
pero la TGS pone de relieve la importancia de aquellos puntos de vista que subrayan el carácter
no sumativo (es decir, totalista) de los sistemas físicos y biológicos, como modo de oponerse a la
insuficiencia del paradigma mecanicista. En efecto, es necesario estudiar no sólo partes y
procesos aislados, sino también resolver los problemas decisivos encontrados en la organización
y el orden que los unifican, resultantes de la interacción dinámica de partes y que hacen que estas
se comporten de distinta manera cuando se estudian aisladas o dentro del todo.
Propensiones similares se manifestaron en psicología. En tanto que la clásica psicología de la
asociación trataba de resolver fenómenos mentales en unidades elementales -átomos
psicológicos, se diría-, tales como sensaciones elementales, la psicología de la Gestalt reveló la
existencia y la primacía de totalidades psicológicas que no son suma de unidades elementales y
que están gobernados por leyes dinámicas. Finalmente, en las ciencias sociales el concepto de
sociedad como suma de individuos a modo de átomos sociales (el modelo del hombre económico)
fue sustituido por la inclinación a considerar la sociedad, la economía, la nación, como un todo
superordinado a sus partes.
El concepto de sistema es eminentemente holista: procura poner al organismo psicofisiológico, al
comportamiento, a la sociedad, etc., como un todo bajo la lente del examen científico. Tal holismo
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
192
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
se opone entonces, por ejemplo en el contexto de la psicología, a reducir los acontecimientos
mentales y el comportamiento a un manojo de sensaciones, pulsiones, reacciones innatas o
aprendidas, o cualesquiera elementos últimos fuesen presupuestos teóricamente.
La totalidad implica además enfatizar las relaciones entre los elementos, más que su
consideración aislada. Vale decir, interesan más las características 'constitutivas' del sistema, más
que sus propiedades 'sumativas' (ver Sumatividad).
80. VALOR
Los valores son entidades estudiadas dentro del contexto de la Filosofía de los sistemas, a
los efectos de rescatar el aspecto humanístico que debe tener la TGS, en contraposición a
las tendencias que consideran en ésta sólo sus aspectos teóricos y tecnocráticos, que
podrían conducir a la deshumanización del hombre y, en última instancia, a su destrucción.
La Filosofía de los Sistemas tiene tres partes:
1.
la Ciencia de los sistemas,
2.
la Tecnología de los Sistemas,
y lo que aquí podríamos llamar, aunque no sea un término empleado por von Bertalanffy,
3.
la 'Axiología' de los sistemas.
Esta axiología se ocuparía de las relaciones entre hombre y mundo en términos de lo que en
filosofía se llaman 'valores', y que el autor mencionado no define explícitamente.
Para von Bertalanffy, la ciencia tiene un valor intrínseco, en la medida en que es un conocimiento
que nos abre la posibilidad del control de la naturaleza. Pero tiene también un valor ético, en
cuanto este control puede contribuir al desarrollo de la personalidad individual y la sociedad en
general evitando así el caos de la deshumanización y la tecnocracia, que reducirían al hombre a
una mera pieza de una maquinaria que finalmente terminaría destruyéndolo a través del hambre,
las guerras, etc..
Se impone, por lo tanto, un estudio científico de los valores, una tecnología psicológica y
sociológica. Conocemos demasiado bien las fuerzas físicas, y algo de las fuerzas biológicas, pero
nada de las fuerzas sociales, que son precisamente, según von Bertalanffy, las fuerzas que
podrían provocar el desastre. Hay algunos adelantos dentro de los enfoques sistémicos al
respecto, como las teorías de la información, de los juegos y de la decisión, que analizan
detalladamente fenómenos tales como la carrera armamentista, la guerra, la competencia
económica y otros.
No obstante lo dicho, no debe sobreestimarse el valor de la simple supervivencia del individuo o la
especie. Estos son valores biológicos, pero están también los valores específicamente humanos,
que siempre aluden a un universo simbólico. Esto revela además que no se puede reducir lo
humano a lo biológico, que tiene su especificidad por derecho propio.
El afán humano es más que autorrealización: se dirige a metas objetivas y realización de valores,
es decir, busca perpetuar su universo simbólico desprendiéndose de su creador. La sicopatología
estudia esta temática, cuando por ejemplo habla de la psiconeurosis (conflicto entre las pulsiones
biológicas y el sistema simbólico de valores), de neurosis existenciales (conflicto entre universos
simbólicos, pérdida de la orientación del valor, experiencias de falta de significado del individuo),
de delincuencia juvenil (desplome o erosión del sistema de valores), etc..
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
193
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
81. VITALISMO
Doctrina según la cual la organización y regulación de los procesos vitales sólo pueden ser
explicados a partir de ciertos factores animoides (entelequias, espíritus, etc.) que acechan
en la célula o el organismo. Von Bertalanffy critica, en la biología, tanto las doctrinas
vitalistas como las mecanicistas, proponiendo en su lugar el punto de vista llamado
organísmico.
Muchas de las características de los sistemas organísmicos, consideradas a menudo vitalistas
(espíritus, o hasta 'duendecillos', como llega a decir von Bertalanffy), son perfectamente
explicables a partir del concepto de sistema abierto y de algunas de sus características, como por
ejemplo la equifinalidad.
Un representante del vitalismo es Hans Driesch (1867-1941), que abrazó dicha doctrina tras el
análisis de experimentos con embriones tempranos. En este contexto, a Driesch le había llamado
la atención que el mismo resultado final (un organismo normal de erizo de mar) podía proceder en
su origen tanto de un cigoto completo, como de cada mitad de un cigoto, como del producto de
fusión de dos cigotos. Este hecho, pensó Driesch, contradice las leyes de la física y sólo puede
explicarse a partir un factor vitalista animoide que gobierne los procesos previendo la meta, el
organismo normal a constituir.
Sin embargo, puede demostrarse que los fenómenos descriptos por Driesch, que él consideraba la
más importante prueba del vitalismo, pueden explicarse perfectamente a partir de la idea de
equifinalidad, es decir, la posibilidad de los sistemas abiertos de poder llegar al mismo resultado
final a partir de puntos de partida diferentes y por diferentes caminos.
Otra cuestión que invocaron frecuentemente los vitalistas en favor de su postura fue el hecho de
que, mientras toda la naturaleza física tendía hacia una entropía creciente (hacia el desorden), en
la naturaleza animada había sin embargo una tendencia inversa (hacia el orden), lo cual se debía
precisamente a un factor animoide. Estas aparentes contradicciones desaparecen, dice von
Bertalanffy, gracias a la expansión y generalización de la teoría física de los sistemas abiertos, con
lo cual las explicaciones vitalistas pierden su razón de ser.
NOTA FINAL DEL CAPÍTULO.
Todos los 81 artículos correspondientes a la Teoría General de Sistemas, se han
basado fundamentalmente en los textos escritos por Ludwig von Bertalanffy, cuya
bibliografía se encuentra inscrita en el capítulo VI. Bibliografía del presente
trabajo.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
194
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
V.
GLOSARIO DE ESTADÍSTICA
GLOSARIO
001. Abstract
002. Alcance
003. Análisis de clusters
004. Análisis de datos
005. Análisis de supervivencia
006. Análisis discriminante
007. Análisis factorial
008. Análisis multivariado
009. Clase
010. Codificación
011. Coeficiente
012. Coeficiente de Crombach
013. Coeficiente de variación
014. Confiabilidad
015. Confirmación
016. Correlación
017. Correlación múltiple
018. Cuantil
019. Curva asimétrica
020. Curva normal
021. Curva simétrica
022. Dato
023. Definición operacional
024. Desviación
025. Discusión
026. Distribución de frecuencias
027. Efectos del experimentador
028. Émico/ético
029. Encuesta social
030. Error Standard
031. Error tipo I
032. Error tipo II
033. Estadística
034. Estadística bivariada
035. Estadística descriptiva
036. Estadística inferencial
037. Estadística multivariada
038. Estadística univariada
039. Estadístico
040. Estandarización
041. Estudio de casos
042. Etnografía
043. Experimento
044. Experimento de campo
045. Experimento de laboratorio
046. Experimento por demostración
047. Falsación
048. Fractil
049. Frecuencia
050. Frecuencia relativa
051. Hipótesis
052. Hipótesis alternativa
053. Hipótesis nula
054. Histograma
055. Idea
056. Inferencia estadística
057. Informe de investigación
058. Instrumento de medición
059. Intervalo de confianza
060. Intervalo de clase
061. Investigación
062. Investigación, tipos
063. Investigación-acción
064. Investigación aplicada
065. Investigación básica
066. Investigación científica
067. Investigación correlacional
068. Investigación cualitativa
069. Investigación descriptiva
070. Investigación explicativa
071. Investigación exploratoria
072. Investigación no experimental
073. Investigación social
074. Límite del intervalo
075. Manova
076. Marco teórico
077. Media aritmética
078. Mediana
079. Medición
080. Medida de dispersión
081. Medida de distancia
082. Medida de tendencia central
083. Método
084. Método científico
085. Moda
086. Muestra
087. Muestra no probabilística
088. Muestra probabilística
089. Muestreo
090. Muestreo aleatorio estratificado
091. Muestreo aleatorio simple
092. Muestreo no aleatorio
093. Muestreo polietápico
094. Muestreo por conglomerados
095. Nivel de confianza
096. Nivel de significación
097. Observación participante
098. Parámetro
099. Percentil
100. Población
101. Polígono de frecuencia
102. Precisión
103. Probabilidad
104. Problema de investigación
105. Procedimiento
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
195
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
GLOSARIO
106. Prueba estadística
001.
107. Prueba no paramétrica
108. Prueba paramétrica
109. Puntaje Z
110. Recolección de datos
111. Regresión
112. Regresión logística
113. Replicabilidad
114. Sesgo
115. Sociometría
116. Tamaño de la muestra
117. Tasa
118. Técnica
119. Teoría
120. Tesis empírica
121. Tesis teórica
122. Unidad de análisis
123. Universo
124. Validez
125. Validez interna
126. Variable
127. Variable dependiente
128. Variable independiente
129. Variable extraña
ABSTRACT
El abstract de una tesis o resumen “debe dar cuenta en forma clara y simple del contenido
de la obra. El orden recomendable de presentación es el siguiente: Una formulación precisa
y concisa del objetivo de la investigación, una breve descripción de la metodología y
formulación general de las conclusiones o resultados obtenidos. El resumen debe ser
informativo y expresar en un mínimo de palabras, el mayor número posible de información
sobre el contenido de la tesis (máximo una página)”.
Droppelmann A (coordinador Escuela de Psicología- Universidad de La Plata, Argentina, 2002), Procedimientos para la elaboración de
proyecto y tesis de grado y proceso de titulación (Reglamento interno).
002.
ALCANCE
Es la distancia entre los valores más bajo y más alto de un conjunto de datos. Las
distribuciones de extremo abierto no tienen alcance. Conceptos similares son los
siguientes:
i.
Alcance intercuartil: diferencia entre los valores del primer y tercer cuartiles; esta
diferencia representa el alcance de la mitad central del conjunto de datos.
ii.
Alcance interfractil: medida de la dispersión entre dos fractiles de una distribución; es
decir, l a diferencia entre los valores de dos fractiles.
Levin R y Rubin D (1996) Estadística para administradores. Prentice Hall, Sexta edición.
003.
ANÁLISIS DE CLUSTERS
“Este procedimiento, sobre la base de diversas variables medidas en una muestra de
sujetos, los agrupa en subconjuntos homogéneos. Su aplicación más importante es la
elaboración de nosologías empíricas”.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, Pág. 75.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
196
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
004.
ANÁLISIS DE DATOS
“Conjunto de transformaciones numéricas de los datos encaminado a lograr que éstos sean
interpretables en relación a la hipótesis de investigación. En Psicología tales
transformaciones suelen ser de índole estadístico”.
León O y Montero I, “Diseño de investigaciones”, Introducción a la lógica de la investigación en psicología y educación, McGraw Hill,
Madrid, 1995, pág. 22.
i.
El análisis de los datos se efectúa utilizando la matriz de datos.
ii.
El tipo de análisis o pruebas estadísticas a realizar depende del nivel de medición de las
variables, las hipótesis y el interés del investigador.
iii. Los análisis estadísticos que pueden realizarse son: estadística descriptiva para cada
variable (distribución de frecuencias, medidas de tendencia central y medidas de
variabilidad), la transformación a puntuaciones “z”, razones y tasas, cálculos de
estadística inferencial, pruebas paramétricas, pruebas no paramétricas y análisis
multivariados. Los análisis estadísticos se llevan a cabo mediante programas para
computadora, utilizando paquetes estadísticos. Los paquetes estadísticos más
conocidos son: BMDP, ESP, OSIRIS, SAS y SPSS. Estos paquetes se utilizan
consultando el manual respectivo.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 10: Análisis de los datos, pág. 429.
005.
ANÁLISIS DE SUPERVIVENCIA
“Relaciona un conjunto de variables con el tiempo de ocurrencia de un suceso (por ejemplo
fallecimiento o recaída de un paciente)”.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, Pág. 75.
006.
ANÁLISIS DISCRIMINANTE
“Halla el mejor sistema de predicción de la categoría a la que pertenece un sujeto sobre la
base de la información proporcionada por diversas variables. Es similar a la regresión
múltiple, pero aquí la variable que se predice es de tipo nominal”.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, Pág. 75.
007.
ANÁLISIS FACTORIAL
“Analiza las correlaciones de un conjunto amplio de variables intentando hallar unas pocas
dimensiones subyacentes que expliquen la mayor parte de la varianza. Intenta eliminar
redundancias en la información para simplificar un campo de estudio”.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, Pág. 75.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
197
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
008.
ANÁLISIS MULTIVARIADO
Los análisis multivariados más utilizados son:
PRUEBA
VARIABLES INVOLUCRADAS Y NIVELES DE
MEDICIÓN
TIPOS DE HIPÓTESIS
Regresión múltiple
Una dependiente (intervalos o razón) y dos o
más independientes (cualquier nivel de medición)
Correlacional
Causal
Análisis lineal “path”
Varias, secuencia causal (cualquier nivel de
medición)
Correlacional
Causal
Análisis de factores
Varias (Intervalos o razón)
Correlacional
Causal
Análisis multivariado de varianza (MANOVA)
y correlacional canónica
Varias independientes y varias dependientes
(intervalos o razón)
Análisis discriminante
Varias independientes (intervalos o razón) y una
dependiente (nominal u ordinal)
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 10: Análisis de los datos, pág. 429.
009.
CLASE
Subdivisión de escala de datos.
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998.
010.
CODIFICACIÓN
Las respuestas obtenidas mediante los instrumentos de medición se codifican. Esta
codificación implica:
i.
Codificar los ítems o equivalentes no precodificados.
ii.
Elaborar el libro de códigos.
iii. Efectuar físicamente la codificación.
iv. Grabar y guardar los datos en un archivo permanente.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 9: Recolección de los datos, pág. 338.
011.
COEFICIENTE
“En matemáticas, es el número o símbolo que se coloca frente a una variable o a una
incógnita en una ecuación. En la ecuación, por ejemplo, x3 – 10 x2 – 5x = 0, los coeficientes
son 5 y 10. En física y en mecánica es el número que define las características especiales de
una sustancia”. Por ejemplo, el coeficiente de dilatación de un gas determinado.
Speck G (comp) (1966) “Diccionario científico ilustrado”, New York: Editors Press Service, pág. 79.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
198
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
“En matemáticas, cantidad que acompaña a otra como factor”.
Aristos (1969), Diccionario Ilustrado de la Lengua Española, Barcelona, Sopena.
“En estadística, número que caracteriza cantidades de datos al compararlos con otras
cantidades de datos”.
Farré Martí J (1999), Diccionario de Psicología. Barcelona: Océano, pág. 76.
012.
COEFICIENTE DE CROMBACH
El coeficiente alfa de Cronbach es una de las formas de establecer el nivel de confiabilidad
que es, junto con la validez, un requisito mínimo de un buen test y, en general, de todo
instrumento de medición.
i.
Como se determina la confiabilidad de un test utilizando la escala alfa de Crombach? Para
aplicar el coeficiente alfa de Cronbach se requieren conocimientos y experiencia en
estadística. No obstante, con un conocimiento mínimo básico y algo de audacia se puede
calcular la fiabilidad de un test mediante el Cronbach utilizando software de estadística como
por ejemplo el SPSS (preferiblemente a partir de la Versión 4 y cualquiera compatible con
Windows XP, Milenium o NT ), uno de los más conocidos y utilizados para estas cuestiones.
La información que debe ingresarse es por lo menos cuantos ítems tiene el test y las
respuestas obtenidas de una muestra de sujetos.
Si no se dispone del software y se cuenta con cierto conocimiento estadístico, la fórmula para
calcular el alfa de Cronbach tiene como numerador el número de ítems de la escala, y como
denominador, el producto de dicho número menos 1, multiplicado por el cociente entre la
sumatoria de varianzas de los ítems y la varianza de toda la escala.
Si se está usando un test ya estandarizado, no hay necesidad de calcular su Coeficiente
Cronbach, pues se supone que dicho test es lo suficientemente válido y confiable. Aún así, los
creadores de la prueba suelen dar información sobre estas propiedades, incluyendo un
coeficiente Cronbach o algún otro que también mida fiabilidad (como el clásico coeficiente
Kappa, que mide la equivalencia o concordancia entre observadores, o el coeficiente “r” de
correlación de Pearson de la prueba de test-retest, que mide la estabilidad de las respuestas.
El Cronbach, por su parte, mide la confiabilidad a partir de la consistencia interna de los ítems,
entendiendo por tal el grado en que los ítems de una escala se correlacionan entre sí). En
estos casos, en el informe de investigación debe indicarse el coeficiente Cronbach asignado al
test utilizado.
En cambio, si se ha creado un test o cuestionario ad hoc, será conveniente determinar su
fiabilidad mediante el Cronbach para que los lectores sepan cuán confiable o fiable es el test
que se está usando. Este coeficiente Cronbach se utilizará, sin embargo, cuando la prueba
tenga muchos ítems, ya que lo que evalúa es la confiabilidad a partir de la consistencia interna
de los mismos. Si no es así, un técnico estadístico podrá recomendar qué otra prueba de
fiabilidad utilizar.
ii.
Qué indica un índice de confiabilidad de 0.9 utilizando dicha escala? Cronbach desarrolló su
coeficiente en la década del 50 dentro del contexto de investigaciones educativas. En principio,
un Cronbach de 0.90 es bastante alto, con lo cual la confiabilidad de test está prácticamente
asegurada y puede ser utilizado sin problemas, ya que está indicando una consistencia interna
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
199
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
satisfactoria. En general, se admite que por encima de 0.80, la prueba es confiable. El alfa de
Cronbach varía entre 0 y 1 (0 es ausencia total de consistencia, y 1 es consistencia perfecta).
El valor 0.90 es satisfactorio si, como dijimos antes, el test tiene muchos ítems. Si el test
llegara a tener pocos ítems, se pueden aceptar valores alfa de Cronbach de 0.60 y 0.50 (como
sostienen Carmines y Zeller 1979; Pedhazur y Schmelkin 1991).
Finalmente, digamos que puede ocurrir que un test tenga varios alfa de Cronbach distintos.
Por lo regular esto significa que el test está midiendo una variable compleja, multidimensional,
y entonces se ha obtenido un alfa para cada dimensión. No obstante, aún en estos casos
puede obtenerse un alfa único para toda la variable.
013.
COEFICIENTE DE VARIACIÓN
Medida relativa de la dispersión, comparable por medio de distribuciones diferentes, que
expresa la desviación estándar como porcentaje de la media. Proporción o porcentaje de la
media que representa la desviación estándar.
El coeficiente de variación se calcula dividiendo el desvío standard por la media aritmética y
multiplicando el resultado por cien.
La desviación estándar no puede ser la única base para la comparación de dos distribuciones. Si
tenemos una desviación estándar de 10 y una media de 5, los valores varían en una cantidad que
es el doble de la media misma. Si, por otro lado, tenemos una desviación estándar de 10 y una
media de 5.000, la variación con respecto a la media es insignificante. En consecuencia, no
podemos conocer la dispersión de un conjunto de datos hasta que conocemos su desviación
estándar, su media y cómo se compara la desviación estándar con respecto a la media.
Lo que necesitamos es una medida relativa que nos proporcione una estimación de la magnitud de
la desviación con respecto a la magnitud de la media. El coeficiente de variación es una de estas
medidas relativas de dispersión. Se relaciona la desviación estándar y la media, expresando la
desviación estándar como porcentaje de la media.
Levin R y Rubin D (1996) Estadística para administradores. Prentice Hall, Sexta edición.
014.
CONFIABILIDAD
La confiabilidad se refiere al grado en que la aplicación repetida de un instrumento de
medición al mismo sujeto u objeto, produce iguales resultados. La confiabilidad se
determina calculando un coeficiente de confiabilidad. Los coeficientes de confiabilidad
varían entre 0 y 1 (0 = nula confiabilidad, 1 = total confiabilidad). Los procedimientos más
comunes para calcular la confiabilidad son la medida de estabilidad, el método de formas
alternas, el método de mitades partidas, el coeficiente alfa de Cronbach y el coeficiente
KR-20.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 9: Recolección de los datos, pág. 338.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
200
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
O fiabilidad.
La fiabilidad es el grado en que un test aporta resultados válidos, y se pone a prueba
evaluando la consistencia de las puntuaciones obtenidas en dos mitades del test, o en
formas alternadas del test, o mediante su repetición tardía.
Myers David, Psicología, Editorial Médica Panamericana, Madrid, 3° edición, pág. 319.
La fiabilidad “indica en qué grado la repetición del procedimiento de medida, cuando no se
han modificado las condiciones, da lugar a resultados equivalentes”.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, Pág. 71.
015.
CONFIRMACIÓN
“Estrategia de contrastación de hipótesis consistente en buscar datos que la apoyen”.
León O y Montero I, “Diseño de investigaciones”, Introducción a la lógica de la investigación en psicología y educación, McGraw Hill,
Madrid, 1995, pág. 22.
016.
CORRELACIÓN
Cuando dos fenómenos sociales, físicos o biológicos crecen o decrecen de forma
simultánea y proporcional debido a factores externos, se dice que los fenómenos están
positivamente correlacionados. Si uno crece en la misma proporción que el otro decrece,
los dos fenómenos están negativamente correlacionados. El grado de correlación se calcula
aplicando un coeficiente de correlación a los datos de ambos fenómenos. Una correlación
positiva perfecta tiene un coeficiente + 1, y para una correlación negativa perfecta es -1. La
ausencia de correlación da como coeficiente 0. Por ejemplo, el coeficiente 0,89 indica una
correlación positiva grande, -0,76 es una correlación negativa grande y 0,13 es una
correlación positiva pequeña.
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998.
017.
CORRELACIÓN MÚLTIPLE
“Estima la intensidad de asociación entre una variable y una combinación lineal de un
conjunto de otras variables. Es una generalización de la correlación simple y de ella se
deriva la ecuación de regresión múltiple a efectos predictivos”.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 75.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
201
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
018.
CUANTIL
Nombre genérico que reciben ciertas medidas de posición no centrales. Un cuantil puede
definirse como un valor de la variable que permite saber cuántos otros valores obtenidos de
la variable se encuentran por debajo y por encima en la serie ordenada de dichos valores.
Los cuantiles se clasifican en cuartiles, quintiles, deciles y percentiles, según que dividan la
serie ordenada de valores en cuatro, cinco, diez o cien partes iguales.
Algunos autores (1) consideran los cuantiles como medidas de dispersión. Sin embargo, en un
sentido más estricto, las medidas de dispersión que corresponden a los cuantiles son los desvíos
intercuantílicos, como por ejemplo, los desvíos intercuartílicos Q1, Q2 y Q3.
Cuartiles, Deciles y Percentiles. Si un conjunto de datos está ordenado por magnitud,
el valor central (o la media de los dos centrales) que divide al conjunto en dos mitades
iguales, es la mediana. Extendiendo esa idea, podemos pensar en aquellos valores que
dividen al conjunto de datos en cuatro partes iguales. Esos valores denotados Q1, Q2, y Q3,
se llaman primer cuartíl, segundo cuartíl y tercer cuartíl, respectivamente. EL Q2 coincide
con la mediana.
Análogamente, los valores que dividen a los datos en 10 partes iguales se llaman deciles, y
se le denotan D1, D2,...,D9, mientras que los valores que lo dividen en 100 partes iguales se
llaman percentiles, denotados por P1, P2,...,P99. El 5º decil y el 50º percentil coinciden con la
mediana. Los 25º y 75º percentiles coinciden con el primer y tercer cuartiles.
Colectivamente, cuartiles, deciles y percentiles se denominan cuantiles
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998).
(1) Por ejemplo Vessereau A, La estadística, Buenos Aires, Eudeba, 1963, 2da. edición, pág. 12.
019.
CURVA ASIMÉTRICA
"Si una curva no es simétrica, entonces es asimétrica. Cuando una curva es asimétrica en
forma positiva, la mayor parte de los datos aparecen en los valores menores del eje
horizontal y la curva se reduce hacia el extremo superior. Cuando una curva es asimétrica
en forma negativa, gran parte de los datos aparecen en los valores mayores y la curva se
reduce hacia el extremo inferior del eje horizontal".
Pagano R, Estadística para las ciencias del comportamiento, México, International Thomson Editores, 1999, 5ta. edición, pág. 55.
020.
CURVA NORMAL
La forma prevista de la distribución normal pequeña.
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998.
La curva o distribución normal es un modelo teórico sumamente útil, su media es 0 (cero) y
su desviación estándar es 1 (uno).
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996, pág 429.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
202
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
021.
CURVA SIMÉTRICA
Una curva "es simétrica si sus dos lados coinciden al doblarla a la mitad".
Pagano R., Estadística para las ciencias del comportamiento, México, International Thomson Editores, 1999, 5ta. edición, pág. 55.
022.
DATO
Valor que adquiere una variable para una determinada unidad de análisis. El dato es siempre
el resultado de un proceso de medición. Ejemplos: "el coche de Juan es rojo" y "Juan mide
1,70 m". En el primer caso, la unidad de análisis es el coche, la variable es el color, y el valor
es rojo. En el segundo caso, la unidad de análisis es Juan, la variable es la estatura, y el
valor es 1,70 m. El dato incluye también una especificación del procedimiento utilizado para
hacer la medición, y de la unidad de medida utilizada. Por ejemplo, para establecer que Juan
pesa 70 kgs, se ha utilizado una balanza y, como unidad de medida, el kilogramo.
Los datos son los valores cualitativos o cuantitativos mediante los cuales se miden las
características de los objetos, sucesos o fenómenos a estudiar pequeña.
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998.
023.
DEFINICIÓN OPERACIONAL
Existen dos tipos de definición operacional. La definición operacional de la variable
independiente (VI) se define en términos de manipulación, e indica qué operaciones hace el
investigador para manipularla. En cambio, la definición operacional de la variable
dependiente (VD) se define en términos de medición, e indica qué operaciones debe hacer el
investigador para medirla. Cabe aclarar que en una investigación, lo que se hace es hacer
variar la VI (mediante manipulación) para ver cómo esa variación influye sobre la VD (para lo
cual es preciso medir ésta última).
024.
DESVIACIÓN
Diferencia entre un valor y otro valor medio o típico pequeña.
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998.
025.
DISCUSIÓN
“Reflexión que realiza el investigador en relación a las implicaciones que los datos
obtenidos en su investigación tienen para su hipótesis”.
León O y Montero I, “Diseño de investigaciones”, Introducción a la lógica de la investigación en psicología y educación, McGraw Hill,
Madrid, 1995, pág. 22.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
203
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
026.
DISTRIBUCIÓN DE FRECUENCIAS
Distribución que "presenta los valores de los datos y su frecuencia de aparición. Al ser
presentados en una tabla, los valores de los datos se enumeran en orden, donde por lo
general el valor del dato menor aparece en la parte inferior de la tabla".
Pagano R., Estadística para las ciencias del comportamiento, México, International Thomson Editores, 1999, 5ta. edición, pág. 35.
Las distribuciones de frecuencia presentan cuatro características fundamentales:
i.
medidas de tendencia central y de posición;
ii.
mediciones de variación;
iii. medidas de asimetría; y
iv. curtosis.
Cohan N., Diseño estadístico, Buenos Aires, Eudeba, 1994, pág. 69.
Las distribuciones de frecuencias contienen las categorías, códigos, frecuencias absolutas
(número de casos), frecuencias relativas (porcentajes) y frecuencias acumuladas (absolutas
o relativas). Las distribuciones de frecuencias (particularmente hablando de las frecuencias
relativas) pueden presentarse gráficamente. Una distribución de frecuencias puede
representarse a través del polígono de frecuencias o curva de frecuencias.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 10: Análisis de los datos, pág. 429.
027.
EFECTOS DEL EXPERIMENTADOR
“Distorsiones en los resultados experimentales producidas por el comportamiento o las
características del investigador”.
Vander Zanden James, Manual de Psicología Social, Barcelona, Paidós, 1986, pág. 618.
028.
ÉMICO / ÉTICO
Designan dos modos de acercamiento, descripción o comprensión de fenómenos
culturales. Son términos acuñados por Pike en 1954, aunque adquirieron relevancia en las
investigaciones antropológicas y etnográficas a partir de la década del ’60.
La descripción émica es la que ofrece el nativo (por ejemplo para un aborigen cierta enfermedad es
obra de los dioses), mientras que la descripción ética es el punto de vista del observador exterior
(por ejemplo un etnógrafo que visita la tribu y para él la misma enfermedad es entendida de
acuerdo a su cultura occidental).
Lo émico sería todo aquello que tras haber sido recogido por el etnógrafo es reconocido por el
nativo como real, significativo y apropiado. La traducción científica, no familiar al nativo sería el étic,
que según Harris sería el émic del etnógrafo.
La perspectiva ética se refiere a las afirmaciones generalizadas sobre los datos, que el investigador
establece en función de un conocimiento transcultural; mientras que la émica se refiere a los
modelos y patrones que se observan en una cultura particular concreta. Lo ético es externo y lo
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
204
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
émico es interno; en el primero el investigador se coloca fuera de las culturas, comparando unas
con otras; en lo segundo el investigador descubre desde dentro lo específico de una cultura
particular.
Pimienta Lastra Rodrigo (2002), Reflexiones sobre Pensamiento Epistémico. El uso de los datos en la investigación aplicada. En Cinta
de Moebio No. 13. Marzo 2002. Facultad de Ciencias Sociales. Universidad de Chile. Disponible en
http://www.moebio.uchile.cl/13/frames11.htm
029.
ENCUESTA SOCIAL
“Método de investigación; obtención de datos cuantitativos mediante entrevistas o
cuestionarios enviados por correo”.
Vander Zanden James, Manual de Psicología Social, Barcelona, Paidós, 1986, pág. 619.
030.
ERROR STANDARD
“Describe las variaciones que se producirían si repitiésemos numerosas veces el mismo
muestreo en la misma población. Por consiguiente, nos indica el grado de inexactitud del
procedimiento empleado. Es función de: el tipo de muestreo, la heterogeneidad de la
población y el tamaño de la muestra”.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 70.
031.
ERROR TIPO I
“Posible error al rechazar la hipótesis nula cuando en realidad es cierta. Su probabilidad se
representa mediante la letra griega alfa. Como mínimo su valor ha de ser inferior a 0.05. Es
decir, riesgo de equivocarnos en el 5% de los casos”.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 74.
032.
ERROR TIPO II
“Posible error al aceptar la hipótesis nula. Su probabilidad se representa por beta. Su valor
ha de ser inferior a 0,20, es decir, 20%”.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 74.
033.
ESTADÍSTICA
La Estadística estudia los métodos científicos para recoger, organizar, resumir y analizar
datos, así como para sacar conclusiones válidas y tomar decisiones razonables basadas
con tal análisis.
En un sentido menos amplio, el término estadística se usa para denotar los propios datos, o
número derivados de ellos, tales como los promedios. Así se habla de estadística de empleo,
estadística de accidentes pequeña.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
205
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998.
034.
ESTADÍSTICA BIVARIADA
Analiza “el grado de interacción de dos variables apareadas dependientes”. Entre los
coeficientes usados para evaluar la intensidad de una relación está el coeficiente de
Pearson (para dos variables de intervalos), los coeficientes de Spearman y de Kendall (para
dos variables ordinales), el coeficiente biserial puntual (para una variable nominal y una de
intervalos), y los coeficientes tetracórico y el coeficiente k (para vincular dos variables
nominales).
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 74.
035.
ESTADÍSTICA DESCRIPTIVA
"Si estudiamos una característica de un grupo, sea en una población o en una muestra, por
ejemplo talla, peso, edad, cociente intelectual, ingreso mensual, etc. y lo describimos sin
sacar de ello conclusiones estamos en la etapa de la estadística descriptiva"
(Cohan N., Diseño estadístico, Buenos Aires, Eudeba, 1994, pág. 25).
La estadística descriptiva o inductiva es la estadística que sólo se ocupa de describir y
analizar un grupo dado, sin sacar conclusiones sobre un grupo mayor, se llama estadística
descriptiva o deductiva. Si una muestra es representativa de una población, es posible
inferir importantes conclusiones sobre las poblaciones a partir del análisis de la muestra. La
fase de la estadística que trata con las condiciones bajo las cuales tal diferencia es válida se
llama estadística inductiva o inferencia estadística. Ya que dicha inferencia no es del todo
exacta, el lenguaje de las probabilidades aparecerá al establecer nuestras conclusiones.
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998.
036.
ESTADÍSTICA INFERENCIAL
"Si estudiamos en una muestra una característica cualquiera e inferimos, a partir de los
resultados obtenidos en la muestra, conclusiones sobre la población correspondiente,
estamos haciendo estadística inductiva o inferencial y como estas diferencias no pueden
ser exactamente ciertas, aplicamos el lenguaje probabilístico para sacar las conclusiones"
(Cohan N., Diseño estadístico, Buenos Aires, Eudeba, 1994, pág. 25).
"La interpretación estadística supone dos fases esenciales: una inductiva, que permite el
pasaje de la muestra a la población total, y la otra deductiva, que sitúa la muestra, señalada
con una tasa de probabilidad, en el grupo de todas las eventualidades que pueden intervenir
por extracción al azar en el seno de la población total. Si hay varias hipótesis admisibles, se
elegirá aquella que conduzca, para la muestra, a la probabilidad máxima. La primera fase del
trabajo supone una cierta intuición; la segunda, que se realiza matemáticamente basada en
las normas del cálculo de probabilidades, constituye la crítica de la primera"
Vessereau A., La estadística, Buenos Aires, Eudeba, 1963, 2da. edición, pág. 28.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
206
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
La estadística inferencial es para efectuar generalizaciones de la muestra a la población. Se
utiliza para probar hipótesis y estimar parámetros. Asimismo, se basa en el concepto de
distribución muestral.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996, pág 429.
037.
ESTADÍSTICA MULTIVARIADA
“En situaciones complejas interesa analizar simultáneamente múltiples variables
dependientes e independientes. Para ello, se han generalizado los procedimientos de la
estadística uni y bivariada, configurándose la estadística multivariante. Entre los
procedimientos más utilizados en psiquiatría se cuentan Manova, correlación múltiple,
regresión logística, análisis factorial, análisis discriminante, análisis de clusters, análisis de
supervivencia, modelo lóg-lineal y modelo estructural”.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 74.
038.
ESTADÍSTICA UNIVARIADA
Los diseños estadísticos clásicos mencionados en la tabla adjunta “se basan en el estudio
de los efectos de una o más variables independientes sobre una variable dependiente, por lo
que las técnicas se denominan univariantes”.
Contrastes de hipótesis para la comparación de grupos
TIPOS DE COMPARACIÓN
CONTRASTES
PARAMÉTRICOS
NO PARAMÉTRICOS
DOS MUESTRAS
Datos no apareados
t de Student para datos no apareados
Mann-Whitney
Datos apareados
t de Student para datos apareados
Wilcoxon
Datos no apareados
ANOVA (Análisis de la varianza)
Kruskal-Wallis
Datos apareados
ANOVA para datos apareados
Friedman
MÁS DE DOS MUESTRAS
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 74.
039.
ESTADÍSTICO
Unidad de medida referente a la muestra. Se le llama estadístico también a la persona que
trabaja con la estadística pequeña.
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
207
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
040.
ESTANDARIZACIÓN
Un buen test debe estar estandarizado, de modo que el rendimiento de una persona pueda
ser comparado significativamente con el rendimiento de otras. La estandarización es la
definición de puntuaciones significativas comparadas con el rendimiento de un ‘grupo de
estandarización’ al que se administró previamente el test.
Myers David, Psicología, Editorial Médica Panamericana, Madrid, 3° edición, pág. 319.
041.
ESTUDIO DE CASOS
En el estudio de casos “se describe en forma detallada las características de un individuo
en condiciones especiales” (León y Montero, 1995:228). Señalan los autores mencionados
que generalmente se trata de pacientes, y básicamente consiste en la narración de su
evolución asociada a las sucesivas intervenciones del terapeuta. Normalmente este tipo de
investigación no tiene controles (ya que hace muy difícil repetir el mismo proceso con otra
persona y otro investigador) ni permite hacer generalizaciones, no obstante lo cual pueden
presentar informaciones de una relevancia tal que obliguen al planteamiento de nuevas
hipótesis o que fuercen la revisión de conocimientos bien asentados.
León O y Montero I (1995) Diseño de investigaciones. Barcelona: McGraw Hill.
042.
ETNOGRAFÍA
“Aproximación descriptiva de investigación que se enfoca en la vida dentro del grupo e
intenta comprender el significado de los eventos para las personas involucradas”.
Woolfolk A (1996) “Psicología educativa”, México, Prentice-Hall Hispanoamericana SA, pág. 14.
043.
EXPERIMENTO
“Estudio en el cual el investigador manipula o varía una o más variables (llamadas variables
independientes) y mide otras variables (llamadas variables dependientes)”.
Vander Zanden James, Manual de Psicología Social, Barcelona, Paidós, 1986, pág. 619.
En un sentido amplio, es toda modificación introducida deliberadamente en la realidad con el fin de
examinar sus efectos o consecuencias. Ejemplo: cuando un niño intenta averiguar si su llanto atrae
a su mamá, está realizando un experimento. Un tipo especial de experimento es el experimento
científico, donde se manipula una variable con el fin de examinar sus efectos en otra variable
i.
En su acepción más general, un experimento consiste en aplicar un estímulo a un individuo o
grupo de individuos y ver el efecto de ese estímulo en alguna(s) variable(s) del
comportamiento de éstos. Esta observación se puede realizar en condiciones de mayor o
menor control. El máximo control se alcanza en los <experimentos verdaderos>.
ii.
Deducimos que un estímulo afectó cuando observamos diferencias –en las variables que
supuestamente serían las afectadas- entre un grupo al que se le administró dicho estímulo y
un grupo al que no se le administró, siendo ambos iguales en todo excepto en esto último.
iii. Hay dos contextos en donde pueden realizarse los experimentos: el laboratorio y el campo.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
208
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
iv. En los cuasi-experimentos no se asignan al azar los sujetos a los grupos experimentales, sino
que se trabaja con grupos intactos.
v.
Los cuasi-experimentos alcanzan validez interna en la medida en que demuestran la
equivalencia inicial de los grupos participantes y la equivalencia en el proceso de
experimentación.
vi. Los experimentos <verdaderos> constituyen estudios explicativos, los pre-experimentos
básicamente son estudios exploratorios y descriptivos; los cuasi-experimentos son –
fundamentalmente- correlacionales aunque pueden llegar a ser explicativos.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 6: Diseños experimentales de investigación, pág. 182.
044.
EXPERIMENTO DE CAMPO
“Experimento en el cual el investigador introduce en un medio natural una variable
independiente a fin de determinar sus efectos sobre la conducta”.
Vander Zanden James, Manual de Psicología Social, Barcelona, Paidós, 1986, pág. 619.
045.
EXPERIMENTO DE LABORATORIO
“Experimento en el que se emplean medios e instalaciones especialmente construidos para
poder determinar con más facilidad la relación entre las variables dependiente e
independiente”.
Vander Zanden James, Manual de Psicología Social, Barcelona, Paidós, 1986, pág. 620.
046.
EXPERIMENTO POR DEMOSTRACIÓN
“Procedimiento para recoger datos en el cual el investigador introduce una ‘sorpresa
solapada’ o perturba de algún modo las interacciones entre las personas, con el fin de poner
de relieve expectativas de las que normalmente no se tienen conciencia”.
Vander Zanden James, Manual de Psicología Social, Barcelona, Paidós, 1986, pág. 620.
047.
FALSACIÓN
“Estrategia de contrastación de hipótesis consistente en buscar datos que la refuten”.
León O y Montero I, “Diseño de investigaciones”, Introducción a la lógica de la investigación en psicología y educación, McGraw Hill,
Madrid, 1995, pág. 22.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
209
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
048.
FRACTIL
En una distribución de frecuencias, es la posición de un valor en, o por encima de, una
fracción dada de los datos. Los fractiles pueden ser: cuartiles (fractiles que dividen los
datos en cuatro partes iguales), deciles (fractiles que dividen los datos en diez partes
iguales) o percentiles (fractiles que dividen los datos en 100 partes iguales).
Levin R y Rubin D (1996) Estadística para administradores. Prentice Hall, Sexta edición.
049.
FRECUENCIA
Número de veces en que se repite un dato pequeño.
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998.
050.
FRECUENCIA RELATIVA
Es la proporción entre la frecuencia de un intervalo y el número total de datos pequeños.
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998.
051.
HIPÓTESIS
“Explicación tentativa a un problema de investigación. Suele expresarse en la forma
condicional:
León O y Montero I, “Diseño de investigaciones”, Introducción a la lógica de la investigación en psicología y educación, McGraw Hill,
Madrid, 1995, pág. 22.
i.
Las hipótesis son proposiciones tentativas acerca de las relaciones entre dos o más variables
y se apoyan en conocimientos organizados y sistematizados.
ii.
Las hipótesis contienen variables; éstas son propiedades cuya variación puede ser medida.
iii. Las hipótesis surgen normalmente del planteamiento del problema y la revisión de la literatura
–algunas veces de teorías-.
iv. Las hipótesis deben referirse a una situación real. Las variables contenidas tienen que ser
precisas, concretas y poder observarse en la realidad; la relación entre las variables debe ser
clara, verosímil y medible. Asimismo, las hipótesis deben estar vinculadas con técnicas
disponibles para probarlas.
v.
Las hipótesis se clasifican en:
a.
hipótesis de investigación,
b.
hipótesis nulas,
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
210
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
c.
hipótesis alternativas.
vi. A su vez, las hipótesis de investigación se clasifican de la siguiente manera:
1. Hipótesis descriptivas del
valor de variables que se van a
observar en un contexto.
2. Hipótesis correlacionales
3. Hipótesis de la diferencia de
grupos
Hipótesis que establecen
simplemente relación entre las
variables
Bivariadas
Multivariadas
Hipótesis que establecen cómo es
la relación entre las variables
(hipótesis direccionales)
Bivariadas
Multivariadas
Hipótesis que sólo establecen
diferencia entre los grupos a
comparar.
Hipótesis que especifican a favor
de qué grupo –de los que se
comparan- es la diferencia.
Divariadas
4. Hipótesis causales
Multivariadas
Hipótesis con varias variables
independientes y una dependiente
Hipótesis con una variable
independiente y varias
dependientes
Hipótesis con varias variables tanto
independientes como dependientes
Hipótesis con presencia de
variables intervinientes
Hipótesis altamente complejas
vii. Puesto que las hipótesis nulas y las alternativas se derivan de las hipótesis de investigación,
pueden clasificarse del mismo modo pero con los elementos que las caracterizan.
viii. Las hipótesis estadísticas son la transformación de las hipótesis de investigación, nulas y
alternativas en símbolos estadísticos. Se clasifican en:
a.
hipótesis estadísticas de estimación,
b.
hipótesis estadísticas de correlación, y
c.
hipótesis estadísticas de la diferencia de grupos.
ix. En una investigación puede formularse una o varias hipótesis de distintos tipos.
x.
Las hipótesis se contrastan contra la realidad para aceptarse o rechazarse en un contexto
determinado.
xi. Las hipótesis constituyen las guías de una investigación.
xii. La formulación de hipótesis va acompañada de las definiciones conceptuales y operacionales
de las variables contenidas dentro de las hipótesis.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
211
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
xiii. Hay investigaciones que no pueden formular hipótesis porque el fenómeno a estudiar es
desconocido o se carece de información para establecerlas (pero ello sólo ocurre en los
estudios exploratorios algunos estudios descriptivos).
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 5: Formulación de hipótesis, pág. 103.
xiv. Modos de formulación. Una hipótesis puede formularse como una hipótesis de correlación o
como hipótesis de causalidad. En el primer caso, la hipótesis afirma una asociación estadística
entre dos variables: cuando aumenta una aumenta o disminuye la otra en la misma proporción.
Esto no presupone que haya un vínculo causal. En el segundo caso no sólo se afirma que hay
correlación sino que además, hay un vínculo causal: X causa Y, y por lo tanto es más una
hipótesis explicativa que meramente descriptiva.
052.
HIPÓTESIS ALTERNATIVA
“Afirma la existencia de diferencias no atribuibles al azar”.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 74.
053.
HIPÓTESIS NULA
“Enuncia que no existen diferencias entre las poblaciones de donde proceden las muestras.
Las diferencias observadas son atribuidas a errores aleatorios de muestreo”.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 74.
054.
HISTOGRAMA
Es una serie de rectángulos con bases iguales al rango de los intervalos y con área
proporcional a sus frecuencias.
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998.
055.
IDEA
A. Las investigaciones se originan en ideas, las cuales pueden provenir de distintas
fuentes y la calidad de dichas ideas no está necesariamente relacionada con la fuente de
donde provengan.
B. Frecuentemente las ideas son vagas y deben ser traducidas en problemas más
concretos de investigación, para lo cual se requiere una revisión bibliográfica de la idea.
C. Las buenas ideas deben alentar al investigador, ser novedosas y servir para la
elaboración de teorías y la resolución de problemas.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 1: La idea: nace un proyecto de investigación, pág. 6.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
212
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
056.
INFERENCIA ESTADÍSTICA
La inferencia estadística se interesa en dos tipos de problemas: la estimación de los
parámetros de la población, y las pruebas de hipótesis.
A la inferencia estadística le interesa sacar conclusiones sobre muchos acontecimientos,
fundándose en la observación de parte de los mismos.
Un problema común de la inferencia estadística es averiguar, en términos de probabilidad, si
las diferencias entre dos muestras significa que pertenecen o no a diferentes poblaciones.
Si la diferencia se debe sólo al azar, pertenecen a la misma población, pero si las diferencias
son mayores, debemos pensar que, con cierta probabilidad, son de poblaciones diferentes.
Las técnicas estadísticas pueden ser parámetricas (si se hacen bastantes suposiciones
acerca de los parámetros de la población), o no paramétricas (donde no se hacen
suposiciones numerosas ni severas respecto a dichos parámetros).
Siegel S, Estadística no paramétrica. Aplicada a las ciencias de la conducta.
Es aplicar resultados de estudios de una muestra a las poblaciones y emitir juicios o conclusiones
sobre esa población en general.
Ejemplo:
Estudio:
Causas de la deserción estudiantil en la Universidad Americana – La
Paz, Bolivia
Población: 1200 alumnos.
Muestra:
10% de la población.
Resultados del Estudio de la Muestra:
La situación económica,
Dificultad en el aprendizaje.
Conclusiones:
Se puede inferir que las causas de deserción de los alumnos de la
Universidad Americana de la ciudad de La Paz, Bolivia son la
situación económica y la dificultad en el aprendizaje.
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998.
057.
INFORME DE INVESTIGACIÓN
“Documento escrito en el que el investigador relata cuidadosamente todos los pasos
seguidos en la investigación, los resultados obtenidos y sus conclusiones con respecto al
problema estudiado”.
León O y Montero I, “Diseño de investigaciones”, Introducción a la lógica de la investigación en psicología y educación, McGraw Hill,
Madrid, 1995, pág. 22.
i.
Antes de elaborar el reporte de investigación debe definirse el usuario, ya que el reporte
deberá adaptarse a éste.
ii.
Los reportes de investigación pueden presentarse en un contexto académico o en un contexto
no académico.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
213
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
iii. El contexto determina el formato, naturaleza y extensión del reporte de investigación.
iv. Los elementos más comunes de un reporte de investigación presentado en un reporte
académico son: portada, índice, resumen, introducción, marco teórico, método, resultados,
conclusiones, bibliografía y apéndices.
v.
Los elementos más comunes en un contexto no académico son todos los anteriores excepto la
bibliografía.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 11: Elaboración del reporte de la investigación, pág. 442.
058.
INSTRUMENTO DE MEDICIÓN
Los pasos genéricos para construir un instrumento de medición son:
A. Listar las variables a medir.
B
Revisar sus definiciones conceptuales y operacionales.
C. Elegir uno ya desarrollado o construir uno propio.
D. Indicar niveles de medición de las variables (nominal, ordinal, por intervalos y de razón).
E.
Indicar como se habrán de codificar los datos.
F.
Aplicar prueba piloto.
G. Construir versión definitiva.
En la investigación social se dispone de diversos instrumentos de medición:
A. principales escalas de actitudes. (Likert, Diferencial Semántico y Guttman)
B. Cuestionarios (auto administrado, por entrevista personal, por entrevista telefónica y
por correo).
C. Análisis de contenido.
D. Observación.
E.
Pruebas estandarizadas.
F.
Sesiones en profundidad.
G. Archivos y otras formas de medición.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 9: Recolección de los datos, pág. 338.
059.
INTERVALO DE CONFIANZA
“Se calcula a partir del error standard. Es un intervalo por encima y por debajo de la
estimación puntual en el que se puede asegurar, con un determinado nivel de confianza, que
se sitúa el valor de la población”.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
214
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 70.
El nivel de significancia y el intervalo de confianza son niveles de probabilidad de cometer
un error o equivocarse en la prueba de hipótesis o la estimación de parámetros. Los niveles
más comunes en ciencias sociales son los del .05 y .01.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996, pág. 429.
060.
INTERVALO DE CLASE
Pequeña sección de la escala según la cual se agrupan las puntuaciones de una
distribución de frecuencia.
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998.
061.
INVESTIGACIÓN
Hay cuatro criterios distintos para clasificar las investigaciones científicas:
i.
Según la fuente de los datos: Pueden ser con datos primarios o con datos
secundarios. Los primeros son los que obtiene el investigador por sí mismo, a partir de
la realidad. Los datos secundarios los obtiene, en cambio, de otras fuentes, como
pueden ser censos, bibliografía, etc.
ii. Según el lugar donde se hace la investigación: Las investigaciones pueden ser
de campo o de laboratorio. En el primer caso, se investiga a los sujetos en sus hábitata
naturales, o sea en los lugares donde naturalmente viven, trabajan, pasean, etc. Si
quiero estudiar la influencia de la TV sobre la educación de los niños, haré una
investigación de campo. En cambio en la investigación de laboratorio llevamos a los
sujetos a un lugar especial, relativamente aislado, como puede ser una cámara Gesell.
iii. Según el grado de control sobre las variables: Las investigaciones pueden
aquí ser experimentales y no experimentales. En las primeras se provoca el fenómeno a
estudiar, o sea se manipula la variable independiente, tratando al mismo tiempo de
controlar la influencia de otras variables extrañas. En las no experimentales, en cambio,
debemos esperar a que el fenómeno ocurra, porque no podemos manipularlo. Las
investigaciones experimentales pueden ser tanto de laboratorio como de campo.
iv. Según la finalidad de la investigación: puede ser exploratoria, descriptiva y
explicativa. Estas son las tres etapas cronológicas que siguen toda investigación.
062.
INVESTIGACIÓN, TIPOS
“Aunque el abanico terminológico es muy amplio, el análisis de la realidad como proceso de
investigación puede ser planteado fundamentalmente de tres formas: como Investigación
Básica, como Investigación Aplicada, y como Investigación-Acción Participativa”.
Rubio J y Varas J (1997), “El análisis de la realidad, en la intervención social”. Métodos y técnicas de investigación. Madrid: Editorial
CCS, pág. 121.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
215
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Según cierto criterio, las investigaciones pueden ser longitudinales o transversales. Las
investigaciones longitudinales estudian un proceso a lo largo del tiempo, mientras que las
investigaciones transversales estudian un estado de cosas en determinado instante del tiempo. Por
ejemplo, estudiar a lo largo de un año como fue cambiando la relación entre índice de
desocupación y depresión psicológica es un estudio longitudinal, mientras que estudiar como es
esa relación sólo en el momento en que se recogieron los datos, es una investigación transversal.
063.
INVESTIGACIÓN - ACCIÓN
“La Investigación-Acción Participativa puede considerarse como un proceso que lleva a
cabo una determinada comunidad para llegar a un conocimiento más profundo de sus
problemas y tratar de solucionarlos, intentando implicar a todos sus miembros en el
proceso”.
Pérez Serrano G (1990), “Investigación-Acción. Aplicaciones al campo social y educativo”. Madrid, Dykinson, pág. 134.
Cuál es su finalidad? La finalidad de la Investigación-Acción Participativa es de interés para
la población, no sólo para una institución determinada: conocer para actuar, sensibilizar e
implicar a la población, transformar la propia realidad. Quienes investigan? Los
investigadores, técnicos y la población (destinataria de la acción). Cómo se diseña y
ejecuta? Los grupos de trabajo diseñan y realizan todas las fases del análisis de la realidad.
Cuál es su ámbito? Son ámbitos locales como barrios, zonas rurales, grupos, etc.
Rubio J y Varas J (1997), “El análisis de la realidad, en la intervención social”. Métodos y técnicas de investigación. Madrid: Editorial
CCS, pág. 123.
064.
INVESTIGACIÓN APLICADA
Guarda íntima relación con la investigación básica “pues depende de los descubrimientos y
avances de ella y se enriquece con ellos. Se trata de investigaciones que se caracterizan por
su interés en la aplicación, utilización y consecuencias prácticas de los conocimientos”. La
investigación aplicada busca conocer para hacer, para actuar (modificar, mantener, reformar
o cambiar radicalmente algún aspecto de la realidad).
Ander-Egg E, “Técnicas de investigación social” Hvmanitas, Buenos Aires, 1987, pág. 68.
“En contraste con la Investigación social Básica, la Aplicada antepone la resolución de los
problemas sociales al interés científico. Consiste en la aplicación y puesta en práctica de los
descubrimientos para crear, desarrollar o mejorar estrategias y acciones concretas de
acción social”.
Indican Rubio y Varas que la principal crítica que recibe la investigación aplicada es que responden
a exigencias meramente institucionales, dejando de lado el interés de los usuarios así como su
participación. En este sentido, otro tipo de investigación viene a compensar esta insuficiencia (ver
Investigación-Acción).
Rubio J y Varas J (1997), “El análisis de la realidad, en la intervención social”. Métodos y técnicas de investigación. Madrid: Editorial
CCS, pág. 121.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
216
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
065.
INVESTIGACIÓN BÁSICA
“O pura, es la que se realiza con el propósito de acrecentar los conocimientos teóricos para
el progreso de una determinada ciencia, sin interesarse en sus posibles aplicaciones o
consecuencias prácticas; es más formal y persigue propósitos teóricos en el sentido de
aumentar el acervo de conocimientos de una teoría.
Ander-Egg E, “Técnicas de investigación social” Hvmanitas, Buenos Aires, 1987, pág. 68.
“Tiene como finalidad primordial avanzar en el conocimiento de los fenómenos sociales y
elaborar, desarrollar o ratificar teorías explicativas, dejando en un segundo plano la
aplicación concreta de sus hallazgos. Se llama básica porque sirve de fundamento para
cualquier otro tipo de investigación”.
Rubio J y Varas J (1997), “El análisis de la realidad, en la intervención social”. Métodos y técnicas de investigación. Madrid: Editorial
CCS, pág. 120.
066.
INVESTIGACIÓN CIENTÍFICA
“Es un procedimiento reflexivo, sistemático, controlado y crítico que tiene por finalidad
descubrir o interpretar los hechos y los fenómenos, relaciones y leyes de un determinado
ámbito de la realidad”.
Ander-Egg E, “Técnicas de investigación social” Hvmanitas, Buenos Aires, 1987, pág. 57.
067.
INVESTIGACIÓN CORRELACIONAL
Los estudios correlacionales pretenden ver cómo se relacionan o vinculan diversos
fenómenos entre sí (o si no se relacionan).
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996, pág. 71.
068.
INVESTIGACIÓN CUALITATIVA
De acuerdo con algunos autores (Rubio J y Varas J, 1997:237), el método cualitativo opera
“en dos momentos:
1.
en un primer momento el investigador intenta (mediante grupos de discusión,
entrevistas abiertas, historias de vida, etc.) reproducir los discursos de determinado
grupo social, comunidad o colectivo. O en su caso, produce o recopila documentos
(relatos históricos, biográficos, tradiciones orales, etc.) referidos al ámbito o población
en la que se centra la investigación.
2.
Posteriormente, se analiza e interpreta la información recogida”.
Rubio J y Varas J, (1997), El análisis de la realidad en la intervención social. Madrid: CCS.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
217
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
069.
INVESTIGACIÓN DESCRIPTIVA
Los estudios descriptivos sirvan para analizar como es y se manifiesta un fenómeno y sus
componentes (Vg., el nivel de aprovechamiento de un grupo, cuántas personas ven un
programa televisivo y porqué lo ven o no, etc.).
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996, pág. 71.
“Estudios que recopilan información detallada acerca de situaciones específicas, los cuales
a menudo utilizan la observación, encuestas, entrevistas, grabaciones o una combinación
de estos métodos”.
Woolfolk A (1996) “Psicología educativa”, México, Prentice-Hall Hispanoamericana SA, pág. 14.
070.
INVESTIGACIÓN EXPLICATIVA
Los estudios explicativos buscan encontrar las razones o causas que provocan ciertos
fenómenos. A nivel cotidiano y personal sería como investigar porqué Brenda gusta tanto
de ir a bailar a una disco o por qué se incendió un edificio.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996, pág. 71.
071.
INVESTIGACIÓN EXPLORATORIA
La investigación exploratoria, también llamada formulativa (Selltiz), se realiza cuando el
investigador desconoce un tema y quiere explorarlo. Permite conocer y ampliar el
conocimiento sobre un fenómeno para precisar mejor el problema a investigar. Puede o no
partir de hipótesis previas, pero al científico aquí le exigimos flexibilidad, es decir, no ser
tendencioso en la selección de la información. En la investigación exploratoria se estudian
qué variables o factores podrían estar relacionados con el fenómeno en cuestión, y termina
cuando uno ya tiene una idea de las variables que juzga relevantes, es decir, cuando ya
conoce bien el tema. Por ejemplo, cuando apareció por primera vez el Sida hubo que hacer
una investigación exploratoria, porque había un desconocimiento de este tema. Otros
ejemplos son investigar el tema drogadicción para quien no lo conoce, o el tema salud
mental en relación con el entorno social. La investigación exploratoria tiene otros objetivos
secundarios, que pueden ser familiarizarse con un tema, aclarar conceptos, o establecer
preferencias para posteriores investigaciones. La información se busca leyendo bibliografía,
hablando con quienes están ya metidos en el tema, y estudiando casos individuales con un
método clínico. Blalock destaca la técnica de la observación participante como medio para
recolectar información. Es importante que la investigación exploratoria esté bien hecha,
porque si no puede echarse a perder la subsiguiente investigación descriptiva y la
explicativa.
Los estudios exploratorios tienen por objeto esencial familiarizarnos con un tópico
desconocido o poco estudiado o novedoso. Esta clase de investigaciones sirven para
desarrollar métodos a utilizar en estudios más profundos.
Una misma investigación puede abarcar fines exploratorios, en su inicio, y terminar siendo
descriptiva, correlacional y hasta explicativa: todo según los objetivos del investigador.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996, pág. 71.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
218
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
072.
INVESTIGACION NO EXPERIMENTAL
La investigación no experimental es la que se realiza sin manipular deliberadamente las
variables independientes, se basa en variables que ya ocurrieron o se dieron en la realidad
sin la intervención directa del investigador. Es un enfoque retrospectivo.
i.
La investigación no experimental es conocida también como investigación ex-post-facto (los
hechos y las variables ya ocurrieron) y observa variables y relaciones entre éstas en su
contexto natural.
ii.
Los diseños no experimentales se dividen de la siguiente manera:
Transeccionales
Descriptivos
Correlacionales / causales
Longitudinales
De tendencia
De análisis evolutivo de grupo
Panel
iii. Los diseños transeccionales realizan observaciones en un momento único en el tiempo:
a.
Cuando miden variables de manera individual y reportan esas mediciones son
DESCRIPTIVOS.
b.
Cuando describen relaciones entre variables con CORRELACIONALES y,
c.
Si establecen procesos de causalidad entre variables son CORRELACIONALES /
CAUSALES.
iv. Los diseños longitudinales realizan observaciones en dos o más momentos o puntos en el
tiempo.
v.
a.
Si estudian a una población son DISEÑOS DE TENDENCIA,
b.
si analizan a una subpoblación o grupo específico son DISEÑOS DE ANÁLISIS
EVOLUTIVO DE GRUPO y,
c.
si estudian a los mismos sujetos son DISEÑOS DE PANEL.
La investigación no experimental posee un control menos riguroso que la experimental y en
aquella es más complicado inferir relaciones causales. Pero la investigación no experimental
es más natural y cercana a la realidad cotidiana.
vi. El tipo de diseño a elegir se encuentra condicionado por el problema a investigar, el contexto
que rodea a la investigación, el tipo de estudio a efectuar y las hipótesis formuladas.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 7: Diseño no experimentales de investigación, pág. 204.
073.
INVESTIGACIÓN SOCIAL
“Es el proceso que, utilizando el método científico, permite obtener nuevos conocimientos
en el campo de la realidad social (investigación pura) o bien estudiar una situación para
diagnosticar necesidades y problemas a efectos de aplicar los conocimientos con fines
prácticos (investigación aplicada)”.
Ander-Egg E, “Técnicas de investigación social” Hvmanitas, Buenos Aires, 1987, pág. 59.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
219
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
074.
LÍMITES DEL INTERVALO
Son los valores extremos que tiene el intervalo de clase, inferior y superior, entre los cuales
van a estar los valores de los datos agrupados en ese intervalo de clase.
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998.
075.
MANOVA
Análisis múltiple de la varianza similar al ANOVA, pero con diversas variables dependientes
simultáneas.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 75.
076.
MARCO TEÓRICO
i.
ii.
El tercer paso del proceso de investigación consiste en elaborar el marco teórico.
El marco teórico se integra con las teorías, enfoques teóricos, estudios y antecedentes
en general que se refieran al problema de investigación.
iii. Para elaborar el marco teórico es necesario detectar, obtener y consultar la literatura y
otros documentos pertinentes para el problema de investigación, así como extraer y
recopilar de ellos la información de interés.
iv. La revisión de la literatura puede iniciarse manualmente o acudiendo a un banco de
datos al que se tiene acceso por computación.
v. La construcción del marco teórico depende de lo que encontremos en la revisión de la
literatura:
a. que existe una teoría completamente desarrollada que se aplica a nuestro problema
de investigación,
b. que hay varias teorías que se aplican al problema de investigación,
c. que hay generalizaciones empíricas que se aplican a dicho problema o
d. que solamente existen guías aún no estudiadas e ideas vagamente relacionadas
con el problema de investigación.
En cada caso varía la estrategia para construir el marco teórico.
vi. Una fuente muy importante para construir un marco teórico son las teorías.
vii. Con el propósito de evaluar la utilidad de una teoría para nuestro marco teórico
podemos aplicar cinco criterios:
a. capacidad de descripción, explicación y predicción,
b. consistencia lógica,
c. perspectiva,
d. fructificación y
e. parsimonia.
viii. El marco teórico orientará el rumbo de las etapas subsecuentes del proceso de
investigación.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 3: La elaboración del marco teórico: revisión de la literatura y construcción de una perspectiva teórica, pág. 54.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
220
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
077.
MEDIA ARITMÉTICA
Se define "como la suma de los datos dividida por el número de los mismos". Entre las
propiedades de la media se cuentan:
i.
la media es sensible al valor exacto de todos los datos de la distribución;
ii.
la suma de las desviaciones con respecto a la media es cero;
iii. la media es muy sensible a los datos extremos;
iv. la suma de los cuadrados de las desviaciones de todos los datos en torno a su media es
la mínima posible;
v.
para un gran número de circunstancias, de todas las medidas utilizadas para calcular la
tendencia central, la media es la que menos se sujeta a la variación debida al muestreo.
Esta última propiedad se relaciona con el uso de la media para la inferencia estadística.
Pagano R., Estadística para las ciencias del comportamiento, México, International Thomson Editores, 1999, 5ta. edición, pág. 62-65.
078.
MEDIANA
"Es el valor central o medida de posición de la variable que divide una distribución
estadística con igual número de observaciones por debajo y por encima. Se utiliza en lugar
de la media aritmética cuando el número de datos es pequeño y pueden ser sensibles a
unos cuantos valores grandes que distorsionarían el valor central. En estos casos la
mediana es más real que una media aritmética".
Ander-Egg E., Técnicas de investigación social, Buenos Aires, Hvmanitas, 1987, 21 edición, pág. 363.
079.
MEDICIÓN
Medir es el proceso de vincular conceptos abstractos con indicadores empíricos, mediante
clasificación y/o cuantificación. En toda investigación medimos las variables contenidas en
la hipótesis. Un instrumento de medición debe cubrir dos requisitos: confiabilidad y validez.
No hay medición perfecta, pero el error de medición debe reducirse a límites tolerables.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 9: Recolección de los datos, pág. 338.
080.
MEDIDA DE DISPERSIÓN
Medida que describe cómo se dispersan o distribuyen las observaciones de un conjunto de
datos. Cantidades que describen la variabilidad de los datos.
Levin R y Rubin D (1996) Estadística para administradores. Prentice Hall, Sexta edición.
081.
MEDIDA DE DISTANCIA
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
221
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Medida de dispersión en términos de la diferencia entre dos valores del conjunto de datos.
Levin R y Rubin D (1996) Estadística para administradores. Prentice Hall, Sexta edición.
082.
MEDIDA DE TENDENCIA CENTRAL
(O de posición): medida que indica el valor esperado de un punto de datos típico o situado
en el medio. Cantidades numéricas que dan una idea sobre la ubicación de la distribución
de frecuencias.
Levin R y Rubin D (1996) Estadística para administradores. Prentice Hall, Sexta edición.
083.
MÉTODO
Es “el camino a seguir mediante una serie de operaciones, reglas y procedimientos fijados
de antemano de manera voluntaria y reflexiva, para alcanzar un determinado fin que puede
ser material o conceptual”.
Ander-Egg E, “Técnicas de investigación social” Hvmanitas, Buenos Aires, 1987, pág. 41.
084.
MÉTODO CIENTÍFICO
“Conjunto de pasos reglados que utiliza la Ciencia para la ampliación de sus
conocimientos”. León y Montero distinguen tres variantes:
A. Deductivo: variante consistente “en partir de una ley general para, mediante la lógica,
extraer implicaciones que puedan ser contrastadas en la realidad”.
B. Hipotético-deductivo: variante donde “el investigador utiliza, en los distintos momentos
del proceso de investigación, tanto la inducción como la deducción”.
C. Inductivo: variante donde “el investigador parte de la información recogida mediante
sucesivas observaciones para, mediante la generalización, establecer una ley de ámbito
lo más universal posible”.
León O y Montero I, “Diseño de investigaciones”, Introducción a la lógica de la investigación en psicología y educación, McGraw Hill,
Madrid, 1995, pág. 22.
i.
Características. “El método científico consiste en establecer unas reglas o procedimientos
generales que aseguren una investigación científicamente significativa”. Las más importantes
características del método científico son las siguientes:
a.
Es fáctico en el sentido de que los hechos son su fuente de información y de respuesta.
b.
Trasciende los hechos: si bien el método científico parte del conocimiento de los hechos
particulares, no se detiene en ellos: mediante un ‘salto del nivel observacional al teórico’,
los trasciende.
c.
Se atiene a reglas metodológicas formalizadas (operaciones y procedimientos
establecidos de antemano), pero no por ello desecha la imaginación y la intuición.
d.
Se vale de la verificación empírica para formular respuestas a los problemas planteados y
para apoyar sus propias afirmaciones.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
222
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
e.
Esta permanente confrontación hace que el método sea además auto correctivo y
progresivo: ajusta sus conclusiones a los nuevos datos, y sus conclusiones no son finales.
f.
Sus formulaciones son generales: el hecho en particular interesa en tanto es miembro de
una clase o caso de una ley.
g.
Es objetivo en tanto busca alcanzar la verdad fáctica, independientemente de los valores y
creencias del científico.
Ander-Egg E, “Técnicas de investigación social” Hvmanitas, Buenos Aires, 1987, pág. 44.
ii.
Pasos. Los pasos del método científico son: formular correctamente el problema y
descomponerlo; proponer una tentativa de explicación verosímil y contrastable con la
experiencia; derivar consecuencias de esas suposiciones; elegir los instrumentos
metodológicos para realizar la investigación; someter a prueba los instrumentos elegidos;
obtener los datos que se buscan mediante la contrastación empírica; analizar e interpretar los
datos recogidos; y estimar la validez de los resultados obtenidos y determinar su ámbito de
validez: hacer inferencias a partir de lo que ha sido observado o experimentado.
Ander-Egg E, “Técnicas de investigación social” Hvmanitas, Buenos Aires, 1987, pág. 44-45.
085.
MODA
"Llamada también módulo, modo, valor prevalente, promedio típico, valor dominante, etc.,
es la medida de posición que nos da la magnitud del valor que se presenta con más
frecuencia en una serie. Dicho en otras palabras: se trata del valor de la variable que tiene
mayor frecuencia absoluta".
Ander-Egg E., Técnicas de investigación social, Buenos Aires, Hvmanitas, 1987, 21 edición, pág. 364.
086.
MUESTRA
Parte de una población que está disponible, o que se selecciona expresamente para el
estudio de la población.
La muestra es un subgrupo de la población –previamente delimitada- y puede ser
probabilística o no probabilística. El elegir qué tipo de muestra se requiere depende de los
objetivos del estudio y del esquema de investigación. Para seleccionar la muestra, lo
primero que se tiene que plantear es el quiénes van a ser medidos, lo que corresponde a
definir la unidad de análisis –personas, organizaciones o periódicos-. Se procede después a
delimitar claramente la población con base en los objetivos del estudio y en cuanto a
características de contenido, de lugar y en el tiempo.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 8: Cómo seleccionar la muestra?, pág. 233.
087.
MUESTRA NO PROBABILÍSTICA
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
223
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Las muestras no probabilísticas pueden también llamarse muestras dirigidas, pues la
elección de sujetos u objetos de estudio depende del criterio del investigador.
Las muestras dirigidas pueden ser de varias clases:
1.
Muestra de sujetos voluntarios –frecuentemente utilizados con diseños experimentales
y situaciones de laboratorio.
2.
Muestra de expertos –frecuentemente- utilizados en estudios exploratorios.
3.
Muestra de sujetos tipo –o estudio de casos-, utilizados en estudios cuantitativos y
motivacionales y
4.
Muestreo por cuotas –frecuentes- en estudios de opinión y mercadotecnia. Las
muestras dirigidas son válidas en cuanto a que un determinado diseño de investigación
así lo requiere, sin embargo los resultados son generalizables a la muestra en sí o a
muestras similares. No son generalizables a una población.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 8: Cómo seleccionar la muestra?, pág. 233.
088.
MUESTRA PROBABILÍSTICA
Las muestras probabilísticas son esenciales en los diseños de investigación por encuestas
donde se pretenden generalizar los resultados a una población. La característica de este
tipo de muestra, es que todos los elementos de la población tienen al inicio la misma
probabilidad de ser elegidos, de esta manera los elementos muestrales tendrán valores muy
aproximados a los valores de la población, ya que las mediciones del subconjunto, serán
estimaciones muy precisas del conjunto mayor. Esta precisión depende del error de
muestreo, llamado también error estándar.
Para una muestra probabilística necesitamos dos cosas: determinar el tamaño de la muestra
y seleccionar los elementos muestrales en forma aleatoria.
El tamaño de la muestra se calcula con base a la varianza de la población y la varianza de la
muestra. Esta última expresada en términos de probabilidad de ocurrencia. La varianza de la
población se calcula con el cuadrado del error estándar, el cual determinamos. Entre menor
sea el error estándar, mayor será el tamaño de la muestra.
Las muestras probabilísticas pueden ser: simples, estratificadas y por racimos. La
estratificación aumenta la precisión de la muestra e implica el uso deliberado de
submuestras para cada estrato o categoría que sea relevante en la población. El muestrar
por racimos implica diferencias entre la unidad de análisis y la unidad muestral. En este tipo
de muestreo hay una selección en dos etapas, ambas con procedimientos probabilísticos.
En la primera se seleccionan los racimos –escuelas, organizaciones, salones de clase- en la
segunda y dentro de los racimos a los sujetos que van a ser medidos.
Los elementos muestrales de una muestra probabilística siempre se elijen aleatoriamente
para asegurarnos de que cada elemento tenga la misma probabilidad de ser elegido. Pueden
usarse tres procedimientos de selección:
1.
Tómbola,
2.
Tabla de números random y
3.
Selección sistemática.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
224
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Todo procedimiento de selección depende de listados, ya sea existentes o construidos ad
hoc. Listados pueden ser: el directorio telefónico, listas de asociaciones, listas de escuelas
oficiales, etc. Cuando no existen listas de elementos de la población se recurren a otros
marcos de referencia que contengan descripciones del material, organizaciones o sujetos
seleccionados como unidades de análisis. Algunos de estos pueden ser los archivos,
hemerotecas y los mapas.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 8: Cómo seleccionar la muestra?, pág. 233.
089.
MUESTREO
Procedimiento por el cual se selecciona una muestra de una población. Los procedimientos
de muestreo suelen clasificarse en probabilísticos, si cualquier elemento de la población
tiene las mismas probabilidades de ser incluido en la muestra, y no probabilísticos, en caso
contrario.
090.
MUESTREO ALEATORIO ESTRATIFICADO
“Se consideran diferentes estratos (por Ej., grupos de edad) y se extrae de cada uno de ellos
un número determinado de sujetos por un procedimiento aleatorio simple. Es más complejo
que el muestreo aleatorio simple, pero es muy útil si interesa obtener información de los
subgrupos, además de la global. En determinadas circunstancias a igualdad de tamaño de la
muestra es más preciso que un muestreo aleatorio simple”.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 70.
091.
MUESTREO ALEATORIO SIMPLE
“Se enumeran todos los elementos del universo y se eligen los integrantes de la muestra
siguiendo una tabla de números aleatorios. Este procedimiento es simple y seguro a la hora
de evitar sesgos”.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 70.
092.
MUESTREO NO ALEATORIO
“Cualquier procedimiento en que la elección de los sujetos no sea debida al azar. Las
posibilidades de sesgar la muestra son muy grandes y lo que es más grave, no pueden
estimarse”.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 70.
093.
MUESTREO POLIETÁPICO
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
225
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
“Es una combinación encadenada de otros tipos de muestreo aleatorio y se utiliza en los
muestreos muy grandes. Es complejo y requiere para la interpretación de los resultados
transformaciones únicamente disponibles en programas muy específicos”.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 70.
094.
MUESTREO POR CONGLOMERADOS
“Para evitar numerar la población y la dispersión geográfica de la muestra a evaluar se
eligen conglomerados (por ej, bloques de viviendas en lugar de personas). Es un método
muy económico para grandes muestras, pero da lugar a estimaciones menos precisas que
el muestreo aleatorio simple. Generalmente se halla incluido en un procedimiento
polietápico”.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 70.
095.
NIVEL DE CONFIANZA
“Porcentaje de posibilidades de que sea cierta nuestra afirmación. Se considera aceptable a
partir del 95%. A igualdad de los restantes parámetros, un incremento en el nivel de
confianza implica aumento del intervalo de confianza. Es decir, si se quiere mayor seguridad
en la afirmación hay que ser menos preciso en la estimación”.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 70.
096.
NIVEL DE SIGNIFICACIÓN
El nivel de significancia y el intervalo de confianza son niveles de probabilidad de cometer
un error o equivocarse en la prueba de hipótesis o la estimación de parámetros. Los niveles
más comunes en ciencias sociales son los del .05 y .01.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 10: Análisis de los datos, pág. 429.
097.
OBSERVACIÓN PARTICIPANTE
Procedimiento para la recolección de datos en el cual el investigador se introduce en el
medio natural y dedica buen tiempo a notar y observar lo que allí sucede, y a veces a
interactuar con las personas que estudia”.
Vander Zanden James, Manual de Psicología Social, Barcelona, Paidós, 1986, pág. 623.
La “observación participativa es un método para conducir la investigación descriptiva en el
cual el investigador se convierte en un participante de la situación a fin de comprender
mejor la vida de ese grupo”.
Woolfolk A (1996) “Psicología educativa”, México, Prentice-Hall Hispanoamericana SA, pág. 14.
098.
PARÁMETRO
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
226
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Valor numérico que describe las características de una población completa, representado
generalmente por letras griegas. Ejemplos: media aritmética poblacional, desvío standard
poblacional.
Levin R y Rubin D (1996) Estadística para administradores. Prentice Hall, Sexta edición.
099.
PERCENTIL
Un percentil o "punto percentil es el valor sobre la escala de medida, debajo del cual cae un
porcentaje dado de los datos de la distribución".
Pagano R., Estadística para las ciencias del comportamiento, México, International Thomson Editores, 1999, 5ta. Edición, pág. 43.
100.
POBLACIÓN
En el lenguaje cotidiano, este término suele empleárselo en su sentido demográfico; por
ejemplo, población como cantidad de habitantes de un país. En el lenguaje estadístico, el
término designa mas bien un conjunto de datos (ver Datos). Por ejemplo, el conjunto de
edades de todos los habitantes del Departamento de La Paz es una población. También es
una población el conjunto de calificaciones obtenidas por una persona a lo largo de sus
estudios universitarios.
101.
POLÍGONO DE FRECUENCIA
Se obtiene conectando los puntos medios de cada intervalo de un histograma de
frecuencias acumuladas con segmentos rectilíneos.
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998.
102.
PRECISIÓN
En metodología de la investigación, precisión y exactitud se consideran sinónimos. La
precisión o exactitud es una característica del proceso de medición: hay mediciones más
precisas o exactas y mediciones menos precisas o exactas. En principio, una medición es
tanto más precisa o exacta cuanta mayor información nos suministra sobre la variable a
medir. Por ejemplo, decir que una persona mide 168 cm. es menos preciso (da menos
información) que decir que tiene 168,3 cm.
Habida cuenta de que hay maneras más precisas y menos precisas de medir variables,
Stevens estableció en 1948 cuatro niveles de medición en orden de precisión creciente:
nominal, ordinal, de intervalos iguales y de cocientes o razones. Posteriormente, Coombs
agregó otros niveles intermedios: la escala parcialmente ordenada y la escala métrica
ordenada.
103.
PROBABILIDAD
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
227
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Es el conjunto de posibilidades de que un evento ocurra o no en un momento y tiempo
determinado. Dichos eventos pueden ser medibles a través de una escala de 0 a 1, donde el
evento que no pueda ocurrir tiene una probabilidad de 0 y uno que ocurra con certeza es de
1.
Ejemplo: Cuando se lanza una moneda, se desea saber cual es la probabilidad de que se
sello o cara, es decir existe un 0,5 (50%) de que sea cara o 0,5 (50%) de que sea sello.
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998.
104.
PROBLEMA DE INVESTIGACIÓN
“Ámbito de la investigación para el que la Ciencia no tiene todavía una solución
satisfactoria”.
León O y Montero I, “Diseño de investigaciones”, Introducción a la lógica de la investigación en psicología y educación, McGraw Hill,
Madrid, 1995, pág. 22.
i.
Plantear el problema de investigación es afinar y estructurar más formalmente la idea de
investigación, desarrollando tres elementos: objetivos de investigación, preguntas de
investigación y justificación de ésta. Los tres elementos deben ser capaces de guiar a una
investigación concreta y con posibilidad de prueba empírica.
ii.
Los objetivos y preguntas de investigación deben ser congruentes entre sí e ir en la misma
dirección.
iii. Los objetivos establecen qué pretende la investigación, las preguntas nos dicen que
respuestas deben encontrarse mediante la investigación y la justificación nos indica porqué
debe hacerse la investigación.
iv. Los criterios principales para evaluar el valor potencial de una investigación son: conveniencia,
relevancia social, implicaciones prácticas, valor teórico y utilidad metodológica. Además debe
analizarse la viabilidad de la investigación y sus posibles consecuencias.
v.
El planteamiento de un problema de investigación científico no puede incluír juicios morales o
estéticos. Pero debe cuestionarse si es o no ético llevarlo a cabo.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 2: Planteamiento del problema, pág. 17.
105.
PROCEDIMIENTO
“Plan de actuación del investigador a la hora de recoger los datos en el que se detallan los
aspectos relativos a instrumentos utilizados, medidas empleadas, unidades de observación,
pasos seguidos, etc.”.
León O y Montero I, “Diseño de investigaciones”, Introducción a la lógica de la investigación en psicología y educación, McGraw Hill,
Madrid, 1995, pág. 22.
106.
PRUEBA ESTADÍSTICA
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
228
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
i.
El uso de las pruebas estadísticas en investigación. Para decidir con objetividad si una
hipótesis es confirmada por un conjunto de datos, se utiliza un procedimiento que, por lo
común, tiene los siguientes pasos:
a.
Hipótesis de nulidad. Formulación de la hipótesis de nulidad (Ho), que se formula con la
idea de ser rechazada. Si los datos nos permiten rechazarla, entonces corroboramos
nuestra hipótesis alterna (H1), que es la hipótesis de investigación que queremos poner a
prueba.
b.
Elección de la prueba estadística. Elección de una prueba estadística adecuada para
probar Ho. Debemos decidirnos entre una prueba paramétrica o una no paramétrica.
c.
Nivel de significación y tamaño de la muestra.- Especificación del nivel de significación
(a) y del tamaño de la muestra (N). El nivel de significación lo establecemos de antemano,
y define el riesgo de error que estamos dispuestos a aceptar. Por ejemplo, un a = 0.01
significa que la probabilidad de error aceptable es 0.01 (el 1%). Esto se llama Error Tipo I
(rechazar Ho siendo verdadera), pero también está el Error Tipo II (aceptar Ho siendo
falsa).
La potencia de una prueba estadística mide la probabilidad de rechazar acertadamente la
Ho (o sea cuando es falsa). En términos generales, la potencia de una prueba aumenta al
aumentar el tamaño de la muestra (N).
d.
Distribución muestral. Encuentro (o suposición) de la distribución muestral de la prueba
estadística conforme a Ho. Conociendo la distribución muestral, podemos hacer
aseveraciones de probabilidad acerca de la ocurrencia de ciertos valores numéricos que
nos interesan.
e.
Región de rechazo. En base a 2, 3 y 4, definición de la región de rechazo. La región de
rechazo es una zona de la distribución muestral, y contiene todos los valores posibles
conforme a Ho.
f.
Decisión. Cálculo del valor de la prueba estadística con los datos obtenidos de la (s)
muestra (s). Si ese valor cae dentro de la región de rechazo de la hipótesis nula, ésta
debe rechazarse; si cae fuera de dicha región, la hipótesis nula no puede rechazarse al
nivel de significación escogido.
ii. Elección de la prueba estadística adecuada. Los siguientes factores intervienen en la
determinación de qué prueba estadística será la más adecuada para analizar datos de una
investigación en particular:
a.
Potencia de la prueba.
b.
Forma de obtención de la muestra de puntajes.
c.
Naturaleza de la población de la que se extrajo la muestra.
d.
Tipo de escala de medición usada para los puntajes. Respecto de esto último, las
operaciones permitidas con un conjunto de puntajes dado dependen del nivel de medida
que se logre. El siguiente esquema indica cuatro niveles de medida, así como las
operaciones, estadísticas y pruebas estadísticas permitidas en cada nivel.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
229
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
RELACIONES
DEFINIDAS
ESCALA
NOMINAL
ORDINAL
INTERVALO
•
Equivalencia
•
Equivalencia
•
Orden
•
Equivalencia
•
Orden
•
Proporción conocida
de un intervalo a
cualquier otro
•
Equivalencia
•
Orden
•
Proporción conocida
de un intervalo a
cualquier otro
PROPORCION
•
EJEMPLOS DE ESTADÍSTICAS
APROPIADAS
•
Modo
•
Frecuencia
•
Coeficiente de contingencia
•
Mediana
•
Percentiles
•
Spearman rs
•
Kendall r
•
Kendall W
•
Media
•
Desviación stándard
•
Correlación del productomomento de Pearson
•
Correlación del múltiple
momento-producto
•
Media geométrica
•
Coeficiente de variación
PRUEBAS ESTADÍSTICAS
APROPIADAS
Pruebas estadísticas no
paramétricas
Idem anterior
Pruebas estadísticas
paramétricas y no paramétricas
Idem anterior
Proporción conocida
de un valor a
cualquier otro
Siegel S, Estadística no paramétrica. Aplicada a las ciencias de la conducta.
107.
PRUEBA NO PARAMÉTRICA
Los análisis o pruebas estadísticas no paramétricas más utilizadas son:
PRUEBA
TIPOS DE HIPÓTESIS
Ji-cuadrada (x²)
Diferencia de grupos para establecer correlación
Coeficientes de correlación e independencia para
tabulaciones cruzadas: Phi, C de Pearson, V de
Cramer, Lambda, Gamma, Taub, D de Somers y Eta.
Correlacional
Coeficientes Spearman y Kendall
Correlacional
Las pruebas no paramétricas se utilizan con variables nominales u ordinales.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 10: Análisis de los datos, pág. 429.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
230
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
108.
PRUEBA PARAMÉTRICA
Los análisis o pruebas estadísticas paramétricas más utilizadas son:
PRUEBA
TIPOS DE HIPÓTESIS
Coeficiente de correlación de Pearson
Correlacional
Regresión lineal
Correlacional
Causal
Prueba “t”
Diferencia de grupos
Contraste de la diferencia de proporciones
Diferencia de grupos
Análisis de varianza (ANOVA): unidireccional y
factorial, unidireccional con una variable
independiente y factorial con dos o más variables
independientes
Diferencia de grupos
Causal
Análisis de co-varianza (ANCOVA)
Correlacional
Causal
En todas las pruebas estadísticas paramétricas las variables están medidas en un nivel por
intervalos o razón.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 10: Análisis de los datos, pág. 429.
109.
PUNTAJE Z
Un puntaje z "es un dato transformado que designa a cuántas unidades de desviaciones
estándar por arriba o por debajo de la media se encuentra un dato en bruto". Pueden
resaltarse tres características de los puntajes z: 1) los puntajes z tienen la misma forma que
el conjunto de datos en bruto; 2) la media de los puntajes z siempre es igual a cero; 3) la
desviación estándar de los datos z siempre es igual a uno.
Pagano R., Estadística para las ciencias del comportamiento, México, International Thomson Editores, 1999, 5ta. edición, págs. 84-87.
Las puntuaciones “z” son transformaciones de los valores obtenidos a unidades de
desviación estándar.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 10: Análisis de los datos, pág. 429.
110.
RECOLECCIÓN DE DATOS
Recolectar los datos implica seleccionar un instrumento de medición disponible o
desarrollar uno propio, aplicar el instrumento de medición y preparar las mediciones
obtenidas para que puedan analizarse correctamente.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 9: Recolección de los datos, pág. 338.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
231
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
111.
REGRESIÓN
"Tema que analiza la relación entre dos o más variables para determinar una predicción".
Pagano R., Estadística para las ciencias del comportamiento, México, International Thomson Editores, 1999, 5ta. edición, págs. 127.
112.
REGRESIÓN LOGÍSTICA
Similar a la correlación múltiple, “pero la variable a predecir es la probabilidad de un
suceso”.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 75.
113.
REPLICABILIDAD
“Característica propia del método científico consistente en que los hallazgos de un
investigador puedan ser obtenidos por cualquier otro colega que utilice el mismo método”.
León O y Montero I, “Diseño de investigaciones”, Introducción a la lógica de la investigación en psicología y educación, McGraw Hill,
Madrid, 1995, pág. 22.
114.
SESGO
Grado en que una distribución de puntos está concentrada en un extremo o en el otro; falta
de simetría. Asimetría en distribuciones de frecuencias no simétricas.
Levin R y Rubin D (1996) Estadística para administradores. Prentice Hall, Sexta edición.
115.
SOCIOMETRÍA
“Método objetivo para evaluar criterios de atracción, rechazo o indiferencia que operan
entre los miembros de un grupo”.
Vander Zanden James, Manual de Psicología Social, Barcelona, Paidós, 1986, pág. 626.
116.
TAMAÑO DE LA MUESTRA
Es la cantidad de datos que serán extraídos de la población para formar parte de la muestra.
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998.
117.
TASA
Una tasa es la relación entre el número de casos de una categoría y el número total de
casos, multiplicada por un múltiplo de 10.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 10: Análisis de los datos, pág. 429.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
232
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
118.
TÉCNICA
“El método no basta ni es todo; se necesitan procedimientos y medios que hagan
operativos los métodos. A este nivel se sitúan las técnicas. Estas, como los métodos, son
respuestas al ‘como hacer’ para alcanzar un fin o resultado propuesto, pero se sitúan a nivel
de los hechos o de las etapas prácticas que, a modo de dispositivos auxiliares, permiten la
aplicación del método, por medio de elementos prácticos, concretos y adaptados a un
objeto bien definido”.
Ander-Egg E, “Técnicas de investigación social” Hvmanitas, Buenos Aires, 1987, pág. 42.
119.
TEORÍA
“Manera de conferir sentido a un conjunto confuso de datos mediante una construcción
simbólica; la red que tendemos para atrapar al mundo de la observación”.
Vander Zanden James, Manual de Psicología Social, Barcelona, Paidós, 1986, pág. 626.
“Conjunto de hipótesis relacionadas que ofrecen una explicación verosímil de un fenómeno
o grupo de fenómenos”.
León O y Montero I, “Diseño de investigaciones”, Introducción a la lógica de la investigación en psicología y educación, McGraw Hill,
Madrid, 1995, pág. 23.
Una teoría –de acuerdo con F Kerlinger- es un conjunto de conceptos, definiciones y
proposiciones vinculadas entre sí, que presentan un punto de vista sistemático de
fenómenos especificando relaciones entre variables, con el objeto de explicar y predecir los
fenómenos.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 3: La elaboración del marco teórico: revisión de la literatura y construcción de una perspectiva teórica, pág. 54.
120.
TESIS EMPÍRICA
“Una tesis empírica, estudia el comportamiento de una teoría, hipótesis o variables
seleccionadas por el investigador contrastándola con hechos positivos. Puede estudiar
también la búsqueda de relaciones a partir de la observación, control y registro del
comportamiento de una o más variables seleccionadas. El investigador empírico prioriza la
obtención de datos o fenómenos en la realidad estudiada a través de instrumentos propios
de su disciplina (test, cuestionarios, inventarios, etc.) y de una metodología apropiada
(diseños experimentales, investigación cualitativa, observación de campo, análisis de
discurso, estudios etnográficos, entrevistas, etc.)”.
Droppelmann A (coordinador Escuela de Psicología) (2002), Procedimientos para la elaboración de proyecto y tesis de grado y
proceso de titulación (Reglamento interno).
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
233
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
121.
TESIS TEÓRICA
“Una Tesis teórica, es un tipo de investigación que tiene como objeto de estudio conceptos,
teorías, modelos, leyes o hipótesis propias del campo y de la tradición psicológica. Su
desarrollo y operaciones se basan en la búsqueda de nuevas relaciones, en la generación
de hipótesis, el análisis y la discusión critica de algún concepto o variable de una teoría.
Una investigación teórica enfatiza la interpretación de los conceptos, la aclaración y
profundización de enunciados, el estudio del alcance y consecuencias de las teorías,
modelos y conceptos al interior de la tradición psicológica. Para el desarrollo de la
investigación se deben recopilar antecedes e información extraída fundamentalmente de
material bibliográfico. Sin embargo una tesis teórica no se reduce solo a la revisión
bibliográfica sino que debe procurar establecer relaciones, proponer lecturas y examinar
críticamente el material recopilado”.
Droppelmann A (coordinador Escuela de Psicología) (2002), Procedimientos para la elaboración de proyecto y tesis de grado y
proceso de titulación (Reglamento interno).
122.
UNIDAD DE ANÁLISIS
Elemento de una población en tanto se lo considera como poseedor de ciertas propiedades,
atributos o características denominadas variables. Por ejemplo:
i.
las personas son unidades de análisis si consideramos su edad, su sexo, su
inteligencia, su salario o la cantidad de sillas que posee, como variables;
ii.
las sillas son unidades de análisis si consideramos su precio, su color o su estado
como variables;
iii. los colores son unidades de análisis si consideramos su tono o su longitud de onda
como variables.
123.
UNIVERSO
“Población de la que se ha extraído la muestra y a la que quieren hacerse extensivos los
resultados”.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 70.
124.
VALIDEZ
Un test, y, en general cualquier instrumento de medición “debe ser válido, o sea que mida lo
que supuestamente quiere medir. A veces es suficiente una validez de contenido, es decir,
que mida lo que pretende medir. En otros casos se evalúa la validez de un test
comparándolo con otros tests que miden lo mismo, y en otros casos se aplica la validez
predictiva, según la cual un test es válido si puede predecir una puntuación en el futuro”.
Myers David, Psicología, Editorial Médica Panamericana, Madrid, 3° edición, pág. 319.
La validez se refiere al grado en que el instrumento de medición mide realmente la(s) variable(s)
que pretende medir. Se pueden aportar tres tipos de evidencia para la validez: evidencia
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
234
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
relacionada con el contenido, evidencia relacionada con el criterio y evidencia relacionada con el
constructo.
Los factores que principalmente pueden afectar la validez son: improvisación, utilizar instrumentos
desarrollados en el extranjero y que no han sido validados a nuestro contexto, poca o nula
empatía, factores de aplicación.
La validez de contenido se obtiene contrastando el universo de ítems contra los ítems presentes en
el instrumento de medición. La validez de criterio se obtiene comparando los resultados de aplicar
el instrumento de medición contra los resultados de un criterio externo. La validez de constructo se
puede determinar mediante el análisis de factores.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 9: Recolección de los datos, pág. 338.
125.
VALIDEZ INTERNA
i.
Para lograr el control o la validez interna los grupos que se comparen deben ser iguales
en todo, menos en el hecho de que a un grupo se le administró el estímulo y al otro no.
A veces graduamos la cantidad del estímulo que se administra, es decir, a distintos
grupos (semejantes) les administramos diferentes grados del estímulo para observar si
provocan efectos distintos.
ii.
La asignación al azar es –normalmente- el método preferible para lograr que los grupos
del experimento sean comparables (semejantes).
iii. Hay nueve fuentes de invalidación interna: historia, maduración, inestabilidad,
administración de pruebas, instrumentación, regresión, selección, mortalidad,
interacción entre selección y maduración.
iv. Los experimentos que hacen equivalentes a los grupos y que mantienen esta
equivalencia durante el desarrollo de aquellos, controlan las fuentes de invalidación
interna.
v.
Lograr la validez interna es el objetivo metodológico y principal de todo experimento.
Una vez que se consigue es ideal alcanzar validez externa (posibilidad de generalizar los
resultados a la población, otros experimentos y situaciones no experimentales).
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 6: Diseños experimentales de investigación, pág. 182.
126.
VARIABLE
Propiedad, atributo o característica de una unidad de análisis, susceptible de adoptar
diferentes valores o categorías. Un mismo elemento puede ser entendido como una unidad
de análisis o como una variable. Por ejemplo, un sonido en tanto 'propiedad de algo' es una
variable (por ejemplo propiedad de un sonajero), pero en tanto 'elemento que tiene una
propiedad' es una unidad de análisis (por ejemplo el sonido tiene altura, intensidad o
timbre). Los valores o categorías de la variable pueden variar tanto entre sujetos, como en el
mismo sujeto a lo largo del tiempo
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
235
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
127.
VARIABLE DEPENDIENTE
“Factor que resulta afectado dentro de un marco experimental; aquello que ocurre o cambia
como resultado de la manipulación de otro factor (la variable independiente)”.
Vander Zanden James, Manual de Psicología Social, Barcelona, Paidós, 1986, pág. 628.
“En un sentido general, fenómeno que se pretende explicar con una hipótesis”.
León O y Montero I, “Diseño de investigaciones”, Introducción a la lógica de la investigación en psicología y educación, McGraw Hill,
Madrid, 1995, pág. 23.
“Es la variable sobre la que se quiere analizar los efectos de las variables independientes”.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 73.
128.
VARIABLE EXTRAÑA
Son todas aquellas variables que el investigador no controla directamente, pero que pueden
influir en el resultado de su investigación. Deben ser controladas, hasta donde sea posible,
para asegurarnos de que los resultados se deben al manejo que el investigador hace de la
variable independiente, más no a variables extrañas, no controladas. Algunos métodos para
realizar este control son los siguientes:
i.
Eliminación: Cuando sabemos que existe una variable extraña que puede alterar los
resultados de la investigación, podemos controlarla mediante la eliminación.
ii.
Constancia de condiciones: Si, por ejemplo, en un estudio experimental deseamos estudiar
dos o más grupos de sujetos, éstos se deben someter exactamente a las mismas condiciones,
tanto físicas como de lugar, manteniendo, de esta manera, constantes las circunstancias bajo
las cuales se investiga.
iii. Balanceo: Cuando tenemos una variable extraña puede influir de manera definitiva en nuestro
estudio y, si no la podemos eliminar ni igualar las condiciones de los grupos, deberemos
recurrir al balanceo. Este mecanismo distribuye en forma equitativa la presencia de la variable
extraña entre los grupos.
iv. Contrabalanceo: En algunas investigaciones se pide a los sujetos que respondan varias
veces a un mismo estímulo o a varios estímulos diferentes. Esta serie de respuestas puede
provocar en los mismos dos reacciones: por un lado, fatiga, porque los sujetos se cansan de
estar respondiendo; por otro lado, aprendizaje, ya que después de presentar 2 o 3 veces el
mismo estímulo el sujeto ya sabe cómo responder. Para evitar estos problemas, los grupos se
pueden subdividir en subgrupos para que los efectos de la fatiga y/o aprendizaje queden
anulados.
v.
Aleatorización: Este método de control es uno de los más sencillos y más utilizados en
ciencias sociales, sobre todo cuando se llevan a cabo estudios experimentales. Se parte del
postulado de que si la selección y distribución de sujetos en grupos de control fue hecha al
azar, podemos inferir que las variables extrañas, desconocidas por el investigador, se habrán
repartido también al azar en ambos grupos, y así quedarán igualadas.
Pick S y López A.L, (1998), Cómo investigar en ciencias sociales. Buenos Aires: Trillas.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
236
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
Algunas técnicas de control de variables extrañas son las siguientes:
a.
Aleatorización.
b.
Grupos apareados: emparejamiento.
c.
Grupos formados por distribución de frecuencias: con la misma media y desvío.
d.
Grupos idénticos: el mismo grupo, antes y después de la exposición a x.
Estas variables adicionales o extrañas pueden estar ejerciendo su influencia de tres maneras
distintas, de donde podemos decir que habrá tres tipos de variables adicionales, tal como se
muestra en el siguiente esquema:
Hyman H, Diseño y análisis de las encuestas sociales, pág. 351
En los tres esquemas estamos utilizando la siguiente notación:
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
237
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
X = Variable Independiente
Y = Variable Dependiente
Z = Variable Extraña
En el primero, se puede apreciar que Z actúa como Variable Antecedente cuando ocurre
cronológicamente antes de X; en el segundo esquema Z actúa como Variable Interviniente
cuando ocurre después de X; y por último, en el tercero, que Z actúa como Variable Contextual o
Variable Moderante como más se utiliza en nuestro medio, cuando ocurre al mismo tiempo
(simultáneamente) que X.
129.
VARIABLE INDEPENDIENTE
“Factor manipulado en un marco experimental; factor causal o condición determinante de la
relación que se estudia”.
Vander Zanden James, Manual de Psicología Social, Barcelona, Paidós, 1986, pág. 628.
“En forma general, factor que se considera explicación del fenómeno que se está
estudiando”.
León O y Montero I, “Diseño de investigaciones”, Introducción a la lógica de la investigación en psicología y educación, McGraw Hill,
Madrid, 1995, pág. 23.
“Variable cuya influencia sobre la dependiente se quiere estudiar. En los estudios
experimentales se halla bajo el control directo del investigador (de ahí su nombre). En los
observacionales los sujetos se asignan a diferentes grupos sobre la base de su valor. En
este tipo de situaciones quizá sea más apropiado denominarla ‘predictor’, y ‘criterio’ a la
variable dependiente”.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 73.
Muy genéricamente, entonces, una Variable Adicional es aquella de la cual sospechamos que
puede estar ejerciendo influencia causal sobre Y, con lo cual resulta que no es X el único factor
causal pero sí el único que nos interesa. En un esquema multivariado también habrá que controlar
otros posibles factores z, mientras investigamos sólo los que nos interesan en ese momento (X1,
X2, X3, etc.).
NOTA FINAL DEL CAPÍTULO.
El presente Capítulo correspondiente al Glosario de Estadística, tiene la sola
intención de plantear la terminología básica de la Ciencia de la Estadística y de
ninguna manera pretende ser un compendio completo de los conceptos de esta
ciencia.
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
238
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
VI. BIBLIOGRAFÍA
Se debe destacar que la siguiente relación Bibliográfica contiene referencia a volúmenes, que no
necesariamente se han incorporado en las notas aclaratorias de algunos artículos del presente
volumen, de forma tal que si es que el eventual lector desee una relación completa, deberá, al
menos, revisar todo el trabajo; de esta manera intento conseguir que algunos de los ocasionales
lectores o consultores de este trabajo, se tomen la tarea de revisarlo todo.
A. Bibliografía de EPISTEMOLOGÍA
01. Aron Raymond, Las etapas del pensamiento sociológico. Buenos Aires, Ed. Ateneo, 1998
02. Bastide Qué es estructura? Incluído en Bastide y otros, Sentidos y usos del término
estructura. Buenos Aires, Ed. Paidós, 1968.
03. Celener Graciela, Fundamentos teóricos para la inclusión de láminas en blanco (Ort-Tat),
publicación interna de la Cátedra de Técnicas psicodiagnósticas II de la Facultad de
Psicología de la Universidad de Buenos Aires, 1996.
04. Feyerabend Paul, Adiós a la razón, Ed. Ateneo, 2002
05. Hempel K, Filosofía de la ciencia natural. Madrid: Alianza, 3° edición, 1977
06. Kuhn Thomas. La estructura de las revoluciones científicas. Madrid: Fondo de Cultura
Económica, 1975.
07. O’Neil W, “Introducción al método en psicología”, Eudeba, Buenos Aires, 1968.
08. Rodríguez de Rivera J, Epistemología o Teoría de la Ciencia y Reflexión Crítica sobre los
Fundamentos de las Ciencias de la Organización, Universidad de Alcalá,2000
09. Russell B, La perspectiva científica, Sudamericana, Ed. Trillas, 1986.
10. Usher R y Bryant I, La educación de adultos como teoría, práctica e investigación. El triángulo
cautivo. Morata, Madrid, 1999
11. Vera María Teresa, "El aprendizaje por resolución de problemas", incluído en Sanjurjo L. y
Vera M., "Aprendizaje significativo y enseñanza en los niveles medio y superior", Rosario,
Homo Sapiens Ediciones, 1995.
B.
01.
02.
03.
04.
05.
06.
07.
08.
09.
Bibliografía de LÓGICA
Bochenski, "Los métodos actuales del pensamiento", Barcelona, Ed. Ariel, 2003
Bunge Mario, "La investigación científica: su estrategia y su filosofía", Barcelona, Ariel, 1969
Cazau Pablo, "Acerca de la inteligencia lógica" El Observador N°17, 2001
Cazau Pablo, "Identidad (I)" El Observador N°3, 2000
Cazau Pablo, "La dialéctica como estrategia de investigación", El Observador, N°16, 1999
Cazau Pablo, "La síntesis kantiana", El Observador Psicológico, Tomo I, N°5, 1979
Cazau Pablo, "Lenguaje y metalenguaje", El Observador Psicológico, Tomo I, N° 3, 1997.
Cazau Pablo, "Psicología, Derecho y Etica", El Observador Psicológico, Tomo 2, N°22, 2003
Colacilli de Muro M y J, "Elementos de lógica moderna y filosofía", Buenos Aires, Estrada,
1979,
10. Copi Irving, "Introducción a la lógica", Buenos Aires, Eudeba, 1974, 15° edición
11. Fatone Vicente, "Lógica e Introducción a la filosofía", Buenos Aires, Kapelusz, 1969, 9°
edición.
12. Ferrater Mora José, "Diccionario de Filosofía", Madrid, Alianza, 1979
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
239
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
13. Ferrater Mora J, "Lógica Matemática", México, FCE, 1975.
14. Hunter Geoffrey, "Metalógica: Introducción a la metateoría de la lógica clásica de primer
orden", Madrid, Paraninfo, 1981.
15. Moreno A, "Lógica matemática: antecedentes y fundamentos", Buenos Aires, Eudeba, 1971.
16. Nudler T y O, "Elementos de lógica simbólica", Buenos Aires, Kapelusz, 2003
17. Popper K., "La lógica de la investigación científica", Madrid, Tecnos, 2002.
18. Prior Arthur, "Historia de la lógica", Madrid, Editorial Tecnos, 1996.
19. Quine W, "Filosofía de la lógica", Madrid, Alianza Editorial, 2000.
20. Salama Alicia, "Lógica simbólica y elementos de metodología de la ciencia", Buenos Aires, El
Ateneo, 2004, 6° edición.
21. Strawson P, "Introducción a una teoría de la lógica", Buenos Aires, Nova, 1999.
C. Bibliografía de TEORÍA GENERAL DE SISTEMAS
01. Ashby W. Ross, "Sistemas y sus Medidas de Información", Ed. Alianza, Madrid, 1999
02. Buckey Walter, "La Epistemología vista a través de la Teoría General de Sistemas” Ed.
Alianza, Madrid, 2004
03. Boulding K., “Teoría General de Sistemas: el Esqueleto de la Ciencia” Ed. Limusa, México,
1997
04. Churchman C. West, "El Futuro del Pasado. Estimación de Tendencias según la Teoría de
Sistemas” Ed. Alianza, Madrid, 1998
05. Hall A. D., "Ingeniería de Sistemas ", Ed. CECSA, México, 2000
06. Hammer Preston C., "Las Matemáticas y la Teoría de Sistemas” Ed. Alianza, Madrid, 2001
07. Johansen B. Oscar, "Introducción a la Teoría General de Sistemas ", Ed. Limusa, México, 2000
08. Klir J. George, "Teoría Polifónica General de Sistemas", Ed. Alianza, Madrid, 1992
09. L.Von Bertalanffy, "Teoría General de Sistemas ", Ed. Adison Wesley, New York, 1999
10. L.Von Bertalanffy, "Teoría General de Sistemas, Una Revisión Crítica", Ed. Adison Wesley,
New York, 2001
11. L.Von Bertalanffy, "Historia y Situación de la Teoría General de Sistemas ", Ed. Alianza,
Madrid, 1987
12. L.Von Bertalanffy, "Concepción Biológica del Cosmos ", Ed. Universitaria, Santiago de Chile,
2003
13. Milsum John H., "La Base Jerárquica por los Sistemas Generales Vivientes", Madrid, Alianza,
1989
14. Orchard Robert A., "Sobre un enfoque de la Teoría Generald e Sistemas” Ed. Alianza, Madrid,
2002
15. Repoport Anatol, "Los Usos del Isomorfismo Matemático en la Teoría General de Sistemas”,
Ed. Alianza, Madrid, 1990
16. Weinberg Gerald M., "Una Aproximación por Computadores a la Teoría General de Sistemas”,
Ed. Alianza, Madrid, 2004
D. Bibliografía de TEORÍA ESTADÍSTICA
01. Arnold S.F., "La Teoría de los Modelos Lineales y Análisis Multivariado” Ed. John Wiley &
Sons, New York, 1999
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
240
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
02. Ander-Egg E, “Técnicas de Investigación Social”, Ed. Humanitas, Buenos Aires, 1987,
03. Berenson M.L., "Conceptos y Aplicaciones de Estadística”, Ed. Prentice Hall, New Jersey,
1992
04. Bickel P.J. y Doksum K.A., “Estadística Matemática: Ideas Básicas y Tópicos Seleccionados”,
Ed. Holden Day, San Francisco, 1987.
05. Cox D.R. y Snell E.J., ”Estadística Aplicada” Ed. Chapman & Hall, Londres, 2002
06. Fiemberg S.E., “El Análisis de Cruce y Clasificación Categòrica de Datos”, Ed. MIT Press,
Massachusetts, 2002
07. Fox J., “Modelos Estadísticos Lineales y Métodos Relacionados”, Ed. John Wiley & Sons, New
York, 1999
08. Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”,
México, McGraw-Hill, 2002.
09. León O y Montero I, “Diseño de investigaciones”, Ed. McGraw Hill, Madrid, 1995
10. Mc Cullagh P. y Nelder J.A., "Modelos Lineales Generalizados” Ed. Chapman & Hall, Londres,
2000
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
241
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
VII. NOTA FINAL
Al concluir este trabajo, apelo a todas aquellas personas que por cualquier
razón revisaren su contenido, tengan la gentileza de:
•
CRITICARLO, mejor si inmisericordemente
•
CORREGIRLO, puesto que es de suponer que se trata de un trabajo en
el cual, como casi invariablemente, me reservo el derecho de estar
equivocado.
•
AUMENTARLO,
puesto que indiscutiblemente se trata de un
documento incompleto
•
Y, por último,
hacerlo.
DIFUNDIRLO,
si es que en su criterio vale la pena
Desde luego, hacerme llegar sus críticas, sus correcciones, sus adiciones y sus
comentarios.
Anticipadamente, muchas gracias.
La Paz, Julio de 2005
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
242
Descargar