(Módulo 5, “Introducción al conocimiento científico”, Material de

Anuncio
1
(Módulo 5, “Introducción al conocimiento científico”, Material
de lectura, Sistema UBA XXI, EUDEBA, 2da. ed., 1987, Buenos Aires. Texto
preparado sobre la base de “Ciencia, Cibernética y Sistemas”, de Ricardo V.
Guarinoni, Ricardo A. Guibourg.)
NUEVOS ENFOQUES METODOLÓGICOS:
CIENCIA, CIBERNÉTICA Y SISTEMA.
5.0. Introducción
(presentación de los temas de la unidad)
Luego de cursar las cuatro primeras unidades, el estudiante tiene ya
conciencia de la herramienta lingüística y conceptual, tiene una idea clara del
conocimiento, de los modos en que se lo adquiere y de los requisitos necesarios
para integrarlo al cuerpo científico. Ha pasado revista a los métodos de las ciencias
formales y a los de las ciencias empíricas, de modo que sabe ya como se hace la
ciencia en sus distintas variedades. Y por último, ha analizado la evolución de las
ciencias y examinado con alguna prevención el concepto mismo de progreso.
Pero el panorama no estaría completo si esta visión epistemológica no
incluyera un esbozo de los últimos avances en materia de enfoque científico. Es
curioso comprobar que quienes se ocupan de epistemología o filosofía de la ciencia
omiten generalmente referirse a la cibernética y a la teoría general de sistemas. Es
más: estas disciplinas son percibidas por el hombre de la calle como un mejunje
tecnológico que gira en derredor de las computadoras y al que se accede
normalmente comprándose un microordenador y concurriendo a uno de esos cursos
tan publicitados donde se enseña lenguaje Basic para principiantes. En muchos
rostros se lee la sorpresa cuando se insiste en que el enfoque sistémico es mucho
más que la computación, y que tiene mayor relación con la filosofía (vía
epistemología y metodología) que con la mera técnica.
Existe para esta ignorancia una razón histórica: la cibernética y la teoría
general de sistemas no fueron elaboradas por los filósofos, sino por especialistas de
ciencias particulares que enfrentaban problemas comunes y se unían para
analizarlos mediante un análisis interdisciplinario. Los autores de cibernética y
sistemas no desdeñaron la filosofía: por el contrario, numerosas obras muestran su
empeño en destacar su vínculo con ella. Pero no hubo una reacción simétrica de los
filósofos, que rara vez se sintieron dispuestos a examinar estos temas que, aunque
de alto interés, provenían de la ingeniería, de la biología o de la conducción
empresaria.
Nuestro curso de Introducción al Conocimiento Científico se propone tender
para el nuevo estudiante universitario y para la comunidad en general el necesario
puente entre epistemología y cibernética; y hacerlo, como hasta ahora, a partir de la
experiencia cotidiana y de los conceptos previamente estudiados.
Comenzaremos por examinar las dificultades de la ciencia actual y el modo
en que los nuevos enfoques metodológicos, unidos a los recientes adelantos de la
técnica, contribuyen a dar la respuesta necesaria. Para esto, en la sección 5.1 se
examinar n la diferencia y las relaciones entre computación e informática, por un
lado, y cibernética y teoría general de sistemas por el otro.
En la sección 5.2. se hablar de las computadoras, pero no para centrar el
interés en ellas sino para mostrar el tipo de razonamiento y de cálculo que subyace
a su funcionamiento, desarrollar la importante noción de modelo y desmitificar el
concepto de inteligencia artificial como contrapuesto al de inteligencia natural.
En la sección 5.3. hablaremos de la información: cómo se la transmite,
cómo se la mide, cuál es su relación con la incertidumbre y de qué modo el
concepto de información: excede el ámbito periodístico o discursivo para integrarse
al análisis de la naturaleza.
Por último, en la sección 5.4. examinaremos el concepto de sistema y la
constelación de nociones que gira en su derredor: allí veremos cómo cualquier
sector de la realidad que nos interese puede examinarse de acuerdo con un nuevo
esquema de interpretación y ser estudiado con una técnica particularmente
fructífera.
5.1. RESPUESTAS PARA LA CIENCIA DE HOY
5.1.1. Las dificultades de la ciencia actual
El siglo XIX se consideraba a sí mismo una revolucionaria síntesis de los
conocimientos humanos. Sin perder de vista el panorama de las artes ni renegar
de la cultura clásica, el hombre exploraría los ocultos rincones de la tierra,
dominaba la física, sistematizaba la química, perfeccionaba las matemáticas,
reinterpretaba la historia y fundaba las ciencias sociales; ponía a trabajar el vapor,
el gas y la electricidad; construía automóviles, ensayaba aeroplanos y soñaba, en
fin, con un progreso permanente que continuase en línea recta el camino hasta
entonces recorrido.
En lugar de ese progreso lineal y paulatino, el siglo XX provocó una
verdadera explosión. La expresión no vale sólo por las derivaciones bélicas de la
nueva tecnología, sino también por el aumento brusco y la creciente dispersión de
los conocimientos. La producción de saber científico se incrementó en forma
exponencial, al punto que ni siquiera los especialistas en cualquier disciplina
puedan jactarse de estar al tanto de las últimas novedades en su materia. La
proliferación de trabajos científicos, de revistas y de libros dedicados a las ciencias
es tal que se hace imposible obtener una visión de conjunto. Los tratados se
desactualizan durante su redacción, y las nuevas ideas aparecen, dispersas y
relativamente inconexas, en multitud de comunicaciones y artículos cuya cantidad
abruma a quien pretenda leerlos y que pronto son cubiertos por una nueva oleada
2
de trabajos científicos. Estos parecen ser, según el psiquiatra James Miller,
"catálogos de repuestos para una máquina que nunca se construye". Entre todos
los hombres de ciencia que alguna vez han existido, nueve de cada diez viven hoy.
Su tarea, crecientemente especializada y a menudo duplicada por falta de
comunicación entre ellos, se abre como la copa de un árbol, cuyos tallos periféricos
se encuentran cada vez más alejados unos de otros a medida que la planta crece.
Esta forma de evolución del pensamiento científico, que ha proporcionado a
nuestro siglo una masa do conocimientos y de aplicaciones técnicas jamás soñada
antes, no se halla empero exenta de dificultades y peligros. Entre estos
inconvenientes, tres pueden citarse corno los más importantes:
a) La cantidad de Información teóricamente disponible sobre cada sector de
la ciencia es tan grande que su disponibilidad real (es decir, la posibilidad de que un
mismo científico o grupo de científicos llegue a abarcarla) tiende a disminuir. A este
resultado contribuye también la circunstancia de hallarse la información que
interesa en cada momento extremadamente dispersa en un mar de otras
informaciones que no interesan en el mismo contexto.
b) Las investigaciones que se emprenden a partir de ciencias diferentes,
aunque se refieran a temas relativamente conexos, carecen de puntos orgánicos de
contacto; y los científicos que las encaran usan a menudo códigos lingüísticos
(lenguajes técnicos) de aplicación reducida a pequeños grupos, lo que impide que
los resultados de una investigación, aunque se hallen teóricamente al alcance de
los protagonistas de otra, incidan fácilmente en el desarrollo de ésta.
c) En otras épocas un hombre de ciencia (Aristóteles, Leonardo, Leibniz)
podía abarcar todos o casi todos los conocimientos de su tiempo. A partir del siglo
XVIII esta universalidad del científico se ha tornado imposible, y en nuestra era
asistimos a una creciente especialización que, al decir de algún humorista, hace
que el hombre de ciencia sepa cada vez más acerca de cada vez menos, hasta
llegar al punto en que sepa todo acerca de nada. La observación no pasaría de ser
una broma si fuese fácil unir luego los fragmentos (dispersos entre una multitud de
personas) para reconstruir la imagen de la realidad. El problema reside en que los
fragmentos no siempre encajan entre sí, como las piezas de un rompecabezas; y en
que la especialización, modalidad que integra el actual paradigma de la
investigación científica, hace que cada estudioso pierda de vista el conjunto por su
tendencia a considerar con especial detenimiento el sector de la ciencia que le es
propio. Muchos problemas que nacen de la complejidad de ciertos objetos (una
sociedad, un sistema económico, un ser viviente) escapan entonces al examen
minucioso del especialista, habituado a analizar lo complejo para transformarlo en
pluralidad de partes simples y a detener (siquiera idealmente) lo que se halla en
movimiento para examinarlo con mayor calma.
Tales dificultades han sido advertidas desde tiempo atrás, y nuestra época
forja hoy nuevos instrumentos para superarlas. El manejo y el tratamiento de
grandes cantidades de información es el tema de la informática; el auxilio
tecnológico para cumplir este fin es encarado por la computación; la visión
integradora de la realidad que permita describir y comprender lo complejo y lograr
de este modo una mayor eficacia en la acción es el contenido de la cibernética y
de la teoría general de sistemas.
Estas disciplinas se hallan relacionadas entre sí, pero sus límites no suelen
ser cabalmente establecidos en el lenguaje cotidiano. La cibernética y la informática
se entienden casi siempre como campos de actividad que tienen por centro a las
computadoras, y la teoría general de sistemas no siempre se distingue de la
cibernética. Algunos expertos usan estas dos últimas expresiones como sinónimas,
y otros consideran peyorativamente a la cibernética, a la que describen como el
nombre que los científicos poco serios otorgan a la teoría de sistemas. Entre los que
las distinguen, unos piensan que la cibernética es una parte de la teoría general de
sistemas y otros sostienen la tesis inversa. No tomaremos partido por ninguna de
estas opiniones, ya que ellas versan sobre una disputa clasificatoria.
5.1.2. La cibernética
Si hubiera una definición clara y acertada de "cibernética", el principio de
nuestro estudio sería demasiado fácil. El pensamiento de nuestro tiempo (como ya
vimos) es más complejo de lo que quisiéramos y las palabras que cada uno emplea
no siempre son interpretadas del mismo modo por los demás. En la medida en que
la autoridad paterna valga en materia científica, puede citarse la definición del
creador de la cibernética, Norbert Wiener: es la ciencia del control y la comunicación
en el animal y en la máquina". Otros la definen como "la ciencia que estudia las
formas de organizar la acción''. Todos, en cambio, recuerdan que la palabra
"cibernética" proviene del vocablo griego kybernetes, que significa timonel, hasta el
punto de que ya en la obra de Platón aparece kybernetike como arte de conducir
navíos (y, por analogía, hombres).
La moderna cibernética tiene su origen en la década del treinta, cuando
Norbert Wiener, que enseñaba matemática en el MIT (Instituto Tecnológico de
Massachussets) emprendió estudios interdisciplinarios con el neurofisiólogo Arthur
Rosemblueth. En 1940, durante la guerra, Wiener trabajaba con un joven ingeniero,
Julian Bigelow, en el desarrollo de un aparato de control automático de tiro para los
cañones antiaéreos. Este aparato medía la distancia entre la línea de tiro y la
trayectoria del objetivo y corregía en su consecuencia el próximo tiro. Wiener
observó que la máquina tenía un comportamiento semejante a algunas actividades
cerebrales, ya que, por así decirlo, "aprendía de su propia experiencia". Así surgió
uno de los conceptos fundamentales de la cibernética: la retroalimentación (o feedback), principio que vale para controlar una acción, sea ésta de una máquina o de
un ser viviente.
El descubrimiento de éste y de otros conceptos básicos llevó a Wiener a
publicar en 1948 el primer texto integral de cibernética, llamado Cibernética, o la
ciencia del control y la comunicación en el animal y en la máquina. Luego sus
investigaciones se orientaron hacia la aplicación de los conceptos cibernéticos a las
ciencias sociales.
El nacimiento de la cibernética y de las disciplinas conexas propone un
cambio de paradigma de la ciencia. Las ciencias del siglo XIX y de la primera
3
mitad del siglo XX se hallan dominadas por la visión cartesiana del mundo y tienen
por arquetipos a la física y a la química: los problemas deben analizarse (dividirse) y
describirse con la mayor precisión posible. El nuevo enfoque opta por romper el
acento en la apreciación de la totalidad, por lo que recibe a veces el nombre de
holismo, y su paradigma gira en torno a la biología, ya que tiende a estudiar las
realidades complejas y dinámicas al modo en. que los biólogos estudian los
organismos. Esta influencia biológica es tan grande que, para algunos autores, la
cibernética es la disciplina que estudia la base física de algunos procesos
biológicos, especialmente la inteligencia humana, con el fin de reproducirlos
mediante máquinas.
5.1.3. La teoría general de sistemas
Hacia 1920 un biólogo austriaco luego radicado en los Estados Unidos,
Ludwig von Bertalanffy, había avanzado la idea de una teoría general tendiente al
estudio de las organizaciones complejas. En 1950 redondeó su propuesta: una
Teoría General de Sistemas (TGS) abarcaría el estudio de los sistemas en todos los
campos científicos, lo que llevaría a reunificar la ciencia por la vía de un método
integrador.
En 1954 se creó la Sociedad para el Estudio de los Sistemas Generales
(Society for General Systems Research), Una buena muestra del enfoque
transdisciplinario de la investigación consiste en advertir que en la lista de los
principales fundadores se encuentran el biólogo von Bertalanffy, el matemático A.
Rapoport y el economista Kenneth Boulding. Entre sus primeros colaboradores se
destacan la antropóloga Margaret Mead, el psicólogo y epistemólogo Jean Piaget,
el economista Herbert Sinion y los Psiquiatras James Miller y W. Ross Ashby.
El objetivo fundamental que agrupa a cultores de tan diversas disciplinas es
elaborar una serie de conceptos comunes que permitan realizar el viejo ideal de la
unidad de la ciencia. Rápidamente se obtuvieron. algunos resultados: el concepto
de sistema y otros con él relacionados (como el ya citado de retroalimentación.) se
revelaron muy fecundos, especialmente en su aplicación a la biología y a las
ciencias sociales; y aun la física y la química los utilizaron con provecho.
A partir de 1965 se produjo una gran proliferación de trabajos en torno a la
TGS, y hoy en día se pueden señalar aplicaciones en casi todas las disciplinas
conocidas. En realidad, la TGS se encuentra actualmente en pleno desarrollo y
abarca una serie de teorías particulares, Todas tienen en común el enfoque
holístico, frente a los sistemas, así como la posibilidad de aplicación a campos
diversos del conocimiento humano.
5.1.4. Computación e informática
Como veremos más adelante, la segunda mitad de nuestro siglo asiste al
nacimiento y al desarrollo de la computadora. Los expertos en esta nueva técnica
acuñaron pronto una expresión no exenta de humor para referirse a la parte
puramente física de su especialidad: hardware, expresión que podría traducirse
entre nosotros como los “fierros" o la “ferretería". Pero las máquinas debían ser
puestas a trabajar, y para esto era necesario idear programas y diseñar lenguajes
especiales en los que estos programas pudieron expresarse e insertarse en la
memoria de las computadoras. Corno, en ingles, lo contrario de hard (duro) es soft
(blando), los pragmáticos norteamericanos combinaron un juego de palabras e
inventaron un nuevo vocablo: software, expresión que se ha universalizado para
designar a los programas en general o, más específicamente, a los programas
necesarios o convenientes para hacer el mejor uso posible de determinado
hardware.
Pues bien, suele llamarse computación al conjunto de conocimientos
científicos y técnicos relativos a la construcción y al funcionamiento de las
computadoras, y el vocablo se extiende también habitualmente para abarcar el
manejo de las máquinas y el conocimiento y el diseño del software.
Esta segunda parte de la computación puede entenderse superpuesta con
el contenido de la informática, en tanto ésta se considera primordialmente referida
al tratamiento de la información mediante computadoras; pero la informática abarca
un campo más amplio, fundado en la teoría de la información y estrechamente
relacionado con ésta. Ella ha sido definida como la disciplina que tiene como objeto
de estudio los procesos que se ejercen sobre datos de información, por ejemplo:
generación,
obtención,
registro,
depuración,
concentración,
filtrado,
ordenamiento, validación, codificación, almacenamiento, integración, cálculo,
acceso, recuperación, visualización, interpretación, análisis, difusión, etc.''. En este
sentido más amplio puede hablarse también de Informática sin computadoras: la
bibliotecología o la técnica de fichado, por ejemplo, integrarían la versión manual de
una disciplina que nuestro tiempo sólo concibe como tributaria de la electrónica.
Pero, a todo esto, ¿cuál es la relación entre computación, informática y
cibernética? Entre estas disciplinas existe un doble vínculo. En primer lugar, la
construcción y el funcionamiento de las computadoras se basa generalmente en los
principios de la cibernética, por lo que es adecuado llamarlas máquinas
cibernéticas, como en un tiempo se hacía, En segundo lugar, la informática
constituye una auxiliar inapreciable en la tarea de comprender los sistemas
complejos propuesta por la cibernética y por la TGS.
5.2. COMPUTADORAS, MODELOS E INTELIGENCIA
5.2. l. Cerebros electrónicos
Un autor norteamericano de origen holandés, Hendrik W. van Loon, escribió
una Historia de las invenciones en la que los avances técnicos del hombre se
describían y clasificaban como prolongaciones del cuerpo humano. Así, del pie se
pasaba al carro, a la bicicleta, al ferrocarril y al automóvil o al avión; de la mano a la
grúa o a la excavadora mecánica, de la piel a la vivienda moderna; del ojo al
telescopio y al microscopio. Van Loon murió en 1944, sin imaginar el camino que
emprenderían los prolongadores del cerebro.
4
5.2.2. Brevísima historia de las computadoras
La idea de máquinas que ayudasen las funciones del cerebro no era nueva.
El ábaco con que los niños aprendían a contar contiene un rudimento de memoria:
las bolillas que quedan a un lado son las que ya hemos sumado, y permanecen a la
vista para que, volviendo a contarlas, averigüemos el total de la suma.
En 1641 un joven de diecinueve años, Blas Pascal, construyó la primera
máquina de sumar, fundada en el movimiento de ruedas combinadas de tal suerte
que una vuelta completa de cada una de ellas hiciese girar la anterior en un décimo
de vuelta. Otro filósofo, Gottfried Wilhelm Leibniz, buscó a partir de 1671 construir
una máquina que pudiese multiplicar. No lo logró plenamente, pero sus estudios
fueron de invalorable utilidad para los desarrollos posteriores.
El francés Joseph-Marie Jacquard inventó en 1801 un telar capaz de tejer
automáticamente distintos dibujos, según las instrucciones contenidas en una
tarjeta perforada: había nacido la memoria programable. Este adelanto fue
aprovechado por el matemático inglés Charles Babbage, que proyectó en 1834 una
calculadora (llamada Máquina Analítica) capaz de resolver problemas matemáticos
según el programa contenido en tarjetas perforadas y de realimentarse con las
soluciones obtenidas para resolver con ellas problemas más complejos. Era la
primera computadora.
La máquina de Babbage no llegó a construirse, ya que los limitados
recursos técnicos de su época no lo permitían. Su funcionamiento era puramente
mecánico, y dependía de una enorme cantidad de ruedas, engranajes y bielas que
la hacían prácticamente inoperable. Pero la concepción de Babbage sirvió más
tarde para la construcción de las modernas computadoras, una vez reemplazadas
las piezas mecánicas por otras electrónicas.
Esto ocurrió un siglo más tarde, entre 1939 y 1944, cuando el
norteamericano Howard Aiken, fundado en la obra de Babbage, proyectó un
computador universal compuesto por relés electromagnéticos y alimentado por
instrucciones contenidas en cintas perforadas. La máquina se llamó Mark 1, y era
capaz de concluir una sencilla operación matemática en tres décimas de segundo.
A partir de aquí, la historia de las máquinas capaces de amplificar el poder del
cerebro humano se acelera cada vez más; y cada etapa de avance recibe el
nombre de generación.
En 1946 los relés fueron reemplazados por válvulas electrónicas (como las
lámparas de las antiguas radios): el funcionamiento de la máquina no dependía ya
del movimiento de los interruptores electromecánicos sino del flujo de electrones, y
la velocidad de respuesta ya no se medía en segundos, sino en milésimas de
segundo. Tal fue el resultado del ENIAC (Electronic Numerical Integrator and
Computer), construido en Pennsylvania por J. Presper Eckert y John W. Mauchly,
punto inicial de la primera generación de computadoras.
Estas máquinas, por cierto, estaban lejos de la practicidad a la que hoy
estamos habituados. La computadora ENIAC pesaba treinta toneladas, y sus
válvulas generaban tanto calor que requerían, para no quemarse, un sistema de
refrigeración casi tan voluminoso como la misma máquina. Estos problemas se
mantuvieron en otras computadoras más avanzadas de la misma generación, como
la EDVAC (Electronic Discrete Variable Automatic Computer), concebida en
1945, o la EDSAC (Electronic Delay Storage Automatic Calculator), de 1949. En
esta etapa salieron al mercado las primeras máquinas construidas en serie con
programa interno.
La segunda generación aparece en 1954 con la introducción del transistor
en reemplazo de la válvula. El transistor es mucho más pequeño, no genera calor y
tiene menor costo, con lo que las computadoras dejaron de ser prohibitivas.
Comenzaron, además, a operar en microsegundos (millonésimas de segundo).
La tercera generación prescinde a su vez de los transistores, y los
sustituye por circuitos integrados. Estos, construidos sobre pequeñas partículas
de silicio, son capaces de desempeñar diversas funciones: las computadoras
redujeron radicalmente su tamaño y su precio y el tiempo de operación empezó a
medirse en fracciones de microsegundo. Muchas máquinas de esta generación se
hallan hoy en uso.
La cuarta generación mantiene el principio de los circuitos integrados, pero
emplea circuitos de alto nivel de integración: si un microcircuito era capaz en un
principio de desempeñar unas 30 funciones diferentes, ahora pueden cumplir más
de mil.
La quinta generación está en pleno desarrollo. Se funda en el paralelismo
extensivo; es decir, en la ejecución concurrente de instrucciones mediante
procesamiento paralelo, a través de una cantidad de procesadores asociados a
almacenamientos parciales de información. Se busca de este modo instrumentar en
mayor medida la inteligencia artificial: el desarrollo de comportamientos basados
en el aprendizaje o capacidad de generar relaciones entre conceptos y transferirlas
a nuevas situaciones. Se espera que las nuevas computadoras podrán leer
cualquier tipo de escrito y dialogar oralmente con el usuario en lenguaje natural, lo
que dar impredecible impulso a la robótica.
Van ya, pues, cinco generaciones de computadoras en el espacio de una
sola generación humana. A lo largo de ese tiempo, su precio y su tamaño se han
hecho accesibles de tal modo (y su capacidad se ha ampliado hasta tal punto) que
casi no hay actividad humana en la que no se las emplee o proyecte empleárselas.
5.2.3. El sí y el no
¿Cómo funcionan estas máquinas maravillosas? ¿Cuál es el íntimo secreto
que les permite secundar al hombre de tantas maneras y superar en mucho su
capacidad de cálculo en las operaciones a las que son aplicadas?
Esta pregunta, como tantas otras, tiene más de una respuesta porque tiene
más de una interpretación. Un ingeniero electrónico se deleitaría explicándonos los
vericuetos de los circuitos integrados y las hazañas de las partículas de silicio, el
modo de construcción y la configuración de los sistemas informáticos en unidades
centrales y periféricas. Un analista de sistemas o un programador nos hablarían con
los ojos brillantes acerca de los lenguajes de programación y de los últimos avances
del software. Se trata, sin duda, de temas fascinantes; pero cada uno de ellos
corresponde a alguna especialidad del conocimiento humano. Por el momento,
nosotros no pretendemos tanto: nuestra aproximación a estas materias es
5
epistemológica antes que tecnológica, y sólo buscamos comprender la base más
sencilla del funcionamiento de las computadoras, aquello que pueda servir para
interpretar también otros sectores de la realidad a nuestro alcance.
Pues bien, en este sentido el secreto de la computadora reside en una
alternativa tan sencilla como la que se encierra en la perilla del velador: por cada
uno de sus circuitos una corriente eléctrica puede pasar o no pasar.
En efecto, imaginemos una persona privada del habla, que sólo tuviere a su
alcance el interruptor de una lámpara. Si le formulamos una pregunta que pueda
contestar por sí o por no, el interrogado encenderá la luz para afirmar y la apagará
(o no la encenderá) para negar. Claro está que semejante lenguaje deja mucho que
desear: las preguntas deben ser cuidadosamente escogidas para que las
respuestas sean inequívocas, y el dueño de la perilla se ve impedido de contarnos
por su propia iniciativa sus meditaciones metafísicas o el último partido de fútbol
que vio por televisión. La situación, empero, puede mejorarse algo si multiplicamos
las lámparas y las perillas y convenimos un código en el que la cantidad y el orden
de las lámparas encendidas o apagadas tenga asignados ciertos significados.
Cuanto mayor sea la cantidad de lámparas y cuanto más complejo sea el
código, tanto mayor ser la capacidad de comunicación de nuestro ruido interlocutor.
Desde luego, a partir de cierto punto podernos hallar una solución muy satisfactoria:
un número limitado de lámparas (cinco, para ser exactos) nos permitiría asignar a
cada configuración el valor de una letra del alfabeto, y a partir de allí el hombre de
las perillas podría expresar cuánto se le antojara dentro del amplísimo código
lingüístico natural. Este modo de expresión también se halla al alcance de las
máquinas; pero la fuente de lo que haya de expresarse, que es el pensamiento,
tiene para ellas una limitación: por complejo que sea su programa, en la base de
cada decisión debe haber también un número finito de alternativas que puedan
responderse por si o por no.
De este modo las computadoras reproducen, tanto en su comunicación con
el hombre cuanto en su funcionamiento interno, el problema de nuestro amigo
mudo; pero la cantidad de combinaciones que contiene su código es tal que los
resultados obtenidos nos hacen olvidar a menudo la sencilla alternativa que les
sirve de base.
iniciaran un desarrollo serio, el hombre desarrolló acerca de su propio pensamiento
una disciplina que pronto alcanzó notable perfección formal: se trata de la lógica.
La lógica no estudia los mecanismos reales del pensamiento, ya que no es
una ciencia empírica; pero -como ya sabemos- propone modelos de razonamiento
válido, lo que equivale, hablando mal y pronto, a establecer ciertos patrones que el
pensamiento debe satisfacer si pretende cumplir sus propios fines.
Por cierto, no existe una sola lógica sino muchas; pero la primera en
formularse y la más extendida supone que para una proposición descriptiva
cualquiera existen dos y sólo dos posibilidades, excluyentes entre sí: la proposición
puede ser verdadera o falsa. Estas dos posibilidades se llaman valores de verdad,
y una lógica que reconoce dos valores de verdad recibe el nombre de lógica
bivalente, o binaria.
Este carácter binario de la lógica más difundida se halla en el origen de
principios comúnmente aceptados, como los de no contradicción (una proposición
no puede ser a la vez verdadera y falsa) o del tercero excluido (una proposición no
puede ser sino verdadera o falsa).
A partir de allí la lógica elabora otros conceptos más complejos para
combinar proposiciones: la conjunción (función en que ambas proposiciones son
verdaderas), la disyunción (no son las dos falsas) o el condicional (no se da el
caso en que la primera sea verdadera y la segunda falsa). Y estos conceptos (y
otros) pueden a su vez combinarse entre sí para dar lugar a la construcción de los
más complicados razonamientos.
Recapitulemos, pues. El hombre no sabe con exactitud cómo piensa, pero
sí sabe cómo quiere pensar. Su imagen del razonamiento deseado, en su aspecto
más difundido, se basa en una lógica bivalente. Y el funcionamiento de la
computadora depende, a su vez, de la formulación de un programa en términos que
puedan traducirse a combinaciones de dos y sólo dos estados: positivo y negativo.
Por esto la máquina se ha convertido con tanta facilidad en una prolongación
multiplicadora de la capacidad de razonamiento del hombre: no de su razonamiento
real, que incluye virtudes y defectos extralógicos, sino de su razonamiento ideal,
ajustado a un esquema binario. La computadora razona, pues, como el ser humano
quiere él mismo razonar.
a) La lógica como esquema binario del razonamiento
b) El sistema numérico binario
Dijimos hace un momento que el pensamiento (si así puede llamársele) de
la computadora se halla limitado por el esquema íntimo del funcionamiento de la
máquina: cada decisión ha de depender de un número finito de alternativas "si-no".
Pero ¿se trata realmente de una limitación? Para comprender mejor esta pregunta
-y tal vez imaginar una respuesta- sería bueno que examinemos por un momento
las decisiones humanas.
El pensamiento del hombre, como fenómeno real, es en muchos aspectos
un misterio aún no resuelto. La psicología y la biología intentan, por diversos
caminos, explicar los mecanismos por medio de los cuales discurre efectivamente la
actividad mental del ser humano. Pero, desde mucho antes que tales intentos
El razonamiento que el hombre desea imprimir a la computadora no
depende tan sólo del manejo de conceptos lógicos: también (y en medida muy
grande) Se requiere que la máquina maneje conceptos numéricos y efectúe
cálculos matemáticos. Pero estas operaciones, del mismo modo que los
razonamientos y las comunicaciones, deben reducirse, para uso de la máquina a
combinaciones de la alternativa binaria. Esta circunstancia provee amplio campo de
aplicación a una idea que comenzó a desarrollarse a partir de Leibniz el sistema
numérico binario.
Todos estamos habituados a manejar nuestro sistema numérico decimal.
Consta de diez dígitos, de 0 a 9, con cuyas combinaciones pueden expresarse
todos los números. ¿Por qué son diez? El nombre que se les da (dígitos) sugiere
6
ya la explicación más aceptada: el ser humano tiene diez dedos en las dos manos,
y se habituó desde el principio a contar con ellos. Cada vez que se le terminaban
los dedos debía empezar de nuevo, por lo que se veía obligado a numerar las
"vueltas'' en que empleaba todos sus dedos. Cada una de estas vueltas era una
decena, y al sumarse diez vueltas era preciso pasar a otro nivel: la centena, o
"vuelta de diez vueltas". Así es como el número 14, por ejemplo, muestra que ya se
ha empleado una vuelta de diez y que vamos por el cuarto dedo de la segunda.
Para algunos fines, sin embargo, el sistema decimal es inadecuado: su
base (10) sólo es divisible por dos y por cinco. aparte de la unidad y de sí mismo.
Tal vez para nuestra vida cotidiana nos iría mejor con un, sistema de base 12 (como
en la feria, donde muchos productos alimenticios se venden por docena), ya que 12
es divisible por 2 por 3, por 4 y por 6. ¿Cómo sería semejante sistema? imaginemos
dos dígitos nuevos, que llamaremos A y B. La primera vuelta se contaría así: 1, 2, 3,
4, 5, 6, 7, 8, 9, A, B y 10 (donde "10" significaría 12 de nuestra notación habitual).
Las docenas sucesivas se numerarían como 10, 20, 30, 40, 50, 60, 70, 80, 90, A0,
B0 y 100, donde "100" equivaldría a nuestro 144 (una gruesa, como suele decirse
en el lenguaje duodecimal de los mercaderes) Puede observarse así que cada
vuelta o secuencia no debe necesariamente contener diez unidades: el número de
unidades que ella contenga depender del sistema que hayamos adoptado.
Pues bien, el sistema binario opera sobre la base 2, de modo que sólo
consta de dos dígitos: 0 y 1 . Y los números se cuentan: 1, 10, 11, 100, 101, 110,
111, 1000. 1001, 1010, 10115 1100, 1101, 1111 ... y así sucesivamente.
Existe un procedimiento relativamente sencillo para traducir un número de
la notación decimal a la binaria, que consiste en dividirlo sucesivamente por dos y
anotar los residuos. Tomemos como ejemplo algo de lo dicho precedentemente. Al
tratar acerca de las lámparas necesarias para expresar todas las letras del alfabeto
señalarnos que se requerían cinco de ellas. ¿Por qué?
Veamos. El alfabeto castellano tiene 27 letras (sin contar las dobles: ch, ll,
rr). El número 27, dividido por 2, da 13 con un resto de 1. La mitad de 13 es 6, con
resto de 1. La mitad de 6, 3, con resto de 0. La de 3 es 1, con resto, de 1, Y la
unidad es indivisible, por lo que constituye un nuevo residuo. De este modo:
27
13
6
3
1
1
1
0
1
1
Por lo tanto, leyendo de abajo hacia arriba, en sistema binario el número 27
se escribe “11011”, expresión que consta de cinco cifras. Pero cada una de estas
cifras puede expresarse (y calcularse) en términos de la alternativa básica: sí-sí-nosí-si.
Para traducir una expresión binaria a otra decimal hay que proceder del
modo inverso, multiplicando cada cifra por dos y agregando la siguiente en forma
sucesiva, del modo que aquí se muestra:
1 x 2=2
+1
3x 2=6
+0
6x 2=
+
12
1
13 x 2 =
+
26
1
27
La notación binaria es de difícil lectura para nuestros ojos, habituados al
sistema decimal: pero es preciso recordar que las máquinas son capaces de ''leer''
a una velocidad muchas veces superior a la de la mente humana, de modo que la
traducción de un sistema al otro y las operaciones numéricas en general son
prácticamente instantáneas, como podemos comprobar en una simple calculadora
de bolsillo.
Pero las computadoras no se conforman con leer rápidamente las
instrucciones concebidas en un lenguaje binario puro, como el que acabamos de
mostrar: después de todo, las grandes cantidades requieren para su expresión un
número bastante alto de dígitos binarios. Aparece entonces un sistema mixto, que
combina la sencillez expresiva del binario con la base más amplia del decimal. Esta
solución consiste en utilizar el sistema numérico decimal, pero expresar cada uno
de los dígitos decimales al modo binario. De esta manera, un número como 379
puede expresarse representando separadamente el 3, el 7 y el 9:
0011
0111 1001
Con cuatro caracteres, pues, puede indicarse cualquier dígito decimal; y un
número determinado se expresan en tantas combinaciones de cuatro caracteres
como dígitos decimales tenga.
Claro está que las máquinas no sólo utilizan números: también manejan
palabras. Y, como en el ejemplo del mudo con las perillas eléctricas, se ven
obligadas a expresar también las letras en sistema binario. Aumentando, pues, el
número de caracteres, una combinación de éstos puede representar un dígito
decimal o una letra determinada. Por esta razón los expertos en computadoras
hablan de caracteres alfanuméricos: un caracter alfanumérico es un conjunto de
dígitos binarios (generalmente ocho de ellos) capaz de representar un caracter
numérico o alfabético.
5.2.4. Realidad y modelo
El funcionamiento de las máquinas es un tema en verdad fascinante, pero si
nos internamos en sus vericuetos corremos el riesgo de perder de vista nuestra
propia aventura, que comprende y supera a aquella materia: la aventura del
pensamiento científico.
7
Bastará pues, por ahora, recordar que las computadoras utilizan para su
funcionamiento un razonamiento binario, fundado en el sí y el no; y que, por lo
tanto, sólo pueden acceder a los sectores de la realidad que les sean presentados
bajo esta forma. Si sólo se trata de recordar y de reproducir palabras (como en el
caso del tratamiento de textos o en el almacenamiento y recuperación de datos)
bastará con que tales palabras sean traducidas (por la misma máquina, desde
luego) en caracteres alfanuméricos. Pero si se trata de razonar (es decir, de
calcular), cada paso del razonamiento ha de ser expresado con tal claridad que
pueda traducirse, en última instancia, a decisiones por sí o por no, aunque se trate
de muy complejas combinaciones de decisiones binarias.
Puede observarse de este modo que la utilidad de las computadoras se
halla limitada por la capacidad del hombre para presentarles la realidad de un modo
que ellas puedan comprender. Y este modo ha de ser preciso y explícito.
Pero -lo sabemos- la realidad abarca el universo entero; y aun cualquier
sector de ella que delimitemos idealmente, por pequeño que fuere, encierra infinitas
características, de tal modo que su descripción completamente explicita es
imposible.
¿Cómo resolver este problema? No hace falta invención novedosa alguna:
la solución existe desde siempre, y sólo se requiere tomar conciencia de ella.
Pidamos, en efecto, a un geógrafo que nos diga qué forma tiene América
del Sur. Tomar un papel y trazar un mapa, más o menos aproximado. Pongamos
en duda su exactitud, y nos mostrar una carta cuidadosamente trazada, que forma
parte de un atlas. Aun en ellas podemos encontrar defectos: si observamos con una
lupa las pequeñas islas y los detalles de la costa encontraremos las líneas
dibujadas con trazo grueso, detrás del cual se esconden no pocas inexactitudes: la
Dársena Norte del puerto de Buenos Aires, por ejemplo, no se distingue siquiera.
Nuestro geógrafo nos propondría entonces un mapa en escala mayor,
donde los accidentes que nombramos se observan con toda claridad. Pero nosotros
insistimos: si el mapa ha de ser un fiel reflejo de la realidad, cada anfractuosidad de
la costa, cada guijarro de la ribera, cada grano de arena de la playa deben hallarse
representados. El atribulado interlocutor menear entonces la cabeza: para
satisfacernos haría falta un mapa que tuviese, por lo menos, el mismo tamaño del
continente; y aun así la representación sería imperfecta, ya que permanecería igual
a sí misma cuando el contorno del continente varía a cada instante con las olas, con
las mareas y hasta con el capricho de un niño que arroja una piedrecilla al agua.
No es posible, pues, trazar un mapa de todo; pero cualquier accidente
que nos interese, por pequeño que sea, puede ser representado en un mapa si lo
deseamos. Esa representación de un sector de la realidad, que no pretende
reproducir todos sus accidentes pero sí aquellos que, por una razón o por otra,
consideramos relevantes, es un modelo de la realidad a la que nos referimos.
Un modelo, pues, es una imagen deliberadamente empobrecida de la
realidad. Un modelo puede trazarse según diversas técnicas, algunas más precisas
que otras. El territorio de un país se representa por un mapa; el rostro de un ser
humano, por un retrato o una caricatura; las relaciones de autoridad en una
empresa, por medio de un esquema que llamamos organigrama; una operación
matemática mediante una ecuación; y una ecuación -si así lo deseamos- por una
curva trazada en papel milimetrado. El más preciso de estos lenguajes es el
matemático; y así nuestra modelización de la realidad ser tanto más perfecta (se
entiende: no más completa, sino más precisa en cuento a las características que
deseamos destacar) cuanto mejor pueda ser expresada en el lenguaje matemático
(que es, por cierto, el que mejor comprenden las computadoras).
Esta reflexión no debe llevarnos a pensar que ningún modelo es útil a
menos que se exprese matemáticamente; tampoco que todo sector de la realidad
puede, de hecho, modelizarse a la manera matemática, y menos aún que los
modelos existan gracias a las computadoras o sólo sirvan para ser utilizados por
ellas.
Las computadoras -lo dijimos antes- no son otra cosa que un instrumento
particularmente útil, tanto para el trazado de modelos cuanto para su empleo
fructífero; pero la modelización es muy anterior a la invención de la computadora y
por completo independiente de ésta. El objeto de nuestro ejemplo inicial -el mapaes una técnica de modelización que existe desde la antigüedad y que sobrevive
lozanamente a la introducción de las máquinas cibernéticas. Lo mismo puede
decirse -valor artístico aparte- del dibujo y la escultura, del teatro o de la novela.
Vale la pena, sin embargo, que nos concentremos ahora en una idea
expresada hace un momento: el lenguaje matemático es el que la computadora
mejor comprende, y los modelos matemáticos son los que mejor maneja.
El uso de computadoras, que es cada vez más intenso y abarca un
creciente número de sectores de la actividad humana, constituye por lo tanto un
factor que alienta fuertemente el perfeccionamiento y la matematización de los
modelos en uso. Pero, como ya hemos visto, ocurre que muchos de los modelos
que hoy emplea el hombre se encuentran muy lejos del grado de precisión
requerido por el uso fructífero (y no meramente rutinario) de las técnicas
informáticas. Pensemos en la sociología. Podemos usar una máquina para procesar
con rapidez numerosos datos estadísticos en auxilio de nuestros propios
razonamientos; pero si queremos emplearla para multiplicar esta misma capacidad
de razonamiento ser preciso que tracemos modelos más exactos y confiables
acerca del comportamiento de los grupos sociales. En materia de derecho, es hoy
bastante común utilizar computadoras para almacenar y recuperar datos sobre
leyes o sentencias judiciales; pero si deseamos sacar a la informática todo su
provecho tendremos que establecer modelos formales de razonamiento jurídico que
la máquina pueda comprender y manejar. Cada uno de estos cambios importar una
verdadera revolución científica; no tanto ni tan sólo por las ventajas proporcionadas
por la informática, sino en especial por el rigor que el hombre tendrá que exigir de sí
mismo a fin de acceder a esas ventajas.
No existe ciencia completamente imparcial; pero algunas ciencias (las
humanas y sociales) son tal vez demasiado tolerantes con su propia parcialidad, ya
que los conceptos que manejan caían demasiado hondo en el campo afectivo (sea
del hombre en general, sea del hombre como integrante de ciertos grupos o
sectores). El resultado de esto es que emplean a menudo modelos
autocomplacientes y manejan lenguajes teñidos de emotividad. La eliminación
(hasta donde se pueda) de estos defectos -y aun la propia percepción de tales
características como defectos, actitud que no todos comparten- podría llevar a esas
8
ciencias al nivel de evolución y utilidad que hoy tienen otras, abrir insospechados
campos de tecnología y, en definitiva, modificar nuestra vida cotidiana de un modo
radical y tal vez placentero.
5.2.5. Inteligencia artificial, inteligencia natural
Los expertos en informática hablan hoy, como cosa corriente, de un
concepto que hace algunos años habría puesto piel de gallina a mucha gente y que
aún hoy suscita no poca desconfianza: la inteligencia artificial. Los técnicos
mencionan estas palabras con orgullo, pero el hombre es un animal sumamente
susceptible y a menudo ve en ellas un desafío, cuando no un disparate casi
sacrílego.¿Acaso pueden las máquinas pensar? se pregunta el ser humano
mientras se pavonea frente a un espejo intelectual.
Quienes se han habituado a replantear los problemas a la luz del análisis
del lenguaje advertir rápidamente que la pregunta -aparte de estar cargada de un
fuerte contenido emotivo que preanuncia una respuesta determinada- sencillamente
no puede ser contestada por un observador eventualmente imparcial. En efecto,
parece claro que las máquinas hacen ciertas cosas que los hombres también
hacen, y en cambio no hacen otras. La cuestión reside en cuáles sean las
características definitorias que asignemos al concepto pensamiento. Y, si estamos
empeñados en asegurar que las máquinas no piensan, bastar que definamos
persuasivamente "pensamiento" por referencia a características reservadas a la
mente humana.
Claro está que este malabarismo lingüístico (que no es otra cosa que
blindar un argumento) tiene su inconveniente: a medida que la tecnología avanza,
cada vez son menos las facultades reservadas al hombre. En efecto hace unos diez
años era común el siguiente argumento: las computadoras son expertas en calcular
rápidamente un gran número de variables, pero aun en esto ser n siempre
superadas por el hombre. La prueba está en que una máquina, cargada don las
reglas del ajedrez y con la ciencia de los grandes maestros de ese juego, apenas
alcanza el nivel de un jugador mediano. Pasó el tiempo y, en cualquier negocio y
por poco dinero, podemos adquirir una máquina de bolsillo capaz de jugar en
diferentes niveles, burlarse de nosotros cuando hacemos una jugada equivocada,
enseñarnos las correctas, señalar las consecuencias posibles de cada una y, en
definitiva, servir de contrincante válido a jugadores avezados.
Hay en todo esto una constante evolución. Las máquinas empezaron por
ser calculadoras rápidas pero bastante tontas, ya que habla que indicarles en cada
caso las operaciones a realizar. Luego fueron capaces de seguir instrucciones muy
complicadas, de modo que pudiesen reconocer señales (incluso derivadas de sus
propios resultados) que les indicasen la índole de las operaciones a realizar, a lo
largo de una prolongada secuencia, para arribar a cierto objetivo propuesto. Pero lo
que hoy se llama inteligencia artificial implica también la capacidad de generar
relaciones entre conceptos y transferir esas relaciones a nuevas situaciones: es
decir, la facultad de aprender. Las nuevas computadoras aprenden a resolver
problemas (simplemente observando cómo son resueltos problemas semejantes).
También son capaces de reconocer configuraciones, es decir advertir la semejanza
entre cierto modelo que mantienen en su memoria y cierta realidad que se les
presenta, teniendo en cuenta para ello la flexibilidad de la semejanza entre ambos
términos de la comparación como resultado de los casos antes examinados.
Pongamos esto último más en claro mediante un ejemplo. El individuo que
aprende a leer tiene en su mente uno o varios modelos de cada letra del alfabeto;
mayúsculas, minúsculas, de imprenta o manuscritas. Pero existen siempre tipos y
tamaños de letra que jamás hemos visto. Sin embargo, cuando los vemos los
reconocemos como nuevos modelos de las mismas figuras familiares. ¿Porqué lo
hacemos? Porque estamos habituados a observar variaciones, y hemos
internalizado un modelo de variación, si así quisiéramos llamarlo. Tenemos una
idea de hasta qué punto puede variar una misma letra según la fantasía del letrista
o del escribiente, y dentro de esos límites aproximados somos capaces de
comprender el nuevo garabato que se nos presenta, Pues bien, se espera que las
computadoras de la quinta generación podrán hacer esto mismo, lo que les
permitir comprender, en forma directa, las expresiones lingüísticas comunes,
habladas o escritas.
Pero, más allá del asombro que pueda provocarnos el avance tecnológico,
el tema puede ser motivo de una seria reflexión, En efecto, el hombre no sólo
razona de un modo lineal (cosa que las máquinas hacen desde tiempo atrás dentro
de los límites de sus programas): también es capaz de asociar ideas y crear entre
ellas ciertos vínculos que, a lo largo del tiempo, terminen motivando su propia
conducta. Sí una computadora puede hacer también esto (base del aprendizaje y
del reconocimiento de configuraciones), una nueva barrera entre el pensamiento
natural y el artificial ha caído.
Una de las actividades fundadas en la asociación de ideas (y en proponer
asociaciones novedosas, profundas y sutiles) es la poesía. Hay que reconocer que
las computadoras no son poetas. Aclaremos: no es que no lo hayan intentado. Una
vez una máquina llamada A.B. compuso en inglés el siguiente poema:
Todas tas chicas sollozan como nieves,
Cerca de un lecho, esa chica no llorará.
Las lluvias son amantes tontas, pero yo no soy tímido.
Tropieza, gime, ve,
esta chica podría zarpar en el escritorio.
Los besos fatuos, sordos y fríos son muy húmedos.
Esta chica es muda y suave.
La composición titulada "Chicas"', dependía de un programa bastante pre,
que clasificaba un vocabulario de 3.500 palabras en cuatro clases y establecía
ciertos ordenes sintácticos para formar frases aceptablemente construidas, a la vez
que disponía un cierto porcentaje de aparición a ciertas palabras (como "chica")
para aparentar cierta unidad temática.
El resultado, claro está, es abominable. Pero difícilmente pudiera esperarse
otra cosa de un programa semejante.
El ejemplo de "Chicas" se inscribe como argumento tributarlo de una línea
de pensamiento antropocéntrico. Otro tanto cabe decir de un conocido chiste que
9
corría hace unos años sobre el manejo del lenguaje en las traducciones. El cuento
consiste en que un grupo de científicos norteamericanos inventan una computadora
capaz de traducir mensajes del inglés al ruso, y deciden probarlo mediante un
experimento: darle una frase en inglés, pedirle que la traduzca al ruso y que luego
vuelva a traducirla al inglés. La expresión propuesta era: "El espíritu está dispuesto,
pero la carne es débil". La máquina echa a andar, emite algunos gruñidos
electrónicos y, luego del viaje de ida y vuelta al idioma de Tolstoi, entrega su
resultado: "La vodka es fuerte, pero la carne está podrida".
Es bueno reír de tanto en tanto, pero a veces los ecos de la risa tienden a
apagarse con el tiempo. El poema "Chicas" es de 1962, y el chiste de la máquina
traductora corresponde a la misma época. Hoy en día vemos en las vidrieras
pequeñas calculadoras de bolsillo capaces de traducir frases enteras de un idioma
a otro (hasta condescienden al castellano). No hacen de la traducción un arte, por
cierto; pero cumplen ciertas funciones prácticas.
No tenemos noticias acerca de la evolución de las aptitudes poéticas que
pueda exhibir una computadora, pero acaso cabe suponer que hayan mejorado en
los últimos veinte años.
5.2.6. El modelo mecanicista
Bajo el título El hombre máquina, un médico y filósofo francés, Julien
Offray de La Mettrie, publicó un librito que horrorizó a las almas bien pensantes del
siglo XVIII. En él se señalaba que el cuerpo humano reacciona frente a cada
necesidad por medios empíricamente verificables y de conformidad, como se decía
en ese entonces, con la organización de sus partes (u órganos). Como el siglo
XVIII se asombraba ante los complicados e ingeniosos avances de la relojería, La
Mettrie comparaba al hombre con un reloj: era una modelización fervientemente
imbuida del paradigma newtoniano, y se inscribía en una orientación filosófica que
dio en llamarse mecanicismo.
Pero las ciencias -y sobre todo las ciencias del hombre- se hallaban aún
muy atadas al paradigma medieval, y no admitían fácilmente que las
investigaciones o explicaciones empíricas se metieran con algo tan delicado como
las relaciones entre el cuerpo y el alma. En resumen, el libro terminó quemado por
mano del verdugo.
No se trata aquí de discutir los aciertos o errores de La Mettrie ni de otros
mecanicistas, sino de examinar nuevamente su planteo a la luz de los
conocimientos de hoy. Y en este contexto puede advertirse que las preguntas
¿piensan las máquinas? y ¿es el hombre una suerte de máquina?, son dos caras
de una misma moneda o, si se quiere, el positivo y el negativo de una misma
imagen fotográfica.
Podemos, en efecto, contestar estas preguntas como mejor nos parezca, y
trazar el límite entre el hombre y la máquina de un modo acorde con ese parecer.
No vale la pena presentar la tesis mecanicista como más o menos verdadera que
otras interpretaciones de la realidad, ni afirmar o negar que el hombre es una
especie de máquina o la máquina una especie de hombre. Ya sabemos que cada
cosa es lo que es, y que las clasificaciones sólo valen en la medida en que sean
útiles para los fines que nos propongamos en cada caso. Pero, a veces, la
comparación entre clasificaciones alternativas sirve para abrirnos el entendimiento y
nos permite encontrar similitudes que hasta entonces se nos ocultan, hallar nuevas
dimensiones para viejos problemas o archivar como inútiles controversias que antes
nos apasionaban, para reemplazarlas por otras más fructíferas. Podemos aceptar o
desechar la comparación entre el hombre y la máquina, según resulte más caro a
nuestro pensamiento. Pero si el mero hecho de planteárnosla nos ha servido para
clarificar en algo nuestras ideas, si con ello hemos dispuesto nuestra mente para
examinar nuevos problemas con actitud más abierta, el esfuerzo de nuestra
imaginación ha valido la pena.
5.3. LA INFORMACIÓN
5.3. l. Comunicación, mensaje y codificación
Estamos escuchando la radio. El locutor del informativo dice: “El ministro de
economía no renunciará". Tomamos nota mentalmente de lo que oímos y lo
agregamos a nuestro propio sistema de creencias acerca de la composición del
gobierno y de su funcionamiento en el futuro inmediato.
Lo que acaba de suceder ha puesto en funcionamiento una cantidad de
mecanismos de los que habitualmente no cobramos conciencia, ya que estamos
habituados a emplearlos. Convendrá, pues, que los examinemos.
Lo que hemos recibido es un mensaje. El mensaje tiene un emisor (el
locutor radial) y un receptor (nosotros). Pero no nos llega por arte de magia, sino
por medio de un soporte (las ondas hertzianas). La recepción del mensaje puede
verse dificultada por el ruido (interferencias radiales, mal funcionamiento de nuestro
receptor, la voz de alguien que nos habla mientras escuchamos la radio). El
mensaje, contenido en su soporte, corre por un canal, que es la vía o medio físico
por el que se traslada la información. En el caso del ejemplo, el canal es la
atmósfera (o también el espacio, si se tratara de una emisión por vía satelital); y, en
ciertos puntos del camino, también el micrófono, el aparato transmisor y el receptor
de radio forman parte del canal.
Veamos otro ejemplo: recibimos carta de un amigo. Emisor y receptor son
fáciles de identificar. El soporte es el papel (y, en rigor, también la tinta). El canal es
el correo, con toda su organización. El ruido podría consistir en la equivocación del
cartero que deja el sobre en otro domicilio, o el descuido que deja caer la carta en
un charco, cuya agua borra parte de lo escrito.
Y un tercero: en una comunicación telefónica somos alternativamente
emisores y receptores; el canal es el cable telefónico (junto con los dos aparatos y
el conmutador central) y el soporte está compuesto por los impulsos eléctricos que
corren por el cable. El ruido... bueno, no es necesario explicar qué es el ruido en el
teléfono.
A los elementos citados hasta ahora debe agregarse otro: el código. Este
concepto tiene, en la teoría de la comunicación, dos aspectos, dimensiones o
niveles, que podríamos llamar material y semiótico.
10
La voz, por ejemplo, se expresa en sonidos. El micrófono de nuestro
aparato telefónico transforma el sonido en otra señal más apropiada para recorrer el
canal: los impulsos eléctricos. Esta tarea se llama codificación, ya que consiste en
traducir las señales a otras propias del sistema de comunicación de que se trata. En
la otra punta de la línea, el receptor telefónico vuelve a transformar la señal eléctrica
en señal sonora: en esto consiste la decodificación. En la televisión la cámara
toma la imagen (señal luminosa) y la descompone en un número finito de puntos
discretos, en cada uno de los cuales se establece el grado apropiado de
luminosidad y de intensidad para cada Lino de los colores primarios utilizados en el
sistema (verde, rojo y azul). Esta información es codificada mediante su
transformación en modulaciones de ondas radioeléctricas, y lanzada al aire
mediante la antena. El receptor, a su vez, decodifica el mensaje y lo traduce
nuevamente a señales luminosas mediante la pantalla.
Ese es el nivel material de la codificación y de la decodificación, ya que en
los casos mencionados se trata siempre de transformar un tipo de señal en otro tipo
de señal.
Pero existe también un nivel semiótico, tal vez más cercano a nuestra
experiencia cotidiana. Por bien que funcione el canal de transmisión, la
comunicación resultar frustrada si emisor y receptor no hablan el mismo idioma. El
emisor codifica sus ideas en castellano (pongamos por caso), pero el receptor, que
sólo habla japonés, es incapaz de decodificar el mensaje. No se trata aquí de tipos
de señal, sino del valor o significado que se asigne a cada señal o a cada conjunto
de ellas.
Supongamos, en efecto, que dos personas hablantes de lenguas diferentes
se comunican por medio de un intérprete. Cada una de ellas emite señales sonoras,
que son perfectamente recibidas por la otra; pero la comunicación no puede
establecerse en el nivel semántico hasta que el intérprete no ejerza, ante cada
frase, una tarea de decodificación y codificación que le permita reformularla de un
modo comprensible para el otro interlocutor.
Gráfico 5.1.
Esquema del proceso de comunicación
EMISOR
mensaje
SEÑAL
codificación
L
SOPORT
E
CANAL
Código
del
Emisor
decodificación
RECEPTOR
mensaje
Código
del
Recepto
r
El emisor genera un mensaje, pero este mensaje debe ser codificado
(material y semánticamente) de acuerdo con el código propio del emisor. Se
convierte así en señal, que viaja en su soporte a lo largo del canal de comunicación.
Al fin de su viaje debe ser decodificado (según el código propio del receptor) y es
recibido por el receptor como mensaje, Que el mensaje sea comprendido por el
receptor (esto es, que le llegue tal como fue emitido) depende del grado de
coincidencia entre los códigos de receptor y emisor. Si ambos códigos son distintos
(por ejemplo, se trata de diferentes idiomas) la coincidencia entre ambos debe
incluir un adecuado mecanismo de traducción. Durante el trayecto, la señal puede
ser afectada por el ruido.
a) Variedad y constricción
Abandonemos por un momento el nivel semántico (luego volveremos a él)
para considerar especialmente los símbolos en sí mismos, como unidades
integrantes de un código determinado. Advertiremos entonces que la aparición o
ausencia de cada símbolo, así como las diferentes combinaciones entre símbolos,
pueden construir estados diferentes de un mensaje.
¿Lo que acabamos de decir parece oscuro? No desespere el lector:
siempre habrá algún ejemplo capaz de acercar la teoría a la práctica. Aquí vamos,
pues, al rescate.
En el parágrafo 5.2.3. imaginamos el caso de un individuo mudo, que sólo
podía darse a entender mediante la perilla de una lámpara, que encendía o
apagaba a voluntad ante cualquier pregunta que se le formulase.
En este código un mensaje sólo podía tener dos estados: luz u oscuridad.
Este conjunto de los estados posibles de un mensaje en un código determinado se
llama variedad de dicho código. Nuestro mudo, pues, dispone de un código cuya
variedad es igual a 2.
Con dos lámparas, la variedad sería de 4, y con tres, de 8. En rigor, es
posible calcular fácilmente la variedad de cualquier código semejante mediante la
fórmula en, donde n sea igual al número de lámparas a emplear. ¿Por qué la base
de la potencia es siempre 2? Porque dos son los estados posibles de cada símbolo
básico (en este caso, de cada lámpara). Este tipo de código funciona como un
lenguaje que sólo tuviera dos letras y cuyas palabras contasen con tantas letras
como lámparas existan al alcance de nuestro amigo mudo.
Supongamos ahora un código algo diferente. En lugar de lámparas, el
individuo del ejemplo utiliza su brazo derecho, que muestra en alguna de tres
posiciones: alzado sobre su cabeza, extendido horizontalmente o pegado a su
cuerpo en dirección vertical. El mensaje, transmitido mediante un solo símbolo
básico (el brazo), puede tener tres estados diferentes, por lo que la variedad de
este sencillo código es igual a 3. ¿Y si nuestro amigo puede usar los dos brazos?
las combinaciones posibles ser n 9, según esta otra fórmula: 3n, donde n es igual al
número de brazos que pueden usarse y la base 3 corresponde a los estados
posibles del símbolo básico. Traducido a un lenguaje alfabético, sería un código de
tres letras que sólo admitiese palabras de dos letras: AA, AB, AC, BA, BB, BC, CA,
CB y CC. De este modo, según sea el número de estados posibles de cada símbolo
11
(número que usaremos corno base) y de acuerdo con el número de símbolos (o,
para ser más exactos, de posiciones o apariciones de símbolos) que admita cada
mensaje (número a cuya potencia elevaremos aquella base), podemos determinar
la variedad de un código dado.
De acuerdo con estas pautas, pues, ¿cuál es la variedad del sistema
numérico decimal? Es infinita, porque la base es 10, pero la potencia es infinita (no
existe un límite a la cantidad de dígitos que puede tener un número).
¿Y la variedad del idioma castellano?
Aquí debemos andar con más tiento. El número de letras (simples) del
alfabeto castellano es 27, de modo que tal sería nuestra base. Pero ¿cuántas letras
admite una palabra? Hay vocablos cortos, como "y", y otros largos, como
"otorrinolaringología". Pero no hay reglas acerca de cuál sea el número máximo de
letras a utilizar, de modo que nuestra fórmula no puede usarse, no por defecto de la
fórmula sino por imprecisión del código a analizar. Supongamos -por vía de
hipótesis- que nuestro idioma sólo contuviese palabras de cinco letras. En ese caso
su variedad sería de 275, que es igual a 14.348.907 estados distintos de una
secuencia (es decir, ese número de palabras). Claro está que, si admitimos que un
mensaje puede tener varias palabras (como de hecho las tiene), el problema se
reproduce: el número de palabras admisible en un mensaje sería la potencia a la
cual deberíamos elevar aquel resultado de 14.348.907, y el nuevo resultado sería el
número total de estados posibles de un mensaje.
No vayamos, sin embargo, tan lejos y quedémonos por ahora con las
palabras de cinco letras. Tratemos de enumerar las primeras: aaaaa, aaaab, aaaac,
aaaad, aaaae, aaaaf... ¡Un momento! Parece que hay aquí algo que no funciona: el
idioma castellano tiene muchas palabras de cinco letras (aunque, claro está ,
también tiene otras palabras con más o menos letras); pero ninguna de ellas
coincide con las que acabamos de enumerar, que más parecen los gemidos de un
paciente en el sillón de un dentista.
Ocurre, en efecto, que el idioma castellano (y lo mismo pasa con muchos
otros códigos) no emplea toda su variedad. Esta reducción del número de las
señales válidas respecto del número de las señales posibles se llama
constricción.
En este punto uno podría pensar que la constricción es un defecto de los
lenguajes naturales, motivado, como la ambigüedad y la vaguedad, por el hecho de
que tales lenguajes fueron modelados por el habla de la gente común a lo largo de
los siglos y no por medio de. asépticas estipulaciones deliberadas.
Tal vez la constricción sea un defecto en relación con algunos usos y
respecto de ciertas expresiones lingüísticas; pero en otros aspectos relevantes
entraña una gran ventaja, y esta ventaja tiene que ver con la redundancia.
b) Redundancia
La palabra "redundancia" significa sobra o exceso de abundancia, y en
relación con el lenguaje hablado o escrito designa un defecto de estilo. Muchas
veces oímos expresiones como "un lapso de tiempo" o "subir arriba". Se !as
considera incorrectas porque incurren en repeticiones innecesarias: “lapso" significa
espacio de tiempo, por lo que no hace falta agregar las palabras "de tiempo"; y
"subir" significa suficientemente que el movimiento se dirige en sentido ascendente,
sin que sea preciso aclarar "arriba".
Sin embargo el lenguaje que hablamos y escribimos, aun cuando lo
hagamos con la mayor perfección estilística, está lleno de redundancia en un
sentido más técnico (el que le da la teoría de la información). Supongamos, en
efecto, que recibimos un telegrama fuertemente afectado por ruido (en el caso, un
telegrafista novato y apresurado). El mensaje dice:
Wstarj en Czrdobñ dxs mses. Nt me molñstñn. Eugqnqo.
Con un poco de imaginación (y tal vez con otro poco de conocimiento
acerca de las costumbres del remitente) podemos reconstruir el mensaje y eliminar
las consecuencias del ruido: "Estaré en Córdoba dos meses. No me molesten.
Eugenio".
Este análisis comparativo y reconstructivo se hace en menos tiempo que el
necesario para describirlo, pero es posible porque el mensaje, pese a sus
distorsiones, contiene aún suficiente información para que podamos entenderlo en
su totalidad. De aquí se desprende que, en cierto sentido, la parte del mensaje que
pudo reconstruirse era innecesaria. Y, por lo tanto, el mensaje en sí era
redundante.
En cambio es fácil advertir que la comunicación de cantidades mediante
lenguaje numérico (que no tiene constricción ni, por lo tanto, redundancia) encierra
siempre el peligro de un ruido inadvertido. Si el remitente escribió “Llego en el vuelo
609" y el mensaje dice "llego en el vuelo 689", el receptor no puede advertir el error,
ya que la combinación "689" es tan aceptable como "609". Por esto es común que
al transmitir cantidades se busque la redundancia por medio de la repetición del
mensaje o aun de su traducción a palabras: "seis-cero-nueve".
La redundancia, pues, es un resultado de la constricción del código o de la
repetición del mensaje, y proporciona mayor seguridad frente a los ruidos que
puedan distorsionarlo o mutilarlo.
Sería un error, sin embargo, suponer que la redundancia es una
característica privativa de los mensajes lingüísticos. La naturaleza proporciona
notables ejemplos de redundancia, como el de la transmisión de mensajes
genéticos. Cada especie tiene sus características registradas en el código de las
moléculas de ADN, y la reproducción requiere la trasmisión del mensaje de la
especie a la generación siguiente. Pero la semilla que cae de un árbol puede tener
algún defecto o -como es muy probable- quedar en condiciones que no le permitan
germinar. Si cada árbol generase una sola semilla, pronto la especie
desaparecería. Aquí es donde aparece la redundancia: el árbol arroja decenas o
centenares de semillas en cada año, y de este modo la probabilidad de que la
especie se perpetúe se incrementa, aunque la mayoría de las semillas no llegue a
germinar. Algo semejante ocurre con numerosas especies animales, que son tanto
más prolíficas cuanto mayores sean las dificultades para la supervivencia.
12
Gráfico 5.2.
Variedad, constricción, incertidumbre
El círculo completo representa la
variedad de un código: es decir, la
totalidad de las combinaciones posibles de
sus elementos (letras, palabras, señales).
El sector sombreado representa la
constricción, que es el conjunto de las
combinaciones inaceptables dentro de las
posibles.
Cuanto
mayor
sea
la
constricción
tanto
mayor
ser
la
redundancia
de
las
combinaciones
aceptables. El conjunto de éstas constituye
el ámbito de la incertidumbre. Dentro de
este ámbito, los sectores de magnitud
desigual
representan
las
distintas
probabilidades de cada uno de los estados
posibles y aceptables del mensaje.
VARIEDAD
5.3.2. Información
Hemos examinado hasta ahora el vehículo de la información, que es el
mensaje. Distinguimos sus elementos (emisor, receptor, soporte), sus
circunstancias (canal, ruido) y su presupuesto (el código). También pasamos revista
a ciertas condiciones propias de- código o de su uso en el mensaje (variedad,
constricción, redundancia). Es hora de que prestemos atención al centro y objetivo
de todo este instrumental, que es la información misma.
¿Recuerda el lector a nuestro amigo, el mudo de las lamparitas? Hemos de
pedir su ayuda una vez más para mejor comprender el concepto de información y la
manera en que esta se mide.
Cuando llegamos a su casa lo hallamos algo molesto: un imprevisto corte
de corriente eléctrica lo ha privado de usar su arsenal de lámparas y perillas. Nos
recibe, pues, con una linterna de mano, que usa para las comunicaciones más
elementales. Le preguntamos si quiere dar un paseo con nosotros. "Sí", nos
responde, mediante un destello de la linterna.
Analicemos esta respuesta que, pese a su extrema simplicidad, tiene su
miga. Nosotros no preguntamos al mudo su edad ni su opinión sobre la inmortalidad
del cangrejo: compadecidos de su dificultad para dar respuestas complejas, le
hicimos una pregunta que pudiera contestarse por sí o por no. Y él podía elegir una
cualquiera de las dos respuestas (que lo hiciera con sinceridad o no es un problema
aparte, que carece de relevancia en este punto). De aquí resulta que nuestra
incertidumbre inicial incluía dos alternativas, y la contestación despejó esa
incertidumbre al escoger una de ellas: nos dio una información.
Pero la cantidad de la información proporcionada por el escueto mensaje
del mudo (elegir una entre dos posibilidades, o estados posibles del mensaje) ha
sido adoptada como unidad de medida de la información. Y, como puede ser
aportada por un simple dígito binario (0 ó 1; ver párrafo 5.2.3. b), fue llamada bit
(contracción de las palabras binary digit).
Iniciamos, pues, el paseo prometido y, como para entablar conversación, le
decimos: "-De todas las estaciones del año, yo prefiero el otoño. A vos, ¿cuál te
gusta?" El mudo nos mira con cierta reprobación, y ahí caemos en la cuenta de que
la pregunta no puede ser respondida tan sencillamente con la linterna. En efecto, la
incertidumbre planteada es igual a 4, ya que cuatro son las estaciones elegibles.
Hacemos un rápido cálculo, y vemos que: 22 = 4
Para despejar nuestra incertidumbre, pues, hacen falta 2 bits de información
(es decir, el equivalente de dos respuestas por sí o por no). Y decidimos reformular
nuestra pregunta: "La estación de tu preferencia ¿está entre el otoño y el invierno?".
La linterna permanece apagada: "-No", interpretamos. “-¿Es la primavera?", "-No",
de nuevo. Y la respuesta ha sido dada: nuestro amigo, más bien friolento, prefiere el
verano.
Algo entusiasmados los dos con el sistema, decidimos jugar a un juego de
preguntas y respuestas. Proponemos a nuestro amigo que elija un número
cualquiera entre 1 y 4.096 y le aseguramos que averiguaremos cuál es ese número
mediante preguntas por sí o por no. El mudo nos mira con desconfianza: ¿no serán
demasiadas preguntas? Podríamos estar todo el día... Pero, implacables,
comenzamos:
1) ¿El número está entre 1 y 2.048?
2) ¿Está entre 2.049 y 3.072?
3) ¿Está entre 2.049 y 2.560?
4) ¿Está entre 2.561 y 2.816?
5) ¿Está entre 2.817 y 2.944?
6) ¿Está entre 2.817 y 2.880?
7) ¿Está entre 2.881 y 2.912?
8) ¿Está entre 2.913 y 2.928?
9) ¿Está entre 2.929 y 2.936?
10) ¿Está entre 2.929 y 2.932?
11) ¿Está entre 2.933 y 2.934?
12) ¿Es 2.935?
No
Si
No
No
Si
No
No
No
Si
No
No
No
Ya conocemos el número: es 2.936. Y no debemos sorprendernos por
haberlo logrado en tan pocas preguntas. Después de todo, 212 = 4.096
Con 12 bits de información hemos despejado una incertidumbre de 4.096
posibilidades diferentes.
Con 13 bits alcanzaríamos 8.192 posibilidades (213 = 8.192); con 14,
16.384; y así cada bit adicional permitiría duplicar el número de estados del
mensaje sobre los que pudiese elegir nuestro interlocutor.
De todos modos, como hemos visto, el bit es una unidad muy pequeña de
información: un dígito decimal común contiene más de tres bits de información, y
13
una letra del alfabeto más de cuatro. Por esto las computadoras manejan la
información por grupos de bits, llamados bytes (contracción de binary term). El byte
más común es el de ocho bits, u octeto, que permite identificar una entre 256
posibilidades (28 = 256). La memoria interna de las computadoras (es decir, la
capacidad de almacenar la información contenida en un programa) se mide en
múltiplos del byte: suele decirse "tengo una computadora de tantos K". Un K (ó Kb)
es un kilobyte y equivale en la práctica a unos mil bytes (210 bytes). Pero los
equipos grandes tienen una memoria medida en "rnegas" (Mb): se trata del
megabyte, unidad prácticamente equivalente a un millón de bytes (220 bytes).
Existen otros múltiplos: el gigabyte (230 bytes) y el terabyte (240 bytes),
pero su uso se halla menos generalizado.
Tal vez estemos dando ya demasiadas vueltas en torno a los aspectos
matemáticos de la teoría de la Información. Volvamos a examinar los aspectos
cualitativos del tema que tratamos, y advertiremos un insospechado parentesco
entre información, materia y energía.
5.3.3. Información, energía, entropía
Había una vez, hace muchos siglos, un país cuyos habitantes eran muy
belicosos. Se llamaba Hostilla. Este país limitaba con otros tres: Masilla, Ergilla y
Bitilla, cuya principal preocupación era protegerse contra los ataques hostillos. Los
masilios construyeron una sólida muralla a lo largo de la frontera. Los ergillos
mantenían un poderoso ejército que, bien que mal, rechazaba las constantes
agresiones. Los bitillos parlamentaron con los hostillos, los convencieron de las
ventajas de la cooperación y concluyeron con ellos un tratado de paz.
No es difícil identificar el Instrumento principal utilizado por cada uno de los
países de esta imaginaria historia. Los primeros usaron materia: grandes bloques
de piedra cuya presencia impedía físicamente las invasiones. Los segundos,
energía: la desplegada por los soldados en cada batalla. Los últimos, información:
un Ir y venir de mensajes que tuvieron por efecto la eliminación -o al menos la
reducción- de los motivos que los hostillos pudiesen tener para lanzar un ataque.
Hablamos, desde luego, de instrumentos principales, ya que cada una de las tres
líneas de defensa ha requerido, en parte, de las otras dos. Así, la construcción de la
muralla requirió planos (información) y el trabajo de una multitud de obreros
(energía); la acción de los guerreros requería armas (materia) y entrenamiento
(información); y las conversaciones de paz requerían el traslado de embajadores
(energía) y tal vez algún regalo para el jefe hostillo (materia).
Materia y energía constituyen un continuo que ha sido expresado en la
famosa fórmula de Einstein: E = mc2 (la energía es igual a la masa multiplicada por
el cuadrado de la velocidad de la luz). De modo que masa y energía son lo mismo;
o, para decirlo con mayor rigor, la masa es uno de los estados posibles de la
energía. Este descubrimiento ha abierto el camino a la producción de energía
atómica, que consiste simplemente en transformar la energía de un estado en otro.
La energía, a su vez, puede transformarse en calor o en movimiento; pero
también puede servir para transmitir información.
En efecto, producir información o transmitirla cuesta cierto gasto de energía,
en tanto el uso adecuado de la Información permite lograr resultados que de otro
modo exigirían una cantidad apreciable de energía (recuérdese el ejemplo de los
bitillos y su eficaz diplomacia, y compáreselo con el del ejército ergillo). Y, lo que es
muy importante, gastar energía para producir o transmitir información está lejos de
ser una inversión improductiva, ya que los efectos que se obtienen mediante el uso
de la Información suelen ser muy superiores a los que pueden lograrse con la
simple energía (por ejemplo, bajo la forma de movimiento o calor).
La estrecha relación entro información y energía se manifiesta
especialmente frente a un concepto de vital importancia para la cibernética: la
entropía.
En una primera aproximación, podemos caracterizar la entropía como el
desorden, y a su contraria, la neguentropía, como el orden. La neguentropía
requiere información, y por lo tanto energía. Cuando el aporte de energía cesa,
crece la entropía. Este mecanismo no puede explicarse completamente sin
introducir conceptos sistémicos y termodinámicos que se examinarán en el capitulo
próximo; pero, por ahora, podemos afirmar que todo sector de la realidad tiende a
la entropía a menos que reciba aportes energéticos.
Tratemos de comprender esto mejor mediante un ejemplo. Un día se decide
construir un hospital. Cuando se lo Inaugura, es un hospital modelo: relucientes
salas, pisos brillantes, instrumentos suficientes, aparatos de la mejor tecnología.
Pero luego un programa de economías empieza a retacear los fondos, con lo que
se suspende el mantenimiento. Pasa el tiempo y las paredes se descascaran, los
pisos están quebrados y sucios, los Instrumentos se rompen o se pierden y los
aparatos no funcionan. ¿Qué pasó? Que el hospital fue privado de nuevos aportes
de energía (repintado de paredes, mantenimiento y limpieza de pisos, reparación de
instrumentos y aparatos) y quedó librado a los destructivos efectos de la entropía.
Supongamos que desde antes de su Inauguración el hospital es confiado a
un director experimentado (es decir, que ha acumulado en su cerebro buena
información -en cantidad y calidad- acerca de la administración de hospitales) Y
enérgico (la palabra habla sola, ¿verdad?). Aun con independencia de los medios
materiales con los que se cuente al principio, el hospital marchar como un
engranaje bien aceitado y aprovechar aquellos medios del modo más económico y
eficaz. Pero luego el director se jubila y el cargo permanece vacante (o cubierto por
un interino perezoso y despreocupado) durante un par de años. Al cabo de es te
tiempo ya nada funciona bien: los médicos (salvo casos de especial vocación
profesional) aparecen de cuando en cuando, las enfermeras se dedican a charlar
mientras los pacientes se quejan hasta desgañitarse, la comida es escasa y mala,
los medicamentos faltan y la atención en general es desastrosa. ¿Qué ocurrió aquí?
Que el hospital fue privado del aporte de información (bajo la forma de normas y
de control constante de su cumplimiento) y la entropía hizo de las suyas.
El orden, pues, es un estado menos probable que el desorden, ya que la
realidad tiende hacia éste cada vez que deja de recibir suficiente energía o
información. Si queremos llevar a un sector de la realidad hacia el orden (o
mantenerlo en él) es indispensable que le inyectemos energía, y que parte de esta
energía, al menos, produzca o transmita información.
14
Energía e Información, pues, producen neguentropía. Su adversaria común,
la entropía, es el desorden para la termodinámica, pero adopta, para la teoría de la
información, el rostro de la incertidumbre, concepto que ya hemos examinado. En
efecto, la incertidumbre es el desorden de la comunicación. Si volcamos sobre una
mesa una sopa de letras, lo m s probable es que (enchastre aparte) las letras
aparezcan agrupadas o desparramadas sin orden ni concierto. Esta máxima
entropía (desorden) no contiene mensaje alguno incertidumbre). La probabilidad de
que las letras caigan formando una estrofa del Mart1n Fierro es ínfima y, en la
práctica, despreciable. Este estado altamente improbable (neguentrópico) puede
por lo tanto contener un mensaje y disipar la incertidumbre.
5.3.4. Información, informática, cibernética
La mayor parte del contenido de este capitulo se inscribe en una disciplina
que suele llamarse Teoría de la Información. Esta teoría fue lanzada en 1948 por
el matemático Claude Shannon bajo el nombre de "Teoría matemática de la
comunicación", casi al mismo tiempo que Norbert Wiener presentaba al mundo su
primer libro sobre cibernética.
Las relaciones entre la teoría de la información y la informática dependen
del alcance que se da a este último término. Generalmente se entiende la
informática como el estudio de las computadoras y de sus aplicaciones, o como el
estudio del tratamiento lógico y automático de los sistemas de información. En este
caso, la informática presupone la teoría de la información y se nutre de ella para
perseguir sus propios objetivos particulares. Si prefiriéramos caracterizar la
informática como el estudio de la Información, de su transmisión y de su
tratamiento, incluso por medios automáticos, la teoría de la Información sería parte
integrante, y ciertamente fundamental, de la informática. En cualquier caso, debe
quedar en claro que la informática no es posible sin la teoría de la información.
Pero la informática -al menos en su acepción o parte más relacionada con
las computadoras- tampoco sería posible sin la cibernética, como hemos visto en el
parágrafo 5.1.4. Pues bien, el nexo principal entre informática y cibernética se halla
en la teoría de la Información, que es también parte integrante de la cibernética y de
la teoría general de los sistemas en la medida en que permite explicar y medir la
transmisión y los efectos de la información entre los distintos elementos de un
sistema o entre un sistema y su entorno, a la vez que la cibernética permite
englobar dentro de conceptos más amplios varios de los elementos que maneja la
teoría de la información. Pero el uso de palabras como “sistema” y “entorno”
requiere que nos introduzcamos ya en el campo de los conceptos sistémicos. En
esto nos ocuparemos ahora.
5.4. ALGUNOS CONCEPTOS SISTÉMICOS
5.4. l. Sistema
Hablamos mucho acerca de sistemas, o al menos empleamos con gran
frecuencia la palabra “sistema". Solemos referirnos a sistemas políticos o filosóficos,
al sistema nervioso, a un sistema de aire acondicionado o de calefacción, a
sistemas deductivos, a sistemas de producción, distribución o venta, a sistemas
para aprender dactilografía o corte y confección. Y en los últimos tiempos, claro
está, se oyen muchas menciones acerca de los sistemas informáticos o de
computación. Tal parece que vivimos rodeados de sistemas.
Semejante afirmación es cierta, pero peca de timidez. No sólo vivimos
rodeados de sistemas: también formamos parte de sistemas, y además nosotros
mismos somos sistemas, integrados a nuestra vez por multitud de subsistemas, que
es como se llama a los sistemas que forman parte de otros sistemas mayores en
relación con éstos.
La palabra "sistema", que tanto tiene que ver con nosotros y con lo que nos
rodea, está lejos de representar un concepto nuevo, introducido por la cibernética o
la T.G.S.: lo que sí es nuevo es la importancia que se asigna a esta idea como
herramienta para interpretar la realidad, el análisis de las relaciones entre las cosas
que forman el sistema, del orden que preside esas relaciones y del vínculo entre
cada sistema y el resto del universo.
Este vínculo y esta diferencia entre lo viejo y lo nuevo acerca de los
sistemas -conviene que aclaremos esto ahora- ha llevado a acuñar un neologismo.
Todo lo perteneciente o relativo a un sistema, en la concepción clásica, se llama
sistemático (decimos que es sistemático lo que sigue un sistema o se ajusta a él,
como cualquier actividad escrupulosamente metódica o regida por principios); pero
para designar lo relativo al moderno enfoque de la Teoría General de Sistemas se
usa el adjetivo “sistémico": hablaremos así de conceptos sistémicos, de análisis
sistémico de la realidad, de enfoque sistémico de los problemas.
Comencemos, pues, nuestros estudios sistémicos por indagar sobre el
concepto mismo de sistema.
Por lo pronto, un sistema es un conjunto de elementos (seguir llamándolos
cosas podría traer algunas dificultades clasificatorias). Estos elementos pueden ser
de muy diversas clases: proposiciones (como en un sistema filosófico), objetos
(como en una máquina), seres humanos (como en una familia), elementos
combinados de cada una de dichas clases (como en un sistema industrial) o
animales, vegetales y minerales en general (como en el sistema ecológico).
Claro está que no cualquier conjunto o colección de elementos (como la
Biblia junto al calefón que imaginaba Discépolo) es un sistema: se requiere que
tales elementos estén relacionados entre sí de tal modo que el conjunto funcione
organizadamente como un todo.
Una definición que, con sus más y sus menos, puede satisfacer nuestras
necesidades es la que proponemos aquí: un sistema es una unidad en
interacción con otras o dentro de la cual se distinguen elementos en
interacción.
No todos los aspectos implícitos en esta definición pueden explicarse ahora:
los advertiremos a medida que avancemos en el estudio de los sistemas. Pero uno,
muy importante, merece ser analizado en este momento.
Distinguir un conjunto de elementos de otro conjunto de elementos es
materia de decisión antes que de observación, ya que cualquier elemento puede
pertenecer a infinitos conjuntos, según se nos ocurra imaginar éstos. Es más:
15
distinguir un elemento de otro elemento (aún cuando se trate -para hacerlo fácilde objetos materiales) también es materia de decisión (personal, convencional o
tradicionalmente aceptada): somos nosotros quienes subdividimos la realidad en
segmentos que Individualizamos y eventualmente nombramos en función de
nuestros intereses, de nuestros temores, de nuestra historia o de nuestro mero
capricho.
Por esto definimos "sistema" como una unidad: esta palabra es poco
comprometida. Si queremos pensar en las unidades como cosas-que-están-allí,
santo y bueno. Si preferimos afirmar (como lo hacemos más arriba) que cada
unidad depende de una decisión individualizadora, tanto da. La palabreja no
prejuzga acerca de la posición filosófica de la que se parte, y sirve a tirios y
troyanos. Lo mismo ocurre con el verbo "distinguir": puede ser que distingamos las
cosas porque son distintas o que ellas sean distintas porque las distinguimos.
Cada cual con su idea, y todos en el estudio de los sistemas, que no es una filosofía
sino un método.
De un modo parecido debe interpretarse la palabra "interacción", ya sea
como una acción efectiva, ya sea como una disposición a la acción. Después de
todo, cuando decimos que Carlos y David están en contacto epistolar (lo que
implica la idea de comunicación interactiva) no queremos afirmar que ambos se
escriben cartas veinticuatro horas por día, sino que están dispuestos a escribirse,
tienen la posibilidad de hacerlo y de hecho lo hacen cuando les parece conveniente.
Con todo lo dicho no hemos resuelto la controversia acerca del concepto de
sistema (ni mucho menos), pero disponemos de un punto de apoyo para ir más allá.
Consideremos, pues, las distintas clasificaciones que suelen trazarse para distinguir
unos sistemas de otros.
5.4.2. Sistemas abiertos y sistemas cerrados
Quedamos en que uno de los motivos que pueden llevarnos a individualizar
un segmento de la realidad como sistema es el deseo de analizar su interacción con
otros segmentos. Esta interacción del sistema con el medio que lo rodea (llamado
entorno) consiste en un ir y venir de energía (entendámonos: de materia, de
energía o de información, o de cualquier combinación de las tres). Un automóvil (el
sistema automóvil) recibe energía cuando se le llena el tanque, materia cuando
suben pasajeros o se carga el baúl e información proveniente del manejo o de su
conductor; y entrega materia cuando bajan los pasajeros o se descarga el baúl, así
como por el caño de escape; energía mediante el movimiento de las ruedas y otros
mecanismos (como el limpiaparabrisas) o el calor despedido por el motor, e
información mediante los indicadores de su tablero y las luces de posición y de giro.
En este sentido, el automóvil es un sistema abierto.
En el mismo sentido, un sistema cerrado es el que no intercambia con su
entorno materia, energía ni información (y, para hablar con mayor rigor, carece de
entorno, ya que lo exterior al sistema sólo se llama entorno por su relación con
éste).
Los sistemas "reales" (es decir, aquellos sectores de la realidad que nos
tomamos el trabajo de analizar sistémicamente) son abiertos, pero no
completamente; o cerrados, pero selectivamente. De hecho, son sistemas abiertocerrados: reciben influencia del resto del universo, pero sólo a través de ciertas
vías específicas llamadas entradas, y ejercen influencia sobre el resto del universo,
pero sólo a través de ciertas vías específicas llamadas salidas. En el ejemplo del
automóvil, la boca del tanque de combustible es una entrada, las ruedas y el caño
de escape son salidas y las puertas y la tapa del baúl son tanto entradas como
salidas. Los indicadores del tablero son salidas; el volante y la palanca de cambios,
entradas. Por las entradas el sistema recibe sus ingresos (inputs) de materia,
energía o información. Por las salidas emite sus egresos (outputs) de los mismos
elementos. El resto del sistema opone cierta resistencia a ingresos y egresos: tal es
la noción de frontera entre sistema y entorno (por ejemplo, la chapa que recubre la
carrocería del automóvil).
Gráfico 5.3.
Sistema y entorno
ENTORNO
frontera
ingreso
SISTEMA
egreso
5.4.3. Sistemas estáticos y dinámicos
Solemos llamar estático a lo que está quieto, y dinámico a lo que se mueve.
Como el universo real se mueve y evoluciona constantemente, un sistema estático
sólo puede concebirse en el plano de lo abstracto.
En efecto, llamamos sistema estático a un conjunto de enunciados que
poseen entre sí ciertas relaciones lógicas. Una clase de sistemas estáticos
particularmente importantes para la ciencia es la de los sistemas axiomáticos, en
los cuales, a partir de determinadas proposiciones admitidas de antemano,
llamadas axiomas, se infieren lógicamente otras proposiciones, llamadas teoremas.
En épocas modernas se han desarrollado los sistemas deductivos formales, en
los que la estructura lógica se ha desligado del contenido por medio del uso de
símbolos arbitrarios, con lo que los sistemas adquieren un alto grado de
abstracción.
Todos los sistemas que hemos mencionado aquí se componen de un
conjunto de enunciados vinculados entre sí por ciertas reglas (la exactitud y la
precisión de estos vínculos se han incrementado notablemente a partir del
desarrollo de la lógica moderna y de la creación de sistemas abstractos). Como se
trata de conjuntos de enunciados que responden a ciertas reglas de agrupación,
estos sistemas son atemporales. Esto no significa que hayamos de ser indiferentes
a la época en que se construyen, ni que su elaboración no responda a las
16
necesidades, creencias, prejuicios o condicionamientos del momento histórico en el
que aparecen. Como obra humana tienen un principio y pueden ser abandonados,
rechazados u olvidados; pero como sistemas tienen algo de eterno, de ajeno al
tiempo. Los enunciados de la geometría o de la lógica no están referidos a un
momento determinado: los ángulos interiores de un triángulo equivalen a dos rectos
en cualquier tiempo y lugar en que se utilice la geometría de Euclides; y esta
geometría puede usarse en cualquier tiempo y en cualquier lugar (que convenga
hacerlo es harina de otro costal.
Los sistemas dinámicos, por su parte, tienen mayor relación con lo
concreto. No sólo pueden estar compuestos por enunciados, sino también por
objetos, seres humanos o mezclas de cualquier tipo. Incluyen mecanismos de
movimiento, cambio o evolución, y se hallan por lo tanto sujetos al tiempo: son
temporales. La mecánica celeste es un sistema basado en el movimiento relativo
de los cuerpos que componen el universo; un animal existe gracias a la efectiva
interacción de sus órganos, y esta existencia tiene un principio, el nacimiento, y un
fin, la muerte. Un sistema político rige las relaciones dinámicas entre individuos y
grupos, y también aparece en un momento histórico para ser destruido,
abandonado o reemplazado en otro, cuando sus posibilidades de auto conservación
y defensa se han agotado. Una máquina de escribir es un conjunto organizado de
piezas que interactúan cuando se las pone en funcionamiento, y su existencia
ocupa también un espacio temporal.
5.4.4. Sistemas integrados
Hemos examinado hasta aquí la noción de sistema y un par de
clasificaciones entre las que suelen aplicarse a los sistemas. Sin embargo el interés
central de la T.G.S. y de la cibernética no gira en derredor de los sistemas cerrados,
ni de los sistemas estáticos, ni de cualquier clase de sistemas dinámicos. Los
sistemas más interesantes, los que constituyen el paradigma de la noción de
sistema, son los sistemas integrados. Un sistema integrado es un caso especial
de sistema dinámico, que puede describirse como una entidad autónoma,
estructurado y con funcionalidad propia para el cumplimiento de sus
objetivos, con una frontera que la coloca en relación selectiva con un entorno
específico y dotada de estabilidad dinámica dentro de una evolución
Irreversible.
¿No se entiende, verdad? Claro que no. Pero saldremos fácilmente del
paso si examinamos, una por una, las características mencionadas en la definición.
Respiremos hondo y empecernos.
a) Autonomía
Decimos a veces que un avión posee mayor autonomía de vuelo que otro.
¿Qué significa esto? Que la relación entre su potencia, su velocidad y su consumo
es tal que le permite volar más tiempo, o mayor distancia, sin necesidad de
reabastecerse. Esto depende también, naturalmente, de su capacidad para
almacenar combustible. El combustible acumulado en el depósito del avión es la
reserva del sistema-avión. Del mismo modo una empresa puede mantenerse cierto
tiempo sin créditos, gracias a sus reservas financieras. Un ser humano puede
subsistir cierto tiempo sin comer, gracias a sus reservas de proteínas, hidratos de
carbono y otras sustancias necesarias para la vida (eventualmente acumuladas
bajo la forma de grasa).
Las reservas (también llamadas variedad) constituyen, pues, el medio por
el que el sistema adquiere una relativa independencia del entorno: si en el entorno
las condiciones no son propicias para el intercambio, el sistema puede reducir o aun
suprimir temporalmente algunos aspectos de ese intercambio, o bien adaptarse a
las condiciones imperantes en el exterior. En esto consiste la autonomía.
Adaptarse: he aquí una idea que obliga a profundizar el concepto de
variedad o reserva. Hasta ahora imaginábamos la reserva como un depósito lleno
de combustible, de dinero, de sustancias químicas o de lo que fuere necesario para
hacer funcionar el sistema. Pero esto no es todo: el sistema tiene también
mecanismos más sutiles para hacer frente a las modificaciones (el término técnico
es variaciones) en los ingresos que recibe del entorno. Si hace frío, nuestro cuerpo
genera más calor; si el calor es excesivo, lo disipamos mediante transpiración y
evaporación; si el aire que respiramos se hace menos rico en oxígeno (como en las
zonas muy altas), luego de un período de carencia (apunamiento) nuestra sangre
se hace más rica en glóbulos rojos y así absorbe mejor el oxígeno escaso. Si nos
atacan, nos defendemos o huimos. Esta capacidad para reaccionar ante las
variaciones de- entorno se llama variabilidad; pero el ejercicio de la variabilidad
requiere echar mano de la variedad o acumulación de recursos: salud, fuerza física,
inteligencia. Así como nuestra capacidad para utilizar la energía acumulada como
reserva en nuestro cuerpo es inútil cuando hace dos meses que no comemos, el
impulso de defendernos necesita el apoyo de la fuerza física o de la inteligencia
necesarias para hacerlo; huir eficazmente requiere la velocidad que hemos
adquirido mediante algún entrenamiento; adaptarnos a la vida en Francia es más
fácil si hemos acumulado algún conocimiento del idioma francés, y así es en todo.
Cuanto mayor sea la variedad de un sistema (y cuanto mejor sea su esquema de
variabilidad que le permite utilizar esa variedad con eficacia), tanto mayor será la
autonomía de ese sistema frente a las variaciones del entorno.
Es conveniente en este punto que no nos perdamos en el trabalenguas de
los conceptos relativos a la autonomía: variación es la modificación (o fluctuación)
de las condiciones externas; variedad las reservas con que cuenta el sistema para
hacer frente a aquellas modificaciones; variabilidad la capacidad del sistema para
echar mano de aquellas reservas de un modo eficaz.
Aclaremos esto con un ejemplo. Dos ejércitos se encuentran en plena
batalla, Uno de ellos envía una columna que, inesperadamente, ataca al otro por
retaguardia (variación). Si el otro ejército no cuenta con tropas disponibles para
hacer frente a este ataque, le falta variedad. Si las tiene, pero por incapacidad
táctica de su jefe no logra ponerlas en acción, su variabilidad es insuficiente. En
cualquiera de los dos casos es probable que pierda la batalla, y un ejército
derrotado suele desaparecer como sistema.
La constante batalla por la subsistencia del sistema se pierde cuando la
variación es demasiado grande o demasiado prolongada en el tiempo: la variedad
17
se agota, la variabilidad queda sin recursos y el sistema desaparece, muere, se
transforma acaso en otro sistema o en parte de otro sistema.
b) Estructura y función
Sabemos que los elementos que componen un sistema interactúan según
ciertas relaciones. Estas relaciones configuran una organización, y para conservar y
facilitar la organización hace falta una estructura. La estructura es el orden en que
se hallan distribuidos los elementos del sistema. Así, en un animal los tejidos óseos
son diferentes de los epiteliales, y se hallan agrupados de distinta manera y en
diferentes lugares. Una empresa industrial tendrá un sector de fábrica, otro de
ventas y otro de administración, cada uno con sus propios órganos de dirección, y
un organigrama en el que cada sector, dividido en distintos niveles jerárquicos, se
hallará finalmente supeditado a la dirección general.
Cada elemento del sistema se halla situado en la estructura de acuerdo con
la función que le compete; esto es, con el tipo de actividad que es propia de ese
elemento en relación con los demás.
Estructura y función son conceptos que a menudo se interpretan como
antitéticos. ¿Qué es más importante: la estructura o la función? ¿Es la estructura la
que determina la función, o la función incide en el diseño de la estructura? Para la
Teoría General de Sistemas esta dicotomía es tan vieja e inútil como preguntarse si
fue antes el huevo o la gallina. Algunas disciplinas la han superado: en las ciencias
biológicas conviven armónicamente la anatomía (que estudia estructuras) y la
fisiología (que examina funciones). Pero en las ciencias sociales la polémica ha sido
particularmente extensa, y en antropología se oponen aún las escuelas
estructuralista y funcionalista.
Desde el punto de vista sistémico carece de utilidad plantear preeminencias
semejantes. Estructura y función son dos enfoques complementarios de una misma
realidad, y ninguno describe acabadamente, por si solo, el sistema. Los elementos
ocupan un lugar determinado dentro de la estructura y se distinguen unos de otros
por su función. Sin estructura no habría función, y sin función la estructura
desaparecería (junto con el sistema). La diferencia reside en gran medida en la
óptica desde la que nos dispongamos a apreciar el sistema: un enfoque diacrónico
pone de resalto la función, en tanto otro sincrónico sólo permite ver la estructura.
Por otra parte, si lo que nos lleva a ensanchar la diferencia entre estructura
y función es el carácter estático de la primera y la condición dinámica de la
segunda, hemos de tener en cuenta que esta distinción es apenas relativa: una
estructura es un proceso lento, cuya apreciación estática depende de nuestra
escala temporal. Un ejemplo al paso: nada hay más inmóvil (inmueble, dicen los
abogados) que la tierra. "Tierra firme", repiten, con cierta redundancia, los marinos.
Pero los continentes flotan como placas sobre un mar de roca fundida, y se
mueven, unos respecto de los otros, algunos centímetros por siglo. Para la
apreciación humana (que, fiel a aquello de que "el hombre es la medida de todas
las cosas", aprecia el tiempo por comparación con la vida del homo sapiens ) este
movimiento es prácticamente imperceptible y, por lo tanto, despreciable. Pero
¿cómo lo vería un ser capaz de vivir decenas de miles de millones de años? Y una
mariposa, que vive sólo un día, ¿cómo podría concebir la evolución de un hombre
desde el nacimiento hasta la muerte? Toda estructura, apreciada con suficiente
perspectiva temporal, es un proceso de cambio y transformación. Todo proceso,
apreciado en un lapso suficientemente breve, es una estructura.
Aclarado este punto, examinemos la estructura de un sistema. Veremos que
los distintos subsistemas que lo componen están relacionados entre sí de diversas
maneras. Algunas de esas maneras son simétricas (los subsistemas A y B se
influyen recíprocamente), y otras son asimétricas (el subsistema A influye en el B,
pero no a la inversa). Estas relaciones asimétricas determinan jerarquías dentro del
sistema: decimos que un subsistema A es superior al B (que llamamos Inferior en
relación con el primero) cuando A determina asimétricamente la conducta o función
de B. En todo sistema, trátese de un organismo, de una empresa, de la sociedad
entera, existen subsistemas de control, cuya función consiste en determinar las
conductas o funciones de los subsistemas de nivel inferior.
c) Finalidad
Un sistema tiende a cumplir sus objetivos. Esta característica introduce la
noción de finalidad, que puede hacer enarcar las cejas a más de uno. En efecto, a
primera vista parece que afirmáramos que un sistema fija o persigue
conscientemente sus propios objetivos. Si tal afirmación es aceptable para muchos
(no para todos) cuando se trata de sistemas humanos, lo es menos cuando
hablamos de una ameba o del sistema solar; y el tema puede suscitar reflexiones
filosóficas, metafísicas y hasta éticas.
No es preciso, sin embargo, que nos sumerjamos en tales honduras, ya que
una cosa es finalidad y otra intencionalidad. La intencionalidad, propia de los
sistemas humanos, es una propiedad declarada por el sistema y requiere cierto
grado de autoconciencia y capacidad volitiva. La finalidad es simplemente una
propiedad revelada por el comportamiento efectivo del sistema, por lo que se la ha
definido como el "objetivo o meta que el sistema parece perseguir, pese a las
modificaciones de su entorno". En otras palabras, cuando vemos que un sistema
reacciona a lo largo del tiempo frente a muy diversas variaciones del entorno de
modo tal que cierta función o cierto grupo de funciones se mantiene incólume,
podemos identificar (al menos provisionalmente) a dicha función o dicho grupo de
funciones como finalidad del sistema, ya que el sistema se comporta en la práctica
como si, en la hipótesis de ser consciente y racional, persiguiera deliberadamente
ese objetivo por encima de los demás.
Para la mayoría de los sistemas vivientes puede decirse que su finalidad es
perpetuar la especie, ya que los diversos mecanismos de adaptación parecen
tender a ese objetivo; y esta finalidad determina las funciones de los subsistemas,
tales como el aparato digestivo, el reproductivo, el sistema nervioso, etc.
Cuando se trata de sistemas o subsistemas sociales la finalidad es más
difícil de identificar; no sólo porque cuanto mayores un sistema tanto más reducido
es, en relación con él, el ámbito espacial y temporal en el que puede examinarse su
comportamiento, sino también porque los sistemas y subsistemas sociales suelen
hacer explícita la que consideran su finalidad, y en este punto, aun con buena fe,
18
finalidad e intencionalidad no siempre coinciden. La historia está repleta de
ejemplos de organizaciones sociales que, creyendo perseguir un objetivo, colaboran
eficazmente para lograr otro muy distinto.
d) Frontera
En el parágrafo 5.4.2. introdujimos la noción de frontera. La frontera de un
sistema determina la relación adentro-afuera; esto es, permite establecer, entre
todas las cosas del universo, cuáles serán consideradas elementos del sistema y
cuáles quedarán excluidas de tal privilegio. Sin una frontera el sistema sería
indiscernible de su entorno. Pero la frontera, conviene recordarlo, no es siempre
fácil de identificar, y en muchos casos depende de decisiones por lo menos
lingüísticas y casi siempre pragmáticas. Así, la frontera de un Estado (el límite
geográfico) se extiende hasta abarcar las embajadas que ese estado posee en
países extranjeros, que (hasta cierto punto) se consideran parte del territorio
nacional.Pero tampoco hay una respuesta unívoca a preguntas aparentemente
sencillas, como ¿cuál es la frontera de un ser humano?. Sin duda la piel funciona
como frontera; pero ¿cómo clasificar las aberturas? Si uno, por ejemplo, tiene la
boca abierta, ¿la frontera estará dada por la línea imaginaria trazable entre los
dientes de arriba y los de abajo? ¿Y si tomamos en cuenta los ingresos y los
egresos? Respecto de los ingresos, puede decirse que algo (un alimento, por
ejemplo) ha traspuesto la frontera del organismo cuando empieza a ser asimilado
en el estómago. ¿Deberemos, entonces, decir que la frontera del organismo es la
pared estomacal? En este punto como en otros no hay una respuesta verdadera: la
constitución del sistema depende del observador y de las decisiones metodológicas
que éste adopte para mejor perseguir sus propios fines.
e) Ingreso, proceso, egreso
La frontera de un sistema (concepto que incluye las entradas y salidas a las
que nos hemos referido en el par grafo 5.4.2.) es selectiva. Esto significa que no
cualquier elemento puede ingresar al sistema o salir de él (es decir, convertirse en
ingreso o egreso).
Respecto de un sistema, los objetos capaces de ingresar o egresar pueden
clasificarse en relevantes o irrelevantes. Son relevantes aquellos cuyo ingreso o
egreso produce alguna modificación en el sistema, como la población en un Estado
o las mercaderías en una empresa. Son irrelevantes aquellos que, aunque
traspongan la frontera, no inciden en el funcionamiento del sistema (una bandada
de golondrinas que atraviesa los límites de un país, el polvo atmosférico que se
inhala con el aire al respirar).
A su vez, los objetos relevantes pueden ser beneficiosos, si se trata de
elementos que hacen crecer el sistema o lo estabilizan, como (dentro de ciertas
proporciones) la inmigración en un estado poco poblado y en expansión o el
alimento en un ser biológico, o perjudiciales si tienden a alejar el sistema del punto
de equilibrio o a hacerlo desaparecer como sistema, tales como una invasión o un
veneno.
Si el sistema tiene una finalidad, esta finalidad está necesariamente
relacionada con los ingresos y los egresos; o, más concretamente, con el proceso
que en su interior sufren los ingresos hasta transformarse en egresos: si el egreso
fuera idéntico al ingreso el sistema carecería de finalidad, ya que su existencia no
traería cambio alguno en el mundo. Un motor transforma energía en movimiento;
una vaca transforma hierbas y agua en carne, cuero, estiércol y... más vacas. Una
universidad transforma bachilleres en graduados, en los que distribuye información
que absorbe del entorno. Todo sistema procesa materia, energía o información
para devolverlas bajo otra forma o en otro lugar. Los pasos de esta transformación
son diferentes para cada tipo de ingresos y para cada tipo de sistema, que los
procesa en forma diferente.
Por semejanza con los conceptos de las ciencias biológicas, suele llamarse
anabolismo a la recepción de elementos provenientes del entorno, metabolismo al
proceso de transformación y aprovechamiento que ejerce el sistema sobre los
ingresos para asegurar el crecimiento y el mantenimiento propios y catabolismo a
la descomposición en el sistema de elementos complejos (con liberación de
energía, de trabajo y de desechos) y su expulsión hacia el entorno.
f) Entorno
Al tratar sobre los sistemas en general (par grafo 5.4.2.) nos hemos
aproximado a la noción de entorno (que hemos usado de allí en adelante)
describiendo éste como el medio que rodea al sistema.
En efecto, ningún sistema que no sea cerrado (y los sistemas integrados no
lo son) funciona en el vacío, sino en constante relación con un entorno, El entorno,
a su vez, suele ser un sistema más amplio, que recibe entonces el nombre de meta
sistema respecto del sistema que contiene. El hombre, por ejemplo, se halla
rodeado por otros hombres y todos forman parte del metasistema social. El entorno
del sistema social, incluye a animales, plantas y demás elementos de la naturaleza,
los que a su vez forman el sistema ecológico. Cada sistema mayor es un meta
sistema respecto del menor. Cada sistema menor es un subsistema respecto del
mayor si cumple dentro de él una función.
Pero ¿cómo distinguir el sistema del entorno? Recordemos aquí lo dicho en
el parágrafo 5.4.l.: la identificación de un sistema depende de una decisión
individualizadora, fundada a su vez en razones prácticas. Pues bien, la distinción
entre sistema y entorno (es decir, el trazado de la frontera) depende de la misma
decisión. Claro está que hay decisiones más razonables que otras, en el sentido de
que nos ayudan a examinar la realidad de un modo más sencillo y más útil para
nuestros fines.
El sistema y el entorno se definen, pues, recíprocamente, dado que los
ingresos del sistema son egresos del entorno y viceversa.
Examinemos el funcionamiento del intercambio sistema-entorno en un
ejemplo simplificado. Un motor de automóvil (ver gráfico 5.4.) recibe del entorno
nafta, agua, aceite y electricidad. Procesa estos ingresos en su interior y los
transforma en egresos: trabajo (movimiento), electricidad (alternador), calor (que se
19
disipa en la atmósfera), vapor y gases (por medio del escape, y también destinados
a disiparse en la atmósfera) e información (si tiene un cuentavueltas).
Naturalmente, un ingreso diferente del específico (agua en el tanque de
nafta, por ejemplo) no producir el resultado esperado. Sin embargo, la calidad de
los ingresos puede sufrir variaciones siempre que éstas se sitúen dentro de
determinados valores de tolerancia (como algunos aprovechados dueños de
estaciones de servicio saben, puede haber una mínima cantidad de agua en la
nafta).
Un motor es un sistema destinado a transformar materia-energía en trabajo
mecánico (en el caso de un automóvil, el trabajo producido por el subsistema motor
se comunica a las ruedas para mover el sistema-vehículo). Pero todo proceso de
este tipo genera subproductos (calor, gases, vapor). Por medio del alternador, el
motor genera electricidad, que sirve para recargar la batería (subsistema de
almacenamiento de energía), y de allí va otra vez al motor, con lo que se cierra un
círculo de realimentación.
Pero ésta es otra historia, a la que llegaremos pronto.
Gráfico 5.5.
El sistema taxi
ENTORNO
alimento
abrigo
calor
SISTEMA
HOMBRE -MÁQUINA
nafta
aceite
Subsist.
máquina
trabajo
ENTORNO
NAFTA
AGUA
ELECTRICIDAD
información
agua
Gráfico 5.4.
El motor del automóvil
ACEITE
Subsist.
hombre
vapor, gases
TRABAJO
SISTEMA
MOTOR
INFORMACIÓN
Otros
gastos
$
VAPOR, GASES
CALOR
ENTORNO
Consideremos ahora el automóvil entero como sistema: respecto de él, el
individuo que lo maneja forma parte del entorno (una parte muy importante, pues le
proporciona todos sus ingresos, incluida la información contenida en el manejo
mismo). Pero ¿por qué no imaginar un sistema que incluya al hombre? Ser un
sistema hombre-máquina, con un grado de autonomía mucho mayor.
Supongamos, para simplificar, que se trata de un taxi. El trabajo que egresa del
sistema (transporte) es vendido a los pasajeros (entorno), y con el producto de esa
venta el subsistema-hombre compra los ingresos necesarios para la subsistencia
y el funcionamiento de ambos subsistemas (alimentos, abrigo, nafta, aceite).
La figura muestra un modelo simplificado del sistema hombre-máquina en
que consiste un taxi con su conductor, El rectángulo central representa la
combinación de los dos subsistemas, relacionados recíprocamente (flecha interna
de dos puntas) mediante intercambio de información, materia y energía: el hombre
proporciona manejo y recibe los dados del tablero; se encarga de introducir
combustible y otros insumos y sirve de intermediario para la venta del trabajo
producido por la máquina.
El sistema produce calor, vapor y gases, que se disipan en el entorno.
También entrega al entorno información (luces de giro, por ejemplo). El trabajo llega
al entorno para convertirse en dinero, y parte de- dinero es convertido a su vez en
insumos para el subsistema máquina (nafta, aceite, agua) y para el subsistema
hombre (alimento, abrigo).
En este esquema no figura ya la electricidad (ver gráfico 5.4), porque ella es
producida y consumida dentro de- subsistema máquina: no es ingreso ni egreso del
sistema (salvo por la provisión de batería o lo necesario para servir de soporte a la
información que egresa) sino de los subsistemas internos del subsistema máquina
(motor, alternador, batería).
g) Equilibrio dinámico
"Nadie se baña dos veces en el mismo río", dijo una vez Heráclito. No
quería decir con esto que sus coetáneos fuesen limpios y empedernidos turistas o
sedentarios pringosos: aludía al perpetuo devenir de la naturaleza. Y, en efecto, un
río corre y se pierde en el mar, de modo que las moléculas de agua que lo
componen se renuevan constantemente.
Desde luego, la famosa frase de aquel remoto pensador es, vista con ojos
contemporáneos, poco más que una licencia poético-filosófica. El criterio común de
uso de la palabra "mismo" no incluye, cuando se aplica a un río, la exigencia de que
las moléculas que lo componen sean idénticas en cada observación. El río
20
permanece "idéntico" (para nuestra manera de nombrarlo y hablar de él) aunque su
agua fluya, aunque su nivel varíe, e incluso, aunque de vez en cuando su cauce
sufra alguna modificación. En otras palabras, el río se extiende en el tiempo a pesar
de sus fluctuaciones (y, en parte, gracias a éstas).
Esto no es extraño. El río es un sistema (o puede ser examinado como tal),
y los sistemas se mantienen merced a una forma peculiar de equilibrio. Cuando lo
pierden, desaparecen: mueren, dejan de existir como sistemas. ¿Qué equilibrio es
éste? Ahora lo veremos.
Imaginemos una esfera apoyada sobre una superficie cóncava. La esfera se
alojar en el punto más bajo de la superficie y, si la movemos un poco, tenderá a
volver al mismo sitio. Los físicos llaman a esto equilibrio estable.
Supongamos ahora que la superficie es perfectamente plana y horizontal.
La esfera se quedará quieta en cualquier punto en que la coloquemos, y si la
movemos permanecerá donde nuestro movimiento cese. Este es el equilibrio
indiferente.
¿Y si la superficie sobre la cual apoyamos la esfera es convexa? Hacer que
la esfera se quede quieta ser tan difícil como el legendario experimento del huevo
de Colón. Pero admitamos que, con paciencia y precisión infinitas, logramos que
permanezca en el punto más alto de la protuberancia: es claro que el menor
movimiento, la más leve trepidación harán que se desplace, caiga hacia un costado
y ya no vuelva por sí sola al lugar donde la habíamos colocado. Se trata aquí del
equilibrio inestable.
Estas tres especies de equilibrio pertenecen
a un mismo género: el del equilibrio estático, ya
que en todos los casos mencionados se produce
una equiparación de fuerzas que torna inmóvil al
objeto. Esta inmovilidad es, por cierto, mucho más
precaria en el equilibrio inestable, pero existe en un
momento dado y mientras no cambien las
condiciones: consiste en la inmovilidad del objeto y,
en ocasiones, depende de tal inmovilidad (como en
el caso del equilibrio inestable).
Pero los sistemas tienen otro tipo de
equilibrio: un equilibrio que depende del movimiento,
y que por eso se llama dinámico.
Pensemos en un individuo que está
inflando un globo. A medida que él sopla, el globo
se hincha por la presión del aire contenido en su
interior. En cada momento entre dos soplidos, el
globo se halla en equilibrio estático: la presión
interior se compensa exactamente con la resistencia
ejercida en sentido contrario, por la goma.
Gráfico 5.6. Equilibrio
Pero supongamos ahora que en el globo hay un diminuto orificio,
debidamente reforzado en sus bordes para que el globo no estalle. Por ese agujero
saldrá aire a presión. Y, en el mismo momento, nuestro amigo sigue soplando
como si tal cosa. Si el aire que entra es más que el que sale, el globo seguirá
hinchándose y acabará por explotar cuando se agote la resistencia de la goma. Si
es menos, el globo disminuirá su tamaño hasta perder toda la presión interna. Pero
si las corrientes de entrada y de salida son equivalentes, el globo
permanecerá inflado y conservará indefinidamente su tamaño. Esta compensación
de los cambios, esta armonía de las modificaciones, esta permanencia de
estructuras y funciones en medio del flujo de movimientos es el equilibrio dinámico.
Pero es preciso recordar aquí que el globo puede fluctuar dentro de ciertos
límites sin desinflarse ni estallar: mientras nuestro amigo toma aire para seguir
soplando el globo se contrae, y esta contracción es tal vez compensada luego con
un soplido más fuerte. Algo semejante ocurre con el río, cuyo caudal puede
aumentar o disminuir, también dentro de ciertos límites, sin que el río desaparezca
por inundación ni por desecamiento. Estas fluctuaciones, o variaciones en torno al
punto ideal del equilibrio, se consideran normales dentro de la vida (o incluso dentro
de la "salud") de un sistema.
Gráfico 5.7 Fluctuación
Sin
embargo,
existe siempre un margen
para estas saludables
fluctuaciones. A cierta
distancia por encima o por
debajo del punto ideal de
equilibrio aparecen los
puntos críticos, más allá
de los cuales el equilibrio
se
pierde.
Así,
un
organismo puede hallarse
en equilibrio con su
entorno
en
una
determinada banda de
valores de temperatura, y
tener reservas y variabilidad para soportar bastante bien las fluctuaciones dentro de
esa banda- pero si el frío es excesivo se congela y muere, así como el excesivo
calor (dentro de una cacerola) convierte a un crustáceo vivo y coleando en una
apetitosa langosta a la termidor, restos de un ex sistema viviente que se incorpora
al sistema (aun viviente) de cada comensal.
Se representa aquí la fluctuación de un sistema en torno a su mediana de
equilibrio, dentro y fuera de la zona de regulación económica, hasta la pérdida del
equilibrio dinámico. Conviene aclarar que, como en todo modelo, se trata de una
representación muy simplificada. Las líneas de puntos críticos no son
necesariamente precisas ni rectilíneas, sino zonas en las que aumenta
21
considerablemente la probabilidad de la pérdida de- equilibrio. A la vez, el límite
entre la zona de regulación económica y la zona de regulación costosa es más o
menos arbitrario, ya que el mayor o menor costo de la regulación y lo que pueda
entenderse como uso extraordinario de reservas es cuestión de grado.
Pero sin llegar a tales extremos (o antes de llegar a ellos), el sistema en
equilibrio se halla sujeto a distintos grados de exigencia para el mantenimiento de
ese equilibrio. En efecto, cada fluctuación requiere cierto gasto de energía para
volver a acercarse al punto ideal de equilibrio; y, traspuesto éste, un nuevo gasto
para producir la nueva inflexión de la curva y acercarse otra vez a él. Dentro de
ciertos límites, estos gastos de energía son normales y corresponden a lo que
podría denominarse zona de regulación económica (ver gráfico 5.6).
h) Retroalimentación
El equilibrio de un sistema es, según acabamos de ver, un equilibrio de
flujos: en cada uno de los elementos del sistema, como en el sistema mismo, los
ingresos deben hallarse en cierta relación de equivalencia con los egresos; y,
aunque pueden admitirse altibajos momentáneos, éstos no han de sobrepasar, en
magnitud ni en duración, ciertos márgenes críticos.
Sin embargo, pocos sistemas subsistirían si el cumplimiento de tal requisito
hubiese de quedar librado exclusivamente al azar de las variaciones del entorno o a
un funcionamiento más o menos errático del propio sistema. Cada sistema
destinado a perdurar contiene cierta capacidad (incluida en su esquema de
variabilidad) para regular sus ingresos a partir de sus egresos o sus egresos a partir
de sus ingresos.
Para examinar este tema con mayor claridad, propondremos dos
experimentos, con la aclaración de que deben ser tomados como meros recursos
pedagógicos y que su práctica real queda bajo la absoluta responsabilidad del
lector.
Supóngase que una tarde de primavera vemos en la calle a una joven
atractiva. Nos acercamos y le decimos un piropo. Ella nos mira y sonríe (está bien,
es sólo una suposición; continuemos). El resultado de nuestra acción es percibido
por nosotros como un aliciente para ir más allá. Le proponemos ir a tomar un café.
Acepta: nuevo estímulo. Así, los acontecimientos se desencadenan con mayor
intensidad ante cada resultado... y ya nada vuelve a ser igual que antes.
Imaginemos, en cambio, que nos cruzamos con un señor de anchas
espaldas que nos inspira para nuestro segundo experimento. Le decimos
claramente que jamás hemos visto un individuo tan ridículo como él y, para no dejar
dudas de nuestra actitud, le propinarnos un puntapié en una rodilla (téngase en
cuenta que él es mucho más corpulento que nosotros). No tardamos mucho, por
supuesto, en vernos con un ojo en compota. El resultado de nuestra acción -al
revés que en el caso precedente- nos disuade de persistir en la actitud agresiva que
habíamos adoptado.
En ambos ejemplos observamos cómo un sistema (nuestro sistema) utiliza
los datos obtenidos de sus egresos para reingresarlos bajo la forma de estímulos,
es decir, realimentarse: estímulos positivos en el primer caso y negativos en el
segundo. Este fenómeno se llama realimentación o retroalimentación, y puede
ser positivo o negativo.
Existe retroalimentación positiva cuando, en un sistema, la información
sobre el resultado de una acción genera estímulos en el mismo sentido de la acción
original. Con este tipo de realimentación el sistema se aleja cada vez más del punto
de estabilidad y, si la espiral no se detiene de algún modo, puede desaparecer. En
el ejemplo del primer experimento, nuestra estabilidad afectiva se ve gravemente
afectada y acaso, con motivo de las acciones emprendidas para reestablecer el
equilibrio, nuestro "subsistema-Don-Juan" puede verse alcanzado por la entropía y
aniquilarse en el más probable estado matrimonial. Pero una interpretación tal vez
menos polémica puede alcanzarse con un ejemplo económico.
En efecto, todos conocemos y hemos sufrido en carne propia los
mecanismos de la inflación. El alza de precios genera el reclamo de mayores
salarios; el alza de salarios provoca un aumento de demanda que a su vez hace
subir los precios, y así sucesivamente. Esta sucesión de realimentaciones positivas
termina por poner en peligro la existencia misma del sistema económico.
Gráfico 5.8 Realimentación positiva.
Hay en cambio retroalimentación negativa
cuando la información sobre el resultado de una
acción genera estímulos en sentido inverso al de la
acción original, con lo que se tiende a reducir a cero
el efecto de los cambios. Esta forma de
retroalimentación contrarresta los desplazamientos
de cada magnitud del sistema, con lo que mantiene
los valores cerca del punto ideal de equilibrio
dinámico.
En el ejemplo del
grandote, la reacción
defensiva de éste nos
quitó las ganas de seguir
peleando: esto es, nuestra apreciación del resultado de
nuestra acción se reintrodujo en nuestro sistema para
inhibir cualquier estímulo agresivo que pudiera llevarnos
a un peligro mayor. Con algunos machucones, nuestra
vida ganó en prudencia y en seguridad.
Gráfico 5.9 Retroalimentación negativa
i) Retroacción y regulación
La retroalimentación negativa es, pues, la llave del equilibrio y constituye
uno de los conceptos más importantes de la cibernética. Para abreviar, la
llamaremos en adelante retroacción.
En el ejemplo del grandote el mecanismo psicológico de retroacción
quedaba oscurecido por la violencia con que el entorno nos hacía percibir los
22
resultados de nuestra acción. Un ejemplo mejor -un ejemplo clásico, en verdad- se
halla a nuestro alcance, precisamente sobre el inodoro de nuestro baño. Cuando se
aprieta el botón (o se baja la palanca, o se tira de la cadena), el agua contenida en
el depósito se descarga. Pero hay un flotador apoyado sobre la superficie del agua.
Cuando el nivel del agua desciende, el flotador desciende también y, por un juego
de palancas, abre la válvula de entrada. El agua entra en el depósito y el nivel
vuelve a subir, hasta que la misma palanca actúa en sentido inverso y termina por
cerrar la válvula. Con esto, el mecanismo queda listo para un nuevo uso. Como
puede apreciarse, cada movimiento del nivel del agua provoca una acción de
sentido contrario: el vaciamiento del depósito provoca su llenado y el llenado del
depósito se auto detiene. Gracias a este mecanismo de retroacción, el sistemadepósito fluctúa dentro de ciertos limites mínimo y máximo y su función perdura en
el tiempo.
Gráfico 5.10 Retroacción y regulación
¿Otro ejemplo? La heladera. El
motocompresor, al funcionar, hace bajar
la temperatura interna del gabinete. Este
descenso es registrado por el termostato
y, al llegar a cierto punto crítico, provoca
la
desconexión
del
motor.
La
temperatura, entonces, vuelve a subir;
pero al llegar al punto crítico superior el
termostato lo advierte y pone otra vez a
funcionar el motocompresor. De este
modo la temperatura de los alimentos a
conservar se mantiene aproximadamente
constante, en equilibrio dinámico.
En los ejemplos que hemos
examinado, por cierto, aparece algún
aparatito (algún subsistema) que se
encarga específicamente de mantener el
equilibrio dinámico: el flotador con su
palanca, el termostato. La función de
tales subsistemas es el control y la
regulación de los sistemas a los que
sirven: el control consiste en la detección
de desvíos o perturbaciones con relación a un estado deseado, que es el estado de
equilibrio; y la regulación es el mecanismo de retroalimentaciones compensadas
gracias a las cuales el sistema puede mantener su equilibrio dinámico.
En este punto, el lector se halla en condiciones de extender aquel modo de
interpretación a cualquier sistema conocido. Por ejemplo ¿podría decirse que el
Congreso es uno de los subsistemas reguladores de nuestro país? ¿Hay otros?
¿Cuáles? Y, ya que nos hemos introducido en el tema político, ¿en qué puede
consistir la desestabilización de un gobierno? ¿Sólo en sustituirlo por la
fuerza?¿No habrá modos de hacerle perder el equilibrio actuando sobre distintos
factores acaso secundarios en sí mismos? Trate el lector de responder estas
preguntas u otras semejantes y advertir cuán cerca de nuestra vida cotidiana se
halla la teoría general de sistemas.
j) Evolución irreversible
Hemos examinado hasta ahora el modo en que un sistema se conecta con
su entorno, persigue su finalidad y se autorregula, defendiéndose de las variaciones
del entorno mediante el uso de sus reservas y con el auxilio de sus mecanismos de
retroacción. Este modo de existir implica cierto grado de organización, es decir de
orden. Pero sabemos que -como lo indica el segundo principio de la
termodinámica- los sistemas cerrados evolucionan hacia el máximo desorden, que
es el estado más probable. En esto consiste la entropía.
De modo que un sistema integrado es siempre un "bolsón" de neguentropía
en un medio que presiona en sentido contrario. Logra subsistir (cuando lo logra,
mientras lo logra) gracias a que es un sistema abierto (selectivamente abierto, o
abierto-cerrado, como dijimos en el par grafo 5.4.2.), por lo que absorbe del entorno
un constante aporte de energía (alimentos en un ser vivo, nafta, aceite y
mantenimiento en un automóvil, energía solar en el sistema ecológico) y de
información (el manejo en el automóvil, las sensaciones en un animal, el
conocimiento en los sistemas sociales).
El hecho es que los sistemas tienden a crecer y a desarrollarse. Cuando el
sistema se halla en la etapa de crecimiento posee varios reguladores que impulsan
una realimentación positiva. Esto hace que algunas de las magnitudes que en un
sistema adulto tienden a permanecer constantes aumenten aceleradamente (la
cantidad de células de un organismo, el territorio ocupado por un imperio). Pero,
aun en medio de esta tendencia ascendente (que ser limitada en el tiempo), el
sistema debe mantener su equilibrio dinámico en torno a una mediana y sin superar
los puntos críticos, que van desplazándose en la medida del crecimiento. Así, un
sistema en crecimiento necesita más ingresos provenientes del entorno (más
alimentos, como lo sabe cualquier padre de un adolescente; materiales, energía e
información en el caso de un edificio en construcción; inmigración, trabajo y leyes
en un país que se constituye). Pero siempre tendrá límites de absorción que no
puede superar sin desorganizarse: la excesiva concentración de ciertas sustancias
químicas puede ser tóxica para un organismo biológico, y, en cuanto al equilibrio
demográfico de un país, puede señalarse que a veces la diferencia entre
inmigración e invasión es meramente cuantitativa, como ocurrió en Texas en el siglo
pasado o en los Sudetes en nuestro siglo.
Una vez terminado el crecimiento cesa la tendencia hacia la realimentación
positiva y la ecuación ingresos-egresos se estabiliza. Mientras el sistema
permanezca alejado de los puntos críticos, puede desarrollarse y mantener su
funcionalidad en equilibrio dinámico. Pero esto ocurre durante cierto tiempo.
Los sistemas se desgastan, envejecen. Esto significa que las bandas dentro
de las cuales el equilibrio admite las fluctuaciones se estrechan paulatinamente.
Recuperar el equilibrio se hace cada vez más costoso en términos de reservas, y
23
llega el momento en que ingresos que en la etapa de madurez apenas habrían
tocado la zona de regulación costosa traspongan sin embargo el punto crítico. Un
simple resfrío puede llevar a la muerte a una persona de edad muy avanzada, y una
pequeña rebelión puede terminar con un sistema político de muchos años, cuyos
mecanismos internos de regulación se han desgastado, relajado o esclerosado. No
existe, pues, un momento en que el sistema haya de desaparecer
indefectiblemente; pero sus límites de supervivencia se estrechan hasta tal punto
que la probabilidad de muerte se torna demasiado alta. Un accidente acaso
pequeño hace que el sistema sea alcanzado finalmente por la entropía y se
desintegre. Sus componentes se dispersan, adquieren autonomía (caso de los
señoríos locales a la caída del imperio romano) o pasan a integrar nuevos sistemas
(caso de los elementos químicos provenientes de la descomposición de los
cadáveres, que contribuyen a la nutrición de los vegetales).
de cosméticos, conocen bien el significado de esta palabra: cada etapa se
encadena a las demás de tal suerte que el camino no puede desandarse. Desde la
madurez sólo puede llegarse, con mayor o menor rapidez, a la decadencia: nunca
regresar a la juventud o etapa de crecimiento. Desde luego, esto no ocurre sólo a
hombres, animales y plantas: también sucede con las empresas, los países, las,
máquinas de coser y los receptores de televisión. El segundo principio de la
termodinámica no perdona a ningún sistema y la entropía acecha a cada instante.
El propio crecimiento y la perpetua lucha por mantener el equilibrio requieren un
creciente empleo de reservas. No todas las reservas son renovables, y aun las que
lo son dependen a su vez de esquemas de variabilidad relativamente rígidos. Así la
capacidad de reacción frente a nuevas fluctuaciones va desminuyendo y el,
funcionamiento del sistema es inseparable de su paulatina obsolescencia: cada
minuto de vida incluye una parcela de muerte.
Gráfico 5.11
Evolución de un sistema
k) Recapitulación
Desde luego, el modelo biológico de crecimiento, adultez y muerte es el
más fácil de ejemplificar (por hallarse cercano al paradigma); y su traslado al campo
de lo meta viviente se facilita por nuestro hábito de considerar a los grupos sociales
como organismos. Pero el esquema es aplicable a otros sistemas. Un edificio, por
ejemplo, requiere (como dijimos antes) gran aporte de materia, energía e
información durante su "crecimiento". Una vez terminado, comienza a cumplir su
finalidad (viviendas, por ejemplo) y su absorción de ingresos se reduce
considerablemente: limpieza, pintura de tanto en tanto, reparaciones menores, el
cuidado del portero. Pero llega un momento en que las cañerías se corroen, las
paredes se resquebrajan, el techo deja filtrar la lluvia y el sótano se inunda cada
dos por tres. Las reparaciones se hacen muy costosas y poco a poco dejan de
hacerse. El inmueble se torna inhabitable: es abandonado y luego demolido. Sus
bloques de mampostería sirven de relleno en terrenos bajos y su portón de hierro,
recuperado, repintado y revendido, pasa a adornar la quinta de un ejecutivo en
ascenso.
Esta secuencia de crecimiento, madurez y decadencia de los sistemas
integrados es irreversible. Los seres humanos, pese al empeño de los fabricantes
Volvamos ahora, por un momento, a la definición de sistema integrado
(parágrafo 4.4.). Dijimos que es "una entidad autónoma, estructurada y con
funcionalidad propia para el cumplimiento de sus objetivos, con una frontera que la
coloca en relación selectiva con un entorno específico y dotada de estabilidad
dinámica dentro de una evolución irreversible". Lo que entonces parecía
incomprensible era en verdad un conjunto bastante concentrado de conceptos
técnicos. Hemos ido analizando estos conceptos, uno por uno, a lo largo del
capitulo; y al cabo de esta tarea, que esperamos no haya sido agotadora, nos
hallamos en posesión de los rudimentos de la metodología sistémica: una forma de
aproximación a la realidad o conjunto de reglas de modelización que domina
crecientemente la ciencia de nuestros días. Cada uno de los elementos de la
interpretación sistémica se describe en proposiciones que sólo pueden calificarse
de verdaderas (o falsas) por referencia al esquema que las contiene. El esquema
mismo no es en sí verdadero ni falso, pero la evolución científica reciente muestra
que funciona. Esto de "funcionar" significa que el enfoque sistémico permite
interpretar según sus esquemas una gran cantidad y variedad de sectores de la
realidad, intercambiar entre ellos algunas conclusiones obtenidas de observaciones
sectoriales y manejar los problemas dinámicos y complejos con una eficiencia
novedosa.
A partir de aquí, los frutos del método dependen del lector y del talento con
que el lo aplique a la ciencia o a la técnica de su preferencia.
24
Glosario
Autonomía: Capacidad del sistema para adaptarse a las condiciones del
entorno, reduciendo o aun suprimiendo temporalmente algunos aspectos de su
intercambio con él.
Binario: Dícese del sistema numérico de base 2, o que emplea sólo dos
dígitos.
Bit: Cantidad de información que puede transmitirse mediante un mensaje
que tenga dos estados posibles. Es la unidad mínima de la información.
Bivalente: Dícese del sistema lógico que comprende dos valores de verdad
(verdadero y falso).
Byte: Cantidad de información que puede transmitirse mediante un grupo
de ocho bits.
Canal: Vía o medio físico por el que se traslada la información.
Código: Conjunto de reglas que especifican la conversión de símbolos de
un sistema de representación a símbolos de otro sistema de representación.
Constricción: Reducción, en un código, del número de las señales válidas
respecto del número de las señales posibles.
Control: Función de un sistema que consiste en la detección de desvíos o
perturbaciones con relación a un estado deseado.
Crítico (punto): Límite de la magnitud de fluctuación que puede absorber
un sistema sin padecer un cambio cualitativo irreversible.
Dígito: Cada uno de los caracteres con que en un sistema numérico
pueden representarse las cantidades.
Egreso: Flujo de materia, energía o información que el sistema emite hacia
el entorno.
Entorno: Medio externo de un sistema, con el que éste se halla en
comunicación e intercambio.
Entropía: Medida de progreso de un sistema hacia el estado de desorden
máximo. En teoría de la información, incertidumbre.
Equilibrio: Estado mecánico de un cuerpo cuando está sometido a dos o
más fuerzas que igualan sus acciones y cuya resultante es nula, ya que se
destruyen mutuamente.
Equilibrio dinámico: Persistencia de la forma, conservación de las
estructuras y las funciones de un sistema abierto pese a la continua renovación de
los componentes del mismo, resultante del ajuste de las velocidades de dos o más
flujos que atraviesan el sistema.
Estructura: Orden en que se hallan distribuidos los elementos de un
sistema. Conjunto de relaciones entre los elementos de un conjunto. Forma en que
las funciones se reparten en el sistema.
Feed-back: Ver retroalimentación.
Finalidad: Objetivo o meta que el sistema parece perseguir, pese a las
modificaciones de su entorno.
Fluctuación: Variación en torno al equilibrio.
Frontera: Límite que separa el sistema de su entorno.
Función: Tipo de actividad que es propia de un sistema o de un elemento
de un sistema en relación con los demás.
Hardware: Soporte físico de la función informática; máquinas computadoras
y aparatos periféricos.
Ingreso: Flujo de materia información o energía que un sistema admite
desde su entorno.
Mecanicismo: Modelo de interpretación de la realidad que tiende a
comparar a ésta con una máquina o con un conjunto de máquinas.
Memoria: Almacenamiento de información.
Mensaje: Conjunto de símbolos que un emisor transmite a un receptor por
medio de un canal, de acuerdo con un código común.
Neguentropía: Medida de la tendencia de un sistema abierto irreversible
hacia un estado de orden o diferenciación creciente. En la materia viva, proceso
que conduce a la disminución local y momentánea de la entropía. Entropía
negativa.
Redundancia: Una parte del contenido de un dato o de un mensaje que
puede ser eliminada sin pérdida de información sustancial. Repetición de la misma
información dentro de un mensaje.
Regulación: Mecanismo de retroalimentaciones compensadas gracias a las
cuales un sistema puede mantener su equilibrio dinámico.
Reserva: Acumulación de energía, materia o información de uso no
inmediato gracias a la cual el sistema puede compensar las variaciones impuestas
por el entorno.
Retroacción: Realimentación negativa.
Retroalimentación: Función de un sistema que utiliza los datos obtenidos
de sus egresos para reingresarlos bajo la forma de estímulos. Puede ser positiva o
negativa.
Ruido: En un canal de comunicaciones, cualquier perturbación en la señal
que puede producir alteraciones o interferencias en la comunicación.
Servomecanismo: Dispositivo capaz de guiar un sistema hacia un objetivo
fijado gracias al empleo de medios de control (generalmente retroalimentaciones de
signos opuestos) que corrigen las divergencias a medida que ocurren.
Sistema: Unidad en interacción con otras o dentro de la cual se distinguen
elementos en interacción.
Software: Soporte lógico de la función informática; programación de las
computadoras.
Soporte: Material sobre el que (o en el cual) pueden representarse y
transportarse datos.
Variabilidad: Capacidad del sistema para adaptarse a las variaciones del
entorno o a las fluctuaciones de su medio interno utilizando para ello su variedad o
reservas.
Variación: Modificación de las condiciones del entorno.
Variedad: Ver reserva.
25
Índice de contenidos
NUEVOS ENFOQUES METODOLÓGICOS: ............................................................. 1
CIENCIA, CIBERNÉTICA Y SISTEMA. ...................................................................... 1
5.0. Introducción ......................................................................................................... 1
(presentación de los temas de la unidad) .......................................................... 1
5.1. RESPUESTAS PARA LA CIENCIA DE HOY ...................................................... 1
5.1.1. Las dificultades de la ciencia actual ............................................................. 1
5.1.2. La cibernética ............................................................................................... 2
5.1.3. La teoría general de sistemas ...................................................................... 3
5.1.4. Computación e informática ........................................................................... 3
5.2. COMPUTADORAS, MODELOS E INTELIGENCIA ............................................ 3
5.2. l. Cerebros electrónicos ................................................................................... 3
5.2.2. Brevísima historia de las computadoras ...................................................... 4
5.2.3. El sí y el no ................................................................................................... 4
a) La lógica como esquema binario del razonamiento ...................................... 5
b) El sistema numérico binario ........................................................................... 5
5.2.4. Realidad y modelo ........................................................................................ 6
5.2.5. Inteligencia artificial, inteligencia natural ...................................................... 8
5.2.6. El modelo mecanicista .................................................................................. 9
5.3. LA INFORMACIÓN .............................................................................................. 9
5.3. l. Comunicación, mensaje y codificación ......................................................... 9
a) Variedad y constricción ................................................................................ 10
b) Redundancia ................................................................................................ 11
5.3.2. Información ................................................................................................. 12
5.3.3. Información, energía, entropía ................................................................... 13
5.3.4. Información, informática, cibernética .......................................................... 14
5.4. ALGUNOS CONCEPTOS SISTÉMICOS ......................................................... 14
5.4. l. Sistema ....................................................................................................... 14
5.4.2. Sistemas abiertos y sistemas cerrados ...................................................... 15
5.4.3. Sistemas estáticos y dinámicos.................................................................. 15
5.4.4. Sistemas integrados ................................................................................... 16
a) Autonomía .................................................................................................... 16
b) Estructura y función ..................................................................................... 17
c) Finalidad ....................................................................................................... 17
d) Frontera ........................................................................................................ 18
e) Ingreso, proceso, egreso ............................................................................. 18
f) Entorno .......................................................................................................... 18
g) Equilibrio dinámico ....................................................................................... 19
i) Retroacción y regulación ............................................................................... 21
j) Evolución irreversible .................................................................................... 22
k) Recapitulación .............................................................................................. 23
Glosario ................................................................................................................ 24
Descargar