1 (Módulo 5, “Introducción al conocimiento científico”, Material de lectura, Sistema UBA XXI, EUDEBA, 2da. ed., 1987, Buenos Aires. Texto preparado sobre la base de “Ciencia, Cibernética y Sistemas”, de Ricardo V. Guarinoni, Ricardo A. Guibourg.) NUEVOS ENFOQUES METODOLÓGICOS: CIENCIA, CIBERNÉTICA Y SISTEMA. 5.0. Introducción (presentación de los temas de la unidad) Luego de cursar las cuatro primeras unidades, el estudiante tiene ya conciencia de la herramienta lingüística y conceptual, tiene una idea clara del conocimiento, de los modos en que se lo adquiere y de los requisitos necesarios para integrarlo al cuerpo científico. Ha pasado revista a los métodos de las ciencias formales y a los de las ciencias empíricas, de modo que sabe ya como se hace la ciencia en sus distintas variedades. Y por último, ha analizado la evolución de las ciencias y examinado con alguna prevención el concepto mismo de progreso. Pero el panorama no estaría completo si esta visión epistemológica no incluyera un esbozo de los últimos avances en materia de enfoque científico. Es curioso comprobar que quienes se ocupan de epistemología o filosofía de la ciencia omiten generalmente referirse a la cibernética y a la teoría general de sistemas. Es más: estas disciplinas son percibidas por el hombre de la calle como un mejunje tecnológico que gira en derredor de las computadoras y al que se accede normalmente comprándose un microordenador y concurriendo a uno de esos cursos tan publicitados donde se enseña lenguaje Basic para principiantes. En muchos rostros se lee la sorpresa cuando se insiste en que el enfoque sistémico es mucho más que la computación, y que tiene mayor relación con la filosofía (vía epistemología y metodología) que con la mera técnica. Existe para esta ignorancia una razón histórica: la cibernética y la teoría general de sistemas no fueron elaboradas por los filósofos, sino por especialistas de ciencias particulares que enfrentaban problemas comunes y se unían para analizarlos mediante un análisis interdisciplinario. Los autores de cibernética y sistemas no desdeñaron la filosofía: por el contrario, numerosas obras muestran su empeño en destacar su vínculo con ella. Pero no hubo una reacción simétrica de los filósofos, que rara vez se sintieron dispuestos a examinar estos temas que, aunque de alto interés, provenían de la ingeniería, de la biología o de la conducción empresaria. Nuestro curso de Introducción al Conocimiento Científico se propone tender para el nuevo estudiante universitario y para la comunidad en general el necesario puente entre epistemología y cibernética; y hacerlo, como hasta ahora, a partir de la experiencia cotidiana y de los conceptos previamente estudiados. Comenzaremos por examinar las dificultades de la ciencia actual y el modo en que los nuevos enfoques metodológicos, unidos a los recientes adelantos de la técnica, contribuyen a dar la respuesta necesaria. Para esto, en la sección 5.1 se examinar n la diferencia y las relaciones entre computación e informática, por un lado, y cibernética y teoría general de sistemas por el otro. En la sección 5.2. se hablar de las computadoras, pero no para centrar el interés en ellas sino para mostrar el tipo de razonamiento y de cálculo que subyace a su funcionamiento, desarrollar la importante noción de modelo y desmitificar el concepto de inteligencia artificial como contrapuesto al de inteligencia natural. En la sección 5.3. hablaremos de la información: cómo se la transmite, cómo se la mide, cuál es su relación con la incertidumbre y de qué modo el concepto de información: excede el ámbito periodístico o discursivo para integrarse al análisis de la naturaleza. Por último, en la sección 5.4. examinaremos el concepto de sistema y la constelación de nociones que gira en su derredor: allí veremos cómo cualquier sector de la realidad que nos interese puede examinarse de acuerdo con un nuevo esquema de interpretación y ser estudiado con una técnica particularmente fructífera. 5.1. RESPUESTAS PARA LA CIENCIA DE HOY 5.1.1. Las dificultades de la ciencia actual El siglo XIX se consideraba a sí mismo una revolucionaria síntesis de los conocimientos humanos. Sin perder de vista el panorama de las artes ni renegar de la cultura clásica, el hombre exploraría los ocultos rincones de la tierra, dominaba la física, sistematizaba la química, perfeccionaba las matemáticas, reinterpretaba la historia y fundaba las ciencias sociales; ponía a trabajar el vapor, el gas y la electricidad; construía automóviles, ensayaba aeroplanos y soñaba, en fin, con un progreso permanente que continuase en línea recta el camino hasta entonces recorrido. En lugar de ese progreso lineal y paulatino, el siglo XX provocó una verdadera explosión. La expresión no vale sólo por las derivaciones bélicas de la nueva tecnología, sino también por el aumento brusco y la creciente dispersión de los conocimientos. La producción de saber científico se incrementó en forma exponencial, al punto que ni siquiera los especialistas en cualquier disciplina puedan jactarse de estar al tanto de las últimas novedades en su materia. La proliferación de trabajos científicos, de revistas y de libros dedicados a las ciencias es tal que se hace imposible obtener una visión de conjunto. Los tratados se desactualizan durante su redacción, y las nuevas ideas aparecen, dispersas y relativamente inconexas, en multitud de comunicaciones y artículos cuya cantidad abruma a quien pretenda leerlos y que pronto son cubiertos por una nueva oleada 2 de trabajos científicos. Estos parecen ser, según el psiquiatra James Miller, "catálogos de repuestos para una máquina que nunca se construye". Entre todos los hombres de ciencia que alguna vez han existido, nueve de cada diez viven hoy. Su tarea, crecientemente especializada y a menudo duplicada por falta de comunicación entre ellos, se abre como la copa de un árbol, cuyos tallos periféricos se encuentran cada vez más alejados unos de otros a medida que la planta crece. Esta forma de evolución del pensamiento científico, que ha proporcionado a nuestro siglo una masa do conocimientos y de aplicaciones técnicas jamás soñada antes, no se halla empero exenta de dificultades y peligros. Entre estos inconvenientes, tres pueden citarse corno los más importantes: a) La cantidad de Información teóricamente disponible sobre cada sector de la ciencia es tan grande que su disponibilidad real (es decir, la posibilidad de que un mismo científico o grupo de científicos llegue a abarcarla) tiende a disminuir. A este resultado contribuye también la circunstancia de hallarse la información que interesa en cada momento extremadamente dispersa en un mar de otras informaciones que no interesan en el mismo contexto. b) Las investigaciones que se emprenden a partir de ciencias diferentes, aunque se refieran a temas relativamente conexos, carecen de puntos orgánicos de contacto; y los científicos que las encaran usan a menudo códigos lingüísticos (lenguajes técnicos) de aplicación reducida a pequeños grupos, lo que impide que los resultados de una investigación, aunque se hallen teóricamente al alcance de los protagonistas de otra, incidan fácilmente en el desarrollo de ésta. c) En otras épocas un hombre de ciencia (Aristóteles, Leonardo, Leibniz) podía abarcar todos o casi todos los conocimientos de su tiempo. A partir del siglo XVIII esta universalidad del científico se ha tornado imposible, y en nuestra era asistimos a una creciente especialización que, al decir de algún humorista, hace que el hombre de ciencia sepa cada vez más acerca de cada vez menos, hasta llegar al punto en que sepa todo acerca de nada. La observación no pasaría de ser una broma si fuese fácil unir luego los fragmentos (dispersos entre una multitud de personas) para reconstruir la imagen de la realidad. El problema reside en que los fragmentos no siempre encajan entre sí, como las piezas de un rompecabezas; y en que la especialización, modalidad que integra el actual paradigma de la investigación científica, hace que cada estudioso pierda de vista el conjunto por su tendencia a considerar con especial detenimiento el sector de la ciencia que le es propio. Muchos problemas que nacen de la complejidad de ciertos objetos (una sociedad, un sistema económico, un ser viviente) escapan entonces al examen minucioso del especialista, habituado a analizar lo complejo para transformarlo en pluralidad de partes simples y a detener (siquiera idealmente) lo que se halla en movimiento para examinarlo con mayor calma. Tales dificultades han sido advertidas desde tiempo atrás, y nuestra época forja hoy nuevos instrumentos para superarlas. El manejo y el tratamiento de grandes cantidades de información es el tema de la informática; el auxilio tecnológico para cumplir este fin es encarado por la computación; la visión integradora de la realidad que permita describir y comprender lo complejo y lograr de este modo una mayor eficacia en la acción es el contenido de la cibernética y de la teoría general de sistemas. Estas disciplinas se hallan relacionadas entre sí, pero sus límites no suelen ser cabalmente establecidos en el lenguaje cotidiano. La cibernética y la informática se entienden casi siempre como campos de actividad que tienen por centro a las computadoras, y la teoría general de sistemas no siempre se distingue de la cibernética. Algunos expertos usan estas dos últimas expresiones como sinónimas, y otros consideran peyorativamente a la cibernética, a la que describen como el nombre que los científicos poco serios otorgan a la teoría de sistemas. Entre los que las distinguen, unos piensan que la cibernética es una parte de la teoría general de sistemas y otros sostienen la tesis inversa. No tomaremos partido por ninguna de estas opiniones, ya que ellas versan sobre una disputa clasificatoria. 5.1.2. La cibernética Si hubiera una definición clara y acertada de "cibernética", el principio de nuestro estudio sería demasiado fácil. El pensamiento de nuestro tiempo (como ya vimos) es más complejo de lo que quisiéramos y las palabras que cada uno emplea no siempre son interpretadas del mismo modo por los demás. En la medida en que la autoridad paterna valga en materia científica, puede citarse la definición del creador de la cibernética, Norbert Wiener: es la ciencia del control y la comunicación en el animal y en la máquina". Otros la definen como "la ciencia que estudia las formas de organizar la acción''. Todos, en cambio, recuerdan que la palabra "cibernética" proviene del vocablo griego kybernetes, que significa timonel, hasta el punto de que ya en la obra de Platón aparece kybernetike como arte de conducir navíos (y, por analogía, hombres). La moderna cibernética tiene su origen en la década del treinta, cuando Norbert Wiener, que enseñaba matemática en el MIT (Instituto Tecnológico de Massachussets) emprendió estudios interdisciplinarios con el neurofisiólogo Arthur Rosemblueth. En 1940, durante la guerra, Wiener trabajaba con un joven ingeniero, Julian Bigelow, en el desarrollo de un aparato de control automático de tiro para los cañones antiaéreos. Este aparato medía la distancia entre la línea de tiro y la trayectoria del objetivo y corregía en su consecuencia el próximo tiro. Wiener observó que la máquina tenía un comportamiento semejante a algunas actividades cerebrales, ya que, por así decirlo, "aprendía de su propia experiencia". Así surgió uno de los conceptos fundamentales de la cibernética: la retroalimentación (o feedback), principio que vale para controlar una acción, sea ésta de una máquina o de un ser viviente. El descubrimiento de éste y de otros conceptos básicos llevó a Wiener a publicar en 1948 el primer texto integral de cibernética, llamado Cibernética, o la ciencia del control y la comunicación en el animal y en la máquina. Luego sus investigaciones se orientaron hacia la aplicación de los conceptos cibernéticos a las ciencias sociales. El nacimiento de la cibernética y de las disciplinas conexas propone un cambio de paradigma de la ciencia. Las ciencias del siglo XIX y de la primera 3 mitad del siglo XX se hallan dominadas por la visión cartesiana del mundo y tienen por arquetipos a la física y a la química: los problemas deben analizarse (dividirse) y describirse con la mayor precisión posible. El nuevo enfoque opta por romper el acento en la apreciación de la totalidad, por lo que recibe a veces el nombre de holismo, y su paradigma gira en torno a la biología, ya que tiende a estudiar las realidades complejas y dinámicas al modo en. que los biólogos estudian los organismos. Esta influencia biológica es tan grande que, para algunos autores, la cibernética es la disciplina que estudia la base física de algunos procesos biológicos, especialmente la inteligencia humana, con el fin de reproducirlos mediante máquinas. 5.1.3. La teoría general de sistemas Hacia 1920 un biólogo austriaco luego radicado en los Estados Unidos, Ludwig von Bertalanffy, había avanzado la idea de una teoría general tendiente al estudio de las organizaciones complejas. En 1950 redondeó su propuesta: una Teoría General de Sistemas (TGS) abarcaría el estudio de los sistemas en todos los campos científicos, lo que llevaría a reunificar la ciencia por la vía de un método integrador. En 1954 se creó la Sociedad para el Estudio de los Sistemas Generales (Society for General Systems Research), Una buena muestra del enfoque transdisciplinario de la investigación consiste en advertir que en la lista de los principales fundadores se encuentran el biólogo von Bertalanffy, el matemático A. Rapoport y el economista Kenneth Boulding. Entre sus primeros colaboradores se destacan la antropóloga Margaret Mead, el psicólogo y epistemólogo Jean Piaget, el economista Herbert Sinion y los Psiquiatras James Miller y W. Ross Ashby. El objetivo fundamental que agrupa a cultores de tan diversas disciplinas es elaborar una serie de conceptos comunes que permitan realizar el viejo ideal de la unidad de la ciencia. Rápidamente se obtuvieron. algunos resultados: el concepto de sistema y otros con él relacionados (como el ya citado de retroalimentación.) se revelaron muy fecundos, especialmente en su aplicación a la biología y a las ciencias sociales; y aun la física y la química los utilizaron con provecho. A partir de 1965 se produjo una gran proliferación de trabajos en torno a la TGS, y hoy en día se pueden señalar aplicaciones en casi todas las disciplinas conocidas. En realidad, la TGS se encuentra actualmente en pleno desarrollo y abarca una serie de teorías particulares, Todas tienen en común el enfoque holístico, frente a los sistemas, así como la posibilidad de aplicación a campos diversos del conocimiento humano. 5.1.4. Computación e informática Como veremos más adelante, la segunda mitad de nuestro siglo asiste al nacimiento y al desarrollo de la computadora. Los expertos en esta nueva técnica acuñaron pronto una expresión no exenta de humor para referirse a la parte puramente física de su especialidad: hardware, expresión que podría traducirse entre nosotros como los “fierros" o la “ferretería". Pero las máquinas debían ser puestas a trabajar, y para esto era necesario idear programas y diseñar lenguajes especiales en los que estos programas pudieron expresarse e insertarse en la memoria de las computadoras. Corno, en ingles, lo contrario de hard (duro) es soft (blando), los pragmáticos norteamericanos combinaron un juego de palabras e inventaron un nuevo vocablo: software, expresión que se ha universalizado para designar a los programas en general o, más específicamente, a los programas necesarios o convenientes para hacer el mejor uso posible de determinado hardware. Pues bien, suele llamarse computación al conjunto de conocimientos científicos y técnicos relativos a la construcción y al funcionamiento de las computadoras, y el vocablo se extiende también habitualmente para abarcar el manejo de las máquinas y el conocimiento y el diseño del software. Esta segunda parte de la computación puede entenderse superpuesta con el contenido de la informática, en tanto ésta se considera primordialmente referida al tratamiento de la información mediante computadoras; pero la informática abarca un campo más amplio, fundado en la teoría de la información y estrechamente relacionado con ésta. Ella ha sido definida como la disciplina que tiene como objeto de estudio los procesos que se ejercen sobre datos de información, por ejemplo: generación, obtención, registro, depuración, concentración, filtrado, ordenamiento, validación, codificación, almacenamiento, integración, cálculo, acceso, recuperación, visualización, interpretación, análisis, difusión, etc.''. En este sentido más amplio puede hablarse también de Informática sin computadoras: la bibliotecología o la técnica de fichado, por ejemplo, integrarían la versión manual de una disciplina que nuestro tiempo sólo concibe como tributaria de la electrónica. Pero, a todo esto, ¿cuál es la relación entre computación, informática y cibernética? Entre estas disciplinas existe un doble vínculo. En primer lugar, la construcción y el funcionamiento de las computadoras se basa generalmente en los principios de la cibernética, por lo que es adecuado llamarlas máquinas cibernéticas, como en un tiempo se hacía, En segundo lugar, la informática constituye una auxiliar inapreciable en la tarea de comprender los sistemas complejos propuesta por la cibernética y por la TGS. 5.2. COMPUTADORAS, MODELOS E INTELIGENCIA 5.2. l. Cerebros electrónicos Un autor norteamericano de origen holandés, Hendrik W. van Loon, escribió una Historia de las invenciones en la que los avances técnicos del hombre se describían y clasificaban como prolongaciones del cuerpo humano. Así, del pie se pasaba al carro, a la bicicleta, al ferrocarril y al automóvil o al avión; de la mano a la grúa o a la excavadora mecánica, de la piel a la vivienda moderna; del ojo al telescopio y al microscopio. Van Loon murió en 1944, sin imaginar el camino que emprenderían los prolongadores del cerebro. 4 5.2.2. Brevísima historia de las computadoras La idea de máquinas que ayudasen las funciones del cerebro no era nueva. El ábaco con que los niños aprendían a contar contiene un rudimento de memoria: las bolillas que quedan a un lado son las que ya hemos sumado, y permanecen a la vista para que, volviendo a contarlas, averigüemos el total de la suma. En 1641 un joven de diecinueve años, Blas Pascal, construyó la primera máquina de sumar, fundada en el movimiento de ruedas combinadas de tal suerte que una vuelta completa de cada una de ellas hiciese girar la anterior en un décimo de vuelta. Otro filósofo, Gottfried Wilhelm Leibniz, buscó a partir de 1671 construir una máquina que pudiese multiplicar. No lo logró plenamente, pero sus estudios fueron de invalorable utilidad para los desarrollos posteriores. El francés Joseph-Marie Jacquard inventó en 1801 un telar capaz de tejer automáticamente distintos dibujos, según las instrucciones contenidas en una tarjeta perforada: había nacido la memoria programable. Este adelanto fue aprovechado por el matemático inglés Charles Babbage, que proyectó en 1834 una calculadora (llamada Máquina Analítica) capaz de resolver problemas matemáticos según el programa contenido en tarjetas perforadas y de realimentarse con las soluciones obtenidas para resolver con ellas problemas más complejos. Era la primera computadora. La máquina de Babbage no llegó a construirse, ya que los limitados recursos técnicos de su época no lo permitían. Su funcionamiento era puramente mecánico, y dependía de una enorme cantidad de ruedas, engranajes y bielas que la hacían prácticamente inoperable. Pero la concepción de Babbage sirvió más tarde para la construcción de las modernas computadoras, una vez reemplazadas las piezas mecánicas por otras electrónicas. Esto ocurrió un siglo más tarde, entre 1939 y 1944, cuando el norteamericano Howard Aiken, fundado en la obra de Babbage, proyectó un computador universal compuesto por relés electromagnéticos y alimentado por instrucciones contenidas en cintas perforadas. La máquina se llamó Mark 1, y era capaz de concluir una sencilla operación matemática en tres décimas de segundo. A partir de aquí, la historia de las máquinas capaces de amplificar el poder del cerebro humano se acelera cada vez más; y cada etapa de avance recibe el nombre de generación. En 1946 los relés fueron reemplazados por válvulas electrónicas (como las lámparas de las antiguas radios): el funcionamiento de la máquina no dependía ya del movimiento de los interruptores electromecánicos sino del flujo de electrones, y la velocidad de respuesta ya no se medía en segundos, sino en milésimas de segundo. Tal fue el resultado del ENIAC (Electronic Numerical Integrator and Computer), construido en Pennsylvania por J. Presper Eckert y John W. Mauchly, punto inicial de la primera generación de computadoras. Estas máquinas, por cierto, estaban lejos de la practicidad a la que hoy estamos habituados. La computadora ENIAC pesaba treinta toneladas, y sus válvulas generaban tanto calor que requerían, para no quemarse, un sistema de refrigeración casi tan voluminoso como la misma máquina. Estos problemas se mantuvieron en otras computadoras más avanzadas de la misma generación, como la EDVAC (Electronic Discrete Variable Automatic Computer), concebida en 1945, o la EDSAC (Electronic Delay Storage Automatic Calculator), de 1949. En esta etapa salieron al mercado las primeras máquinas construidas en serie con programa interno. La segunda generación aparece en 1954 con la introducción del transistor en reemplazo de la válvula. El transistor es mucho más pequeño, no genera calor y tiene menor costo, con lo que las computadoras dejaron de ser prohibitivas. Comenzaron, además, a operar en microsegundos (millonésimas de segundo). La tercera generación prescinde a su vez de los transistores, y los sustituye por circuitos integrados. Estos, construidos sobre pequeñas partículas de silicio, son capaces de desempeñar diversas funciones: las computadoras redujeron radicalmente su tamaño y su precio y el tiempo de operación empezó a medirse en fracciones de microsegundo. Muchas máquinas de esta generación se hallan hoy en uso. La cuarta generación mantiene el principio de los circuitos integrados, pero emplea circuitos de alto nivel de integración: si un microcircuito era capaz en un principio de desempeñar unas 30 funciones diferentes, ahora pueden cumplir más de mil. La quinta generación está en pleno desarrollo. Se funda en el paralelismo extensivo; es decir, en la ejecución concurrente de instrucciones mediante procesamiento paralelo, a través de una cantidad de procesadores asociados a almacenamientos parciales de información. Se busca de este modo instrumentar en mayor medida la inteligencia artificial: el desarrollo de comportamientos basados en el aprendizaje o capacidad de generar relaciones entre conceptos y transferirlas a nuevas situaciones. Se espera que las nuevas computadoras podrán leer cualquier tipo de escrito y dialogar oralmente con el usuario en lenguaje natural, lo que dar impredecible impulso a la robótica. Van ya, pues, cinco generaciones de computadoras en el espacio de una sola generación humana. A lo largo de ese tiempo, su precio y su tamaño se han hecho accesibles de tal modo (y su capacidad se ha ampliado hasta tal punto) que casi no hay actividad humana en la que no se las emplee o proyecte empleárselas. 5.2.3. El sí y el no ¿Cómo funcionan estas máquinas maravillosas? ¿Cuál es el íntimo secreto que les permite secundar al hombre de tantas maneras y superar en mucho su capacidad de cálculo en las operaciones a las que son aplicadas? Esta pregunta, como tantas otras, tiene más de una respuesta porque tiene más de una interpretación. Un ingeniero electrónico se deleitaría explicándonos los vericuetos de los circuitos integrados y las hazañas de las partículas de silicio, el modo de construcción y la configuración de los sistemas informáticos en unidades centrales y periféricas. Un analista de sistemas o un programador nos hablarían con los ojos brillantes acerca de los lenguajes de programación y de los últimos avances del software. Se trata, sin duda, de temas fascinantes; pero cada uno de ellos corresponde a alguna especialidad del conocimiento humano. Por el momento, nosotros no pretendemos tanto: nuestra aproximación a estas materias es 5 epistemológica antes que tecnológica, y sólo buscamos comprender la base más sencilla del funcionamiento de las computadoras, aquello que pueda servir para interpretar también otros sectores de la realidad a nuestro alcance. Pues bien, en este sentido el secreto de la computadora reside en una alternativa tan sencilla como la que se encierra en la perilla del velador: por cada uno de sus circuitos una corriente eléctrica puede pasar o no pasar. En efecto, imaginemos una persona privada del habla, que sólo tuviere a su alcance el interruptor de una lámpara. Si le formulamos una pregunta que pueda contestar por sí o por no, el interrogado encenderá la luz para afirmar y la apagará (o no la encenderá) para negar. Claro está que semejante lenguaje deja mucho que desear: las preguntas deben ser cuidadosamente escogidas para que las respuestas sean inequívocas, y el dueño de la perilla se ve impedido de contarnos por su propia iniciativa sus meditaciones metafísicas o el último partido de fútbol que vio por televisión. La situación, empero, puede mejorarse algo si multiplicamos las lámparas y las perillas y convenimos un código en el que la cantidad y el orden de las lámparas encendidas o apagadas tenga asignados ciertos significados. Cuanto mayor sea la cantidad de lámparas y cuanto más complejo sea el código, tanto mayor ser la capacidad de comunicación de nuestro ruido interlocutor. Desde luego, a partir de cierto punto podernos hallar una solución muy satisfactoria: un número limitado de lámparas (cinco, para ser exactos) nos permitiría asignar a cada configuración el valor de una letra del alfabeto, y a partir de allí el hombre de las perillas podría expresar cuánto se le antojara dentro del amplísimo código lingüístico natural. Este modo de expresión también se halla al alcance de las máquinas; pero la fuente de lo que haya de expresarse, que es el pensamiento, tiene para ellas una limitación: por complejo que sea su programa, en la base de cada decisión debe haber también un número finito de alternativas que puedan responderse por si o por no. De este modo las computadoras reproducen, tanto en su comunicación con el hombre cuanto en su funcionamiento interno, el problema de nuestro amigo mudo; pero la cantidad de combinaciones que contiene su código es tal que los resultados obtenidos nos hacen olvidar a menudo la sencilla alternativa que les sirve de base. iniciaran un desarrollo serio, el hombre desarrolló acerca de su propio pensamiento una disciplina que pronto alcanzó notable perfección formal: se trata de la lógica. La lógica no estudia los mecanismos reales del pensamiento, ya que no es una ciencia empírica; pero -como ya sabemos- propone modelos de razonamiento válido, lo que equivale, hablando mal y pronto, a establecer ciertos patrones que el pensamiento debe satisfacer si pretende cumplir sus propios fines. Por cierto, no existe una sola lógica sino muchas; pero la primera en formularse y la más extendida supone que para una proposición descriptiva cualquiera existen dos y sólo dos posibilidades, excluyentes entre sí: la proposición puede ser verdadera o falsa. Estas dos posibilidades se llaman valores de verdad, y una lógica que reconoce dos valores de verdad recibe el nombre de lógica bivalente, o binaria. Este carácter binario de la lógica más difundida se halla en el origen de principios comúnmente aceptados, como los de no contradicción (una proposición no puede ser a la vez verdadera y falsa) o del tercero excluido (una proposición no puede ser sino verdadera o falsa). A partir de allí la lógica elabora otros conceptos más complejos para combinar proposiciones: la conjunción (función en que ambas proposiciones son verdaderas), la disyunción (no son las dos falsas) o el condicional (no se da el caso en que la primera sea verdadera y la segunda falsa). Y estos conceptos (y otros) pueden a su vez combinarse entre sí para dar lugar a la construcción de los más complicados razonamientos. Recapitulemos, pues. El hombre no sabe con exactitud cómo piensa, pero sí sabe cómo quiere pensar. Su imagen del razonamiento deseado, en su aspecto más difundido, se basa en una lógica bivalente. Y el funcionamiento de la computadora depende, a su vez, de la formulación de un programa en términos que puedan traducirse a combinaciones de dos y sólo dos estados: positivo y negativo. Por esto la máquina se ha convertido con tanta facilidad en una prolongación multiplicadora de la capacidad de razonamiento del hombre: no de su razonamiento real, que incluye virtudes y defectos extralógicos, sino de su razonamiento ideal, ajustado a un esquema binario. La computadora razona, pues, como el ser humano quiere él mismo razonar. a) La lógica como esquema binario del razonamiento b) El sistema numérico binario Dijimos hace un momento que el pensamiento (si así puede llamársele) de la computadora se halla limitado por el esquema íntimo del funcionamiento de la máquina: cada decisión ha de depender de un número finito de alternativas "si-no". Pero ¿se trata realmente de una limitación? Para comprender mejor esta pregunta -y tal vez imaginar una respuesta- sería bueno que examinemos por un momento las decisiones humanas. El pensamiento del hombre, como fenómeno real, es en muchos aspectos un misterio aún no resuelto. La psicología y la biología intentan, por diversos caminos, explicar los mecanismos por medio de los cuales discurre efectivamente la actividad mental del ser humano. Pero, desde mucho antes que tales intentos El razonamiento que el hombre desea imprimir a la computadora no depende tan sólo del manejo de conceptos lógicos: también (y en medida muy grande) Se requiere que la máquina maneje conceptos numéricos y efectúe cálculos matemáticos. Pero estas operaciones, del mismo modo que los razonamientos y las comunicaciones, deben reducirse, para uso de la máquina a combinaciones de la alternativa binaria. Esta circunstancia provee amplio campo de aplicación a una idea que comenzó a desarrollarse a partir de Leibniz el sistema numérico binario. Todos estamos habituados a manejar nuestro sistema numérico decimal. Consta de diez dígitos, de 0 a 9, con cuyas combinaciones pueden expresarse todos los números. ¿Por qué son diez? El nombre que se les da (dígitos) sugiere 6 ya la explicación más aceptada: el ser humano tiene diez dedos en las dos manos, y se habituó desde el principio a contar con ellos. Cada vez que se le terminaban los dedos debía empezar de nuevo, por lo que se veía obligado a numerar las "vueltas'' en que empleaba todos sus dedos. Cada una de estas vueltas era una decena, y al sumarse diez vueltas era preciso pasar a otro nivel: la centena, o "vuelta de diez vueltas". Así es como el número 14, por ejemplo, muestra que ya se ha empleado una vuelta de diez y que vamos por el cuarto dedo de la segunda. Para algunos fines, sin embargo, el sistema decimal es inadecuado: su base (10) sólo es divisible por dos y por cinco. aparte de la unidad y de sí mismo. Tal vez para nuestra vida cotidiana nos iría mejor con un, sistema de base 12 (como en la feria, donde muchos productos alimenticios se venden por docena), ya que 12 es divisible por 2 por 3, por 4 y por 6. ¿Cómo sería semejante sistema? imaginemos dos dígitos nuevos, que llamaremos A y B. La primera vuelta se contaría así: 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B y 10 (donde "10" significaría 12 de nuestra notación habitual). Las docenas sucesivas se numerarían como 10, 20, 30, 40, 50, 60, 70, 80, 90, A0, B0 y 100, donde "100" equivaldría a nuestro 144 (una gruesa, como suele decirse en el lenguaje duodecimal de los mercaderes) Puede observarse así que cada vuelta o secuencia no debe necesariamente contener diez unidades: el número de unidades que ella contenga depender del sistema que hayamos adoptado. Pues bien, el sistema binario opera sobre la base 2, de modo que sólo consta de dos dígitos: 0 y 1 . Y los números se cuentan: 1, 10, 11, 100, 101, 110, 111, 1000. 1001, 1010, 10115 1100, 1101, 1111 ... y así sucesivamente. Existe un procedimiento relativamente sencillo para traducir un número de la notación decimal a la binaria, que consiste en dividirlo sucesivamente por dos y anotar los residuos. Tomemos como ejemplo algo de lo dicho precedentemente. Al tratar acerca de las lámparas necesarias para expresar todas las letras del alfabeto señalarnos que se requerían cinco de ellas. ¿Por qué? Veamos. El alfabeto castellano tiene 27 letras (sin contar las dobles: ch, ll, rr). El número 27, dividido por 2, da 13 con un resto de 1. La mitad de 13 es 6, con resto de 1. La mitad de 6, 3, con resto de 0. La de 3 es 1, con resto, de 1, Y la unidad es indivisible, por lo que constituye un nuevo residuo. De este modo: 27 13 6 3 1 1 1 0 1 1 Por lo tanto, leyendo de abajo hacia arriba, en sistema binario el número 27 se escribe “11011”, expresión que consta de cinco cifras. Pero cada una de estas cifras puede expresarse (y calcularse) en términos de la alternativa básica: sí-sí-nosí-si. Para traducir una expresión binaria a otra decimal hay que proceder del modo inverso, multiplicando cada cifra por dos y agregando la siguiente en forma sucesiva, del modo que aquí se muestra: 1 x 2=2 +1 3x 2=6 +0 6x 2= + 12 1 13 x 2 = + 26 1 27 La notación binaria es de difícil lectura para nuestros ojos, habituados al sistema decimal: pero es preciso recordar que las máquinas son capaces de ''leer'' a una velocidad muchas veces superior a la de la mente humana, de modo que la traducción de un sistema al otro y las operaciones numéricas en general son prácticamente instantáneas, como podemos comprobar en una simple calculadora de bolsillo. Pero las computadoras no se conforman con leer rápidamente las instrucciones concebidas en un lenguaje binario puro, como el que acabamos de mostrar: después de todo, las grandes cantidades requieren para su expresión un número bastante alto de dígitos binarios. Aparece entonces un sistema mixto, que combina la sencillez expresiva del binario con la base más amplia del decimal. Esta solución consiste en utilizar el sistema numérico decimal, pero expresar cada uno de los dígitos decimales al modo binario. De esta manera, un número como 379 puede expresarse representando separadamente el 3, el 7 y el 9: 0011 0111 1001 Con cuatro caracteres, pues, puede indicarse cualquier dígito decimal; y un número determinado se expresan en tantas combinaciones de cuatro caracteres como dígitos decimales tenga. Claro está que las máquinas no sólo utilizan números: también manejan palabras. Y, como en el ejemplo del mudo con las perillas eléctricas, se ven obligadas a expresar también las letras en sistema binario. Aumentando, pues, el número de caracteres, una combinación de éstos puede representar un dígito decimal o una letra determinada. Por esta razón los expertos en computadoras hablan de caracteres alfanuméricos: un caracter alfanumérico es un conjunto de dígitos binarios (generalmente ocho de ellos) capaz de representar un caracter numérico o alfabético. 5.2.4. Realidad y modelo El funcionamiento de las máquinas es un tema en verdad fascinante, pero si nos internamos en sus vericuetos corremos el riesgo de perder de vista nuestra propia aventura, que comprende y supera a aquella materia: la aventura del pensamiento científico. 7 Bastará pues, por ahora, recordar que las computadoras utilizan para su funcionamiento un razonamiento binario, fundado en el sí y el no; y que, por lo tanto, sólo pueden acceder a los sectores de la realidad que les sean presentados bajo esta forma. Si sólo se trata de recordar y de reproducir palabras (como en el caso del tratamiento de textos o en el almacenamiento y recuperación de datos) bastará con que tales palabras sean traducidas (por la misma máquina, desde luego) en caracteres alfanuméricos. Pero si se trata de razonar (es decir, de calcular), cada paso del razonamiento ha de ser expresado con tal claridad que pueda traducirse, en última instancia, a decisiones por sí o por no, aunque se trate de muy complejas combinaciones de decisiones binarias. Puede observarse de este modo que la utilidad de las computadoras se halla limitada por la capacidad del hombre para presentarles la realidad de un modo que ellas puedan comprender. Y este modo ha de ser preciso y explícito. Pero -lo sabemos- la realidad abarca el universo entero; y aun cualquier sector de ella que delimitemos idealmente, por pequeño que fuere, encierra infinitas características, de tal modo que su descripción completamente explicita es imposible. ¿Cómo resolver este problema? No hace falta invención novedosa alguna: la solución existe desde siempre, y sólo se requiere tomar conciencia de ella. Pidamos, en efecto, a un geógrafo que nos diga qué forma tiene América del Sur. Tomar un papel y trazar un mapa, más o menos aproximado. Pongamos en duda su exactitud, y nos mostrar una carta cuidadosamente trazada, que forma parte de un atlas. Aun en ellas podemos encontrar defectos: si observamos con una lupa las pequeñas islas y los detalles de la costa encontraremos las líneas dibujadas con trazo grueso, detrás del cual se esconden no pocas inexactitudes: la Dársena Norte del puerto de Buenos Aires, por ejemplo, no se distingue siquiera. Nuestro geógrafo nos propondría entonces un mapa en escala mayor, donde los accidentes que nombramos se observan con toda claridad. Pero nosotros insistimos: si el mapa ha de ser un fiel reflejo de la realidad, cada anfractuosidad de la costa, cada guijarro de la ribera, cada grano de arena de la playa deben hallarse representados. El atribulado interlocutor menear entonces la cabeza: para satisfacernos haría falta un mapa que tuviese, por lo menos, el mismo tamaño del continente; y aun así la representación sería imperfecta, ya que permanecería igual a sí misma cuando el contorno del continente varía a cada instante con las olas, con las mareas y hasta con el capricho de un niño que arroja una piedrecilla al agua. No es posible, pues, trazar un mapa de todo; pero cualquier accidente que nos interese, por pequeño que sea, puede ser representado en un mapa si lo deseamos. Esa representación de un sector de la realidad, que no pretende reproducir todos sus accidentes pero sí aquellos que, por una razón o por otra, consideramos relevantes, es un modelo de la realidad a la que nos referimos. Un modelo, pues, es una imagen deliberadamente empobrecida de la realidad. Un modelo puede trazarse según diversas técnicas, algunas más precisas que otras. El territorio de un país se representa por un mapa; el rostro de un ser humano, por un retrato o una caricatura; las relaciones de autoridad en una empresa, por medio de un esquema que llamamos organigrama; una operación matemática mediante una ecuación; y una ecuación -si así lo deseamos- por una curva trazada en papel milimetrado. El más preciso de estos lenguajes es el matemático; y así nuestra modelización de la realidad ser tanto más perfecta (se entiende: no más completa, sino más precisa en cuento a las características que deseamos destacar) cuanto mejor pueda ser expresada en el lenguaje matemático (que es, por cierto, el que mejor comprenden las computadoras). Esta reflexión no debe llevarnos a pensar que ningún modelo es útil a menos que se exprese matemáticamente; tampoco que todo sector de la realidad puede, de hecho, modelizarse a la manera matemática, y menos aún que los modelos existan gracias a las computadoras o sólo sirvan para ser utilizados por ellas. Las computadoras -lo dijimos antes- no son otra cosa que un instrumento particularmente útil, tanto para el trazado de modelos cuanto para su empleo fructífero; pero la modelización es muy anterior a la invención de la computadora y por completo independiente de ésta. El objeto de nuestro ejemplo inicial -el mapaes una técnica de modelización que existe desde la antigüedad y que sobrevive lozanamente a la introducción de las máquinas cibernéticas. Lo mismo puede decirse -valor artístico aparte- del dibujo y la escultura, del teatro o de la novela. Vale la pena, sin embargo, que nos concentremos ahora en una idea expresada hace un momento: el lenguaje matemático es el que la computadora mejor comprende, y los modelos matemáticos son los que mejor maneja. El uso de computadoras, que es cada vez más intenso y abarca un creciente número de sectores de la actividad humana, constituye por lo tanto un factor que alienta fuertemente el perfeccionamiento y la matematización de los modelos en uso. Pero, como ya hemos visto, ocurre que muchos de los modelos que hoy emplea el hombre se encuentran muy lejos del grado de precisión requerido por el uso fructífero (y no meramente rutinario) de las técnicas informáticas. Pensemos en la sociología. Podemos usar una máquina para procesar con rapidez numerosos datos estadísticos en auxilio de nuestros propios razonamientos; pero si queremos emplearla para multiplicar esta misma capacidad de razonamiento ser preciso que tracemos modelos más exactos y confiables acerca del comportamiento de los grupos sociales. En materia de derecho, es hoy bastante común utilizar computadoras para almacenar y recuperar datos sobre leyes o sentencias judiciales; pero si deseamos sacar a la informática todo su provecho tendremos que establecer modelos formales de razonamiento jurídico que la máquina pueda comprender y manejar. Cada uno de estos cambios importar una verdadera revolución científica; no tanto ni tan sólo por las ventajas proporcionadas por la informática, sino en especial por el rigor que el hombre tendrá que exigir de sí mismo a fin de acceder a esas ventajas. No existe ciencia completamente imparcial; pero algunas ciencias (las humanas y sociales) son tal vez demasiado tolerantes con su propia parcialidad, ya que los conceptos que manejan caían demasiado hondo en el campo afectivo (sea del hombre en general, sea del hombre como integrante de ciertos grupos o sectores). El resultado de esto es que emplean a menudo modelos autocomplacientes y manejan lenguajes teñidos de emotividad. La eliminación (hasta donde se pueda) de estos defectos -y aun la propia percepción de tales características como defectos, actitud que no todos comparten- podría llevar a esas 8 ciencias al nivel de evolución y utilidad que hoy tienen otras, abrir insospechados campos de tecnología y, en definitiva, modificar nuestra vida cotidiana de un modo radical y tal vez placentero. 5.2.5. Inteligencia artificial, inteligencia natural Los expertos en informática hablan hoy, como cosa corriente, de un concepto que hace algunos años habría puesto piel de gallina a mucha gente y que aún hoy suscita no poca desconfianza: la inteligencia artificial. Los técnicos mencionan estas palabras con orgullo, pero el hombre es un animal sumamente susceptible y a menudo ve en ellas un desafío, cuando no un disparate casi sacrílego.¿Acaso pueden las máquinas pensar? se pregunta el ser humano mientras se pavonea frente a un espejo intelectual. Quienes se han habituado a replantear los problemas a la luz del análisis del lenguaje advertir rápidamente que la pregunta -aparte de estar cargada de un fuerte contenido emotivo que preanuncia una respuesta determinada- sencillamente no puede ser contestada por un observador eventualmente imparcial. En efecto, parece claro que las máquinas hacen ciertas cosas que los hombres también hacen, y en cambio no hacen otras. La cuestión reside en cuáles sean las características definitorias que asignemos al concepto pensamiento. Y, si estamos empeñados en asegurar que las máquinas no piensan, bastar que definamos persuasivamente "pensamiento" por referencia a características reservadas a la mente humana. Claro está que este malabarismo lingüístico (que no es otra cosa que blindar un argumento) tiene su inconveniente: a medida que la tecnología avanza, cada vez son menos las facultades reservadas al hombre. En efecto hace unos diez años era común el siguiente argumento: las computadoras son expertas en calcular rápidamente un gran número de variables, pero aun en esto ser n siempre superadas por el hombre. La prueba está en que una máquina, cargada don las reglas del ajedrez y con la ciencia de los grandes maestros de ese juego, apenas alcanza el nivel de un jugador mediano. Pasó el tiempo y, en cualquier negocio y por poco dinero, podemos adquirir una máquina de bolsillo capaz de jugar en diferentes niveles, burlarse de nosotros cuando hacemos una jugada equivocada, enseñarnos las correctas, señalar las consecuencias posibles de cada una y, en definitiva, servir de contrincante válido a jugadores avezados. Hay en todo esto una constante evolución. Las máquinas empezaron por ser calculadoras rápidas pero bastante tontas, ya que habla que indicarles en cada caso las operaciones a realizar. Luego fueron capaces de seguir instrucciones muy complicadas, de modo que pudiesen reconocer señales (incluso derivadas de sus propios resultados) que les indicasen la índole de las operaciones a realizar, a lo largo de una prolongada secuencia, para arribar a cierto objetivo propuesto. Pero lo que hoy se llama inteligencia artificial implica también la capacidad de generar relaciones entre conceptos y transferir esas relaciones a nuevas situaciones: es decir, la facultad de aprender. Las nuevas computadoras aprenden a resolver problemas (simplemente observando cómo son resueltos problemas semejantes). También son capaces de reconocer configuraciones, es decir advertir la semejanza entre cierto modelo que mantienen en su memoria y cierta realidad que se les presenta, teniendo en cuenta para ello la flexibilidad de la semejanza entre ambos términos de la comparación como resultado de los casos antes examinados. Pongamos esto último más en claro mediante un ejemplo. El individuo que aprende a leer tiene en su mente uno o varios modelos de cada letra del alfabeto; mayúsculas, minúsculas, de imprenta o manuscritas. Pero existen siempre tipos y tamaños de letra que jamás hemos visto. Sin embargo, cuando los vemos los reconocemos como nuevos modelos de las mismas figuras familiares. ¿Porqué lo hacemos? Porque estamos habituados a observar variaciones, y hemos internalizado un modelo de variación, si así quisiéramos llamarlo. Tenemos una idea de hasta qué punto puede variar una misma letra según la fantasía del letrista o del escribiente, y dentro de esos límites aproximados somos capaces de comprender el nuevo garabato que se nos presenta, Pues bien, se espera que las computadoras de la quinta generación podrán hacer esto mismo, lo que les permitir comprender, en forma directa, las expresiones lingüísticas comunes, habladas o escritas. Pero, más allá del asombro que pueda provocarnos el avance tecnológico, el tema puede ser motivo de una seria reflexión, En efecto, el hombre no sólo razona de un modo lineal (cosa que las máquinas hacen desde tiempo atrás dentro de los límites de sus programas): también es capaz de asociar ideas y crear entre ellas ciertos vínculos que, a lo largo del tiempo, terminen motivando su propia conducta. Sí una computadora puede hacer también esto (base del aprendizaje y del reconocimiento de configuraciones), una nueva barrera entre el pensamiento natural y el artificial ha caído. Una de las actividades fundadas en la asociación de ideas (y en proponer asociaciones novedosas, profundas y sutiles) es la poesía. Hay que reconocer que las computadoras no son poetas. Aclaremos: no es que no lo hayan intentado. Una vez una máquina llamada A.B. compuso en inglés el siguiente poema: Todas tas chicas sollozan como nieves, Cerca de un lecho, esa chica no llorará. Las lluvias son amantes tontas, pero yo no soy tímido. Tropieza, gime, ve, esta chica podría zarpar en el escritorio. Los besos fatuos, sordos y fríos son muy húmedos. Esta chica es muda y suave. La composición titulada "Chicas"', dependía de un programa bastante pre, que clasificaba un vocabulario de 3.500 palabras en cuatro clases y establecía ciertos ordenes sintácticos para formar frases aceptablemente construidas, a la vez que disponía un cierto porcentaje de aparición a ciertas palabras (como "chica") para aparentar cierta unidad temática. El resultado, claro está, es abominable. Pero difícilmente pudiera esperarse otra cosa de un programa semejante. El ejemplo de "Chicas" se inscribe como argumento tributarlo de una línea de pensamiento antropocéntrico. Otro tanto cabe decir de un conocido chiste que 9 corría hace unos años sobre el manejo del lenguaje en las traducciones. El cuento consiste en que un grupo de científicos norteamericanos inventan una computadora capaz de traducir mensajes del inglés al ruso, y deciden probarlo mediante un experimento: darle una frase en inglés, pedirle que la traduzca al ruso y que luego vuelva a traducirla al inglés. La expresión propuesta era: "El espíritu está dispuesto, pero la carne es débil". La máquina echa a andar, emite algunos gruñidos electrónicos y, luego del viaje de ida y vuelta al idioma de Tolstoi, entrega su resultado: "La vodka es fuerte, pero la carne está podrida". Es bueno reír de tanto en tanto, pero a veces los ecos de la risa tienden a apagarse con el tiempo. El poema "Chicas" es de 1962, y el chiste de la máquina traductora corresponde a la misma época. Hoy en día vemos en las vidrieras pequeñas calculadoras de bolsillo capaces de traducir frases enteras de un idioma a otro (hasta condescienden al castellano). No hacen de la traducción un arte, por cierto; pero cumplen ciertas funciones prácticas. No tenemos noticias acerca de la evolución de las aptitudes poéticas que pueda exhibir una computadora, pero acaso cabe suponer que hayan mejorado en los últimos veinte años. 5.2.6. El modelo mecanicista Bajo el título El hombre máquina, un médico y filósofo francés, Julien Offray de La Mettrie, publicó un librito que horrorizó a las almas bien pensantes del siglo XVIII. En él se señalaba que el cuerpo humano reacciona frente a cada necesidad por medios empíricamente verificables y de conformidad, como se decía en ese entonces, con la organización de sus partes (u órganos). Como el siglo XVIII se asombraba ante los complicados e ingeniosos avances de la relojería, La Mettrie comparaba al hombre con un reloj: era una modelización fervientemente imbuida del paradigma newtoniano, y se inscribía en una orientación filosófica que dio en llamarse mecanicismo. Pero las ciencias -y sobre todo las ciencias del hombre- se hallaban aún muy atadas al paradigma medieval, y no admitían fácilmente que las investigaciones o explicaciones empíricas se metieran con algo tan delicado como las relaciones entre el cuerpo y el alma. En resumen, el libro terminó quemado por mano del verdugo. No se trata aquí de discutir los aciertos o errores de La Mettrie ni de otros mecanicistas, sino de examinar nuevamente su planteo a la luz de los conocimientos de hoy. Y en este contexto puede advertirse que las preguntas ¿piensan las máquinas? y ¿es el hombre una suerte de máquina?, son dos caras de una misma moneda o, si se quiere, el positivo y el negativo de una misma imagen fotográfica. Podemos, en efecto, contestar estas preguntas como mejor nos parezca, y trazar el límite entre el hombre y la máquina de un modo acorde con ese parecer. No vale la pena presentar la tesis mecanicista como más o menos verdadera que otras interpretaciones de la realidad, ni afirmar o negar que el hombre es una especie de máquina o la máquina una especie de hombre. Ya sabemos que cada cosa es lo que es, y que las clasificaciones sólo valen en la medida en que sean útiles para los fines que nos propongamos en cada caso. Pero, a veces, la comparación entre clasificaciones alternativas sirve para abrirnos el entendimiento y nos permite encontrar similitudes que hasta entonces se nos ocultan, hallar nuevas dimensiones para viejos problemas o archivar como inútiles controversias que antes nos apasionaban, para reemplazarlas por otras más fructíferas. Podemos aceptar o desechar la comparación entre el hombre y la máquina, según resulte más caro a nuestro pensamiento. Pero si el mero hecho de planteárnosla nos ha servido para clarificar en algo nuestras ideas, si con ello hemos dispuesto nuestra mente para examinar nuevos problemas con actitud más abierta, el esfuerzo de nuestra imaginación ha valido la pena. 5.3. LA INFORMACIÓN 5.3. l. Comunicación, mensaje y codificación Estamos escuchando la radio. El locutor del informativo dice: “El ministro de economía no renunciará". Tomamos nota mentalmente de lo que oímos y lo agregamos a nuestro propio sistema de creencias acerca de la composición del gobierno y de su funcionamiento en el futuro inmediato. Lo que acaba de suceder ha puesto en funcionamiento una cantidad de mecanismos de los que habitualmente no cobramos conciencia, ya que estamos habituados a emplearlos. Convendrá, pues, que los examinemos. Lo que hemos recibido es un mensaje. El mensaje tiene un emisor (el locutor radial) y un receptor (nosotros). Pero no nos llega por arte de magia, sino por medio de un soporte (las ondas hertzianas). La recepción del mensaje puede verse dificultada por el ruido (interferencias radiales, mal funcionamiento de nuestro receptor, la voz de alguien que nos habla mientras escuchamos la radio). El mensaje, contenido en su soporte, corre por un canal, que es la vía o medio físico por el que se traslada la información. En el caso del ejemplo, el canal es la atmósfera (o también el espacio, si se tratara de una emisión por vía satelital); y, en ciertos puntos del camino, también el micrófono, el aparato transmisor y el receptor de radio forman parte del canal. Veamos otro ejemplo: recibimos carta de un amigo. Emisor y receptor son fáciles de identificar. El soporte es el papel (y, en rigor, también la tinta). El canal es el correo, con toda su organización. El ruido podría consistir en la equivocación del cartero que deja el sobre en otro domicilio, o el descuido que deja caer la carta en un charco, cuya agua borra parte de lo escrito. Y un tercero: en una comunicación telefónica somos alternativamente emisores y receptores; el canal es el cable telefónico (junto con los dos aparatos y el conmutador central) y el soporte está compuesto por los impulsos eléctricos que corren por el cable. El ruido... bueno, no es necesario explicar qué es el ruido en el teléfono. A los elementos citados hasta ahora debe agregarse otro: el código. Este concepto tiene, en la teoría de la comunicación, dos aspectos, dimensiones o niveles, que podríamos llamar material y semiótico. 10 La voz, por ejemplo, se expresa en sonidos. El micrófono de nuestro aparato telefónico transforma el sonido en otra señal más apropiada para recorrer el canal: los impulsos eléctricos. Esta tarea se llama codificación, ya que consiste en traducir las señales a otras propias del sistema de comunicación de que se trata. En la otra punta de la línea, el receptor telefónico vuelve a transformar la señal eléctrica en señal sonora: en esto consiste la decodificación. En la televisión la cámara toma la imagen (señal luminosa) y la descompone en un número finito de puntos discretos, en cada uno de los cuales se establece el grado apropiado de luminosidad y de intensidad para cada Lino de los colores primarios utilizados en el sistema (verde, rojo y azul). Esta información es codificada mediante su transformación en modulaciones de ondas radioeléctricas, y lanzada al aire mediante la antena. El receptor, a su vez, decodifica el mensaje y lo traduce nuevamente a señales luminosas mediante la pantalla. Ese es el nivel material de la codificación y de la decodificación, ya que en los casos mencionados se trata siempre de transformar un tipo de señal en otro tipo de señal. Pero existe también un nivel semiótico, tal vez más cercano a nuestra experiencia cotidiana. Por bien que funcione el canal de transmisión, la comunicación resultar frustrada si emisor y receptor no hablan el mismo idioma. El emisor codifica sus ideas en castellano (pongamos por caso), pero el receptor, que sólo habla japonés, es incapaz de decodificar el mensaje. No se trata aquí de tipos de señal, sino del valor o significado que se asigne a cada señal o a cada conjunto de ellas. Supongamos, en efecto, que dos personas hablantes de lenguas diferentes se comunican por medio de un intérprete. Cada una de ellas emite señales sonoras, que son perfectamente recibidas por la otra; pero la comunicación no puede establecerse en el nivel semántico hasta que el intérprete no ejerza, ante cada frase, una tarea de decodificación y codificación que le permita reformularla de un modo comprensible para el otro interlocutor. Gráfico 5.1. Esquema del proceso de comunicación EMISOR mensaje SEÑAL codificación L SOPORT E CANAL Código del Emisor decodificación RECEPTOR mensaje Código del Recepto r El emisor genera un mensaje, pero este mensaje debe ser codificado (material y semánticamente) de acuerdo con el código propio del emisor. Se convierte así en señal, que viaja en su soporte a lo largo del canal de comunicación. Al fin de su viaje debe ser decodificado (según el código propio del receptor) y es recibido por el receptor como mensaje, Que el mensaje sea comprendido por el receptor (esto es, que le llegue tal como fue emitido) depende del grado de coincidencia entre los códigos de receptor y emisor. Si ambos códigos son distintos (por ejemplo, se trata de diferentes idiomas) la coincidencia entre ambos debe incluir un adecuado mecanismo de traducción. Durante el trayecto, la señal puede ser afectada por el ruido. a) Variedad y constricción Abandonemos por un momento el nivel semántico (luego volveremos a él) para considerar especialmente los símbolos en sí mismos, como unidades integrantes de un código determinado. Advertiremos entonces que la aparición o ausencia de cada símbolo, así como las diferentes combinaciones entre símbolos, pueden construir estados diferentes de un mensaje. ¿Lo que acabamos de decir parece oscuro? No desespere el lector: siempre habrá algún ejemplo capaz de acercar la teoría a la práctica. Aquí vamos, pues, al rescate. En el parágrafo 5.2.3. imaginamos el caso de un individuo mudo, que sólo podía darse a entender mediante la perilla de una lámpara, que encendía o apagaba a voluntad ante cualquier pregunta que se le formulase. En este código un mensaje sólo podía tener dos estados: luz u oscuridad. Este conjunto de los estados posibles de un mensaje en un código determinado se llama variedad de dicho código. Nuestro mudo, pues, dispone de un código cuya variedad es igual a 2. Con dos lámparas, la variedad sería de 4, y con tres, de 8. En rigor, es posible calcular fácilmente la variedad de cualquier código semejante mediante la fórmula en, donde n sea igual al número de lámparas a emplear. ¿Por qué la base de la potencia es siempre 2? Porque dos son los estados posibles de cada símbolo básico (en este caso, de cada lámpara). Este tipo de código funciona como un lenguaje que sólo tuviera dos letras y cuyas palabras contasen con tantas letras como lámparas existan al alcance de nuestro amigo mudo. Supongamos ahora un código algo diferente. En lugar de lámparas, el individuo del ejemplo utiliza su brazo derecho, que muestra en alguna de tres posiciones: alzado sobre su cabeza, extendido horizontalmente o pegado a su cuerpo en dirección vertical. El mensaje, transmitido mediante un solo símbolo básico (el brazo), puede tener tres estados diferentes, por lo que la variedad de este sencillo código es igual a 3. ¿Y si nuestro amigo puede usar los dos brazos? las combinaciones posibles ser n 9, según esta otra fórmula: 3n, donde n es igual al número de brazos que pueden usarse y la base 3 corresponde a los estados posibles del símbolo básico. Traducido a un lenguaje alfabético, sería un código de tres letras que sólo admitiese palabras de dos letras: AA, AB, AC, BA, BB, BC, CA, CB y CC. De este modo, según sea el número de estados posibles de cada símbolo 11 (número que usaremos corno base) y de acuerdo con el número de símbolos (o, para ser más exactos, de posiciones o apariciones de símbolos) que admita cada mensaje (número a cuya potencia elevaremos aquella base), podemos determinar la variedad de un código dado. De acuerdo con estas pautas, pues, ¿cuál es la variedad del sistema numérico decimal? Es infinita, porque la base es 10, pero la potencia es infinita (no existe un límite a la cantidad de dígitos que puede tener un número). ¿Y la variedad del idioma castellano? Aquí debemos andar con más tiento. El número de letras (simples) del alfabeto castellano es 27, de modo que tal sería nuestra base. Pero ¿cuántas letras admite una palabra? Hay vocablos cortos, como "y", y otros largos, como "otorrinolaringología". Pero no hay reglas acerca de cuál sea el número máximo de letras a utilizar, de modo que nuestra fórmula no puede usarse, no por defecto de la fórmula sino por imprecisión del código a analizar. Supongamos -por vía de hipótesis- que nuestro idioma sólo contuviese palabras de cinco letras. En ese caso su variedad sería de 275, que es igual a 14.348.907 estados distintos de una secuencia (es decir, ese número de palabras). Claro está que, si admitimos que un mensaje puede tener varias palabras (como de hecho las tiene), el problema se reproduce: el número de palabras admisible en un mensaje sería la potencia a la cual deberíamos elevar aquel resultado de 14.348.907, y el nuevo resultado sería el número total de estados posibles de un mensaje. No vayamos, sin embargo, tan lejos y quedémonos por ahora con las palabras de cinco letras. Tratemos de enumerar las primeras: aaaaa, aaaab, aaaac, aaaad, aaaae, aaaaf... ¡Un momento! Parece que hay aquí algo que no funciona: el idioma castellano tiene muchas palabras de cinco letras (aunque, claro está , también tiene otras palabras con más o menos letras); pero ninguna de ellas coincide con las que acabamos de enumerar, que más parecen los gemidos de un paciente en el sillón de un dentista. Ocurre, en efecto, que el idioma castellano (y lo mismo pasa con muchos otros códigos) no emplea toda su variedad. Esta reducción del número de las señales válidas respecto del número de las señales posibles se llama constricción. En este punto uno podría pensar que la constricción es un defecto de los lenguajes naturales, motivado, como la ambigüedad y la vaguedad, por el hecho de que tales lenguajes fueron modelados por el habla de la gente común a lo largo de los siglos y no por medio de. asépticas estipulaciones deliberadas. Tal vez la constricción sea un defecto en relación con algunos usos y respecto de ciertas expresiones lingüísticas; pero en otros aspectos relevantes entraña una gran ventaja, y esta ventaja tiene que ver con la redundancia. b) Redundancia La palabra "redundancia" significa sobra o exceso de abundancia, y en relación con el lenguaje hablado o escrito designa un defecto de estilo. Muchas veces oímos expresiones como "un lapso de tiempo" o "subir arriba". Se !as considera incorrectas porque incurren en repeticiones innecesarias: “lapso" significa espacio de tiempo, por lo que no hace falta agregar las palabras "de tiempo"; y "subir" significa suficientemente que el movimiento se dirige en sentido ascendente, sin que sea preciso aclarar "arriba". Sin embargo el lenguaje que hablamos y escribimos, aun cuando lo hagamos con la mayor perfección estilística, está lleno de redundancia en un sentido más técnico (el que le da la teoría de la información). Supongamos, en efecto, que recibimos un telegrama fuertemente afectado por ruido (en el caso, un telegrafista novato y apresurado). El mensaje dice: Wstarj en Czrdobñ dxs mses. Nt me molñstñn. Eugqnqo. Con un poco de imaginación (y tal vez con otro poco de conocimiento acerca de las costumbres del remitente) podemos reconstruir el mensaje y eliminar las consecuencias del ruido: "Estaré en Córdoba dos meses. No me molesten. Eugenio". Este análisis comparativo y reconstructivo se hace en menos tiempo que el necesario para describirlo, pero es posible porque el mensaje, pese a sus distorsiones, contiene aún suficiente información para que podamos entenderlo en su totalidad. De aquí se desprende que, en cierto sentido, la parte del mensaje que pudo reconstruirse era innecesaria. Y, por lo tanto, el mensaje en sí era redundante. En cambio es fácil advertir que la comunicación de cantidades mediante lenguaje numérico (que no tiene constricción ni, por lo tanto, redundancia) encierra siempre el peligro de un ruido inadvertido. Si el remitente escribió “Llego en el vuelo 609" y el mensaje dice "llego en el vuelo 689", el receptor no puede advertir el error, ya que la combinación "689" es tan aceptable como "609". Por esto es común que al transmitir cantidades se busque la redundancia por medio de la repetición del mensaje o aun de su traducción a palabras: "seis-cero-nueve". La redundancia, pues, es un resultado de la constricción del código o de la repetición del mensaje, y proporciona mayor seguridad frente a los ruidos que puedan distorsionarlo o mutilarlo. Sería un error, sin embargo, suponer que la redundancia es una característica privativa de los mensajes lingüísticos. La naturaleza proporciona notables ejemplos de redundancia, como el de la transmisión de mensajes genéticos. Cada especie tiene sus características registradas en el código de las moléculas de ADN, y la reproducción requiere la trasmisión del mensaje de la especie a la generación siguiente. Pero la semilla que cae de un árbol puede tener algún defecto o -como es muy probable- quedar en condiciones que no le permitan germinar. Si cada árbol generase una sola semilla, pronto la especie desaparecería. Aquí es donde aparece la redundancia: el árbol arroja decenas o centenares de semillas en cada año, y de este modo la probabilidad de que la especie se perpetúe se incrementa, aunque la mayoría de las semillas no llegue a germinar. Algo semejante ocurre con numerosas especies animales, que son tanto más prolíficas cuanto mayores sean las dificultades para la supervivencia. 12 Gráfico 5.2. Variedad, constricción, incertidumbre El círculo completo representa la variedad de un código: es decir, la totalidad de las combinaciones posibles de sus elementos (letras, palabras, señales). El sector sombreado representa la constricción, que es el conjunto de las combinaciones inaceptables dentro de las posibles. Cuanto mayor sea la constricción tanto mayor ser la redundancia de las combinaciones aceptables. El conjunto de éstas constituye el ámbito de la incertidumbre. Dentro de este ámbito, los sectores de magnitud desigual representan las distintas probabilidades de cada uno de los estados posibles y aceptables del mensaje. VARIEDAD 5.3.2. Información Hemos examinado hasta ahora el vehículo de la información, que es el mensaje. Distinguimos sus elementos (emisor, receptor, soporte), sus circunstancias (canal, ruido) y su presupuesto (el código). También pasamos revista a ciertas condiciones propias de- código o de su uso en el mensaje (variedad, constricción, redundancia). Es hora de que prestemos atención al centro y objetivo de todo este instrumental, que es la información misma. ¿Recuerda el lector a nuestro amigo, el mudo de las lamparitas? Hemos de pedir su ayuda una vez más para mejor comprender el concepto de información y la manera en que esta se mide. Cuando llegamos a su casa lo hallamos algo molesto: un imprevisto corte de corriente eléctrica lo ha privado de usar su arsenal de lámparas y perillas. Nos recibe, pues, con una linterna de mano, que usa para las comunicaciones más elementales. Le preguntamos si quiere dar un paseo con nosotros. "Sí", nos responde, mediante un destello de la linterna. Analicemos esta respuesta que, pese a su extrema simplicidad, tiene su miga. Nosotros no preguntamos al mudo su edad ni su opinión sobre la inmortalidad del cangrejo: compadecidos de su dificultad para dar respuestas complejas, le hicimos una pregunta que pudiera contestarse por sí o por no. Y él podía elegir una cualquiera de las dos respuestas (que lo hiciera con sinceridad o no es un problema aparte, que carece de relevancia en este punto). De aquí resulta que nuestra incertidumbre inicial incluía dos alternativas, y la contestación despejó esa incertidumbre al escoger una de ellas: nos dio una información. Pero la cantidad de la información proporcionada por el escueto mensaje del mudo (elegir una entre dos posibilidades, o estados posibles del mensaje) ha sido adoptada como unidad de medida de la información. Y, como puede ser aportada por un simple dígito binario (0 ó 1; ver párrafo 5.2.3. b), fue llamada bit (contracción de las palabras binary digit). Iniciamos, pues, el paseo prometido y, como para entablar conversación, le decimos: "-De todas las estaciones del año, yo prefiero el otoño. A vos, ¿cuál te gusta?" El mudo nos mira con cierta reprobación, y ahí caemos en la cuenta de que la pregunta no puede ser respondida tan sencillamente con la linterna. En efecto, la incertidumbre planteada es igual a 4, ya que cuatro son las estaciones elegibles. Hacemos un rápido cálculo, y vemos que: 22 = 4 Para despejar nuestra incertidumbre, pues, hacen falta 2 bits de información (es decir, el equivalente de dos respuestas por sí o por no). Y decidimos reformular nuestra pregunta: "La estación de tu preferencia ¿está entre el otoño y el invierno?". La linterna permanece apagada: "-No", interpretamos. “-¿Es la primavera?", "-No", de nuevo. Y la respuesta ha sido dada: nuestro amigo, más bien friolento, prefiere el verano. Algo entusiasmados los dos con el sistema, decidimos jugar a un juego de preguntas y respuestas. Proponemos a nuestro amigo que elija un número cualquiera entre 1 y 4.096 y le aseguramos que averiguaremos cuál es ese número mediante preguntas por sí o por no. El mudo nos mira con desconfianza: ¿no serán demasiadas preguntas? Podríamos estar todo el día... Pero, implacables, comenzamos: 1) ¿El número está entre 1 y 2.048? 2) ¿Está entre 2.049 y 3.072? 3) ¿Está entre 2.049 y 2.560? 4) ¿Está entre 2.561 y 2.816? 5) ¿Está entre 2.817 y 2.944? 6) ¿Está entre 2.817 y 2.880? 7) ¿Está entre 2.881 y 2.912? 8) ¿Está entre 2.913 y 2.928? 9) ¿Está entre 2.929 y 2.936? 10) ¿Está entre 2.929 y 2.932? 11) ¿Está entre 2.933 y 2.934? 12) ¿Es 2.935? No Si No No Si No No No Si No No No Ya conocemos el número: es 2.936. Y no debemos sorprendernos por haberlo logrado en tan pocas preguntas. Después de todo, 212 = 4.096 Con 12 bits de información hemos despejado una incertidumbre de 4.096 posibilidades diferentes. Con 13 bits alcanzaríamos 8.192 posibilidades (213 = 8.192); con 14, 16.384; y así cada bit adicional permitiría duplicar el número de estados del mensaje sobre los que pudiese elegir nuestro interlocutor. De todos modos, como hemos visto, el bit es una unidad muy pequeña de información: un dígito decimal común contiene más de tres bits de información, y 13 una letra del alfabeto más de cuatro. Por esto las computadoras manejan la información por grupos de bits, llamados bytes (contracción de binary term). El byte más común es el de ocho bits, u octeto, que permite identificar una entre 256 posibilidades (28 = 256). La memoria interna de las computadoras (es decir, la capacidad de almacenar la información contenida en un programa) se mide en múltiplos del byte: suele decirse "tengo una computadora de tantos K". Un K (ó Kb) es un kilobyte y equivale en la práctica a unos mil bytes (210 bytes). Pero los equipos grandes tienen una memoria medida en "rnegas" (Mb): se trata del megabyte, unidad prácticamente equivalente a un millón de bytes (220 bytes). Existen otros múltiplos: el gigabyte (230 bytes) y el terabyte (240 bytes), pero su uso se halla menos generalizado. Tal vez estemos dando ya demasiadas vueltas en torno a los aspectos matemáticos de la teoría de la Información. Volvamos a examinar los aspectos cualitativos del tema que tratamos, y advertiremos un insospechado parentesco entre información, materia y energía. 5.3.3. Información, energía, entropía Había una vez, hace muchos siglos, un país cuyos habitantes eran muy belicosos. Se llamaba Hostilla. Este país limitaba con otros tres: Masilla, Ergilla y Bitilla, cuya principal preocupación era protegerse contra los ataques hostillos. Los masilios construyeron una sólida muralla a lo largo de la frontera. Los ergillos mantenían un poderoso ejército que, bien que mal, rechazaba las constantes agresiones. Los bitillos parlamentaron con los hostillos, los convencieron de las ventajas de la cooperación y concluyeron con ellos un tratado de paz. No es difícil identificar el Instrumento principal utilizado por cada uno de los países de esta imaginaria historia. Los primeros usaron materia: grandes bloques de piedra cuya presencia impedía físicamente las invasiones. Los segundos, energía: la desplegada por los soldados en cada batalla. Los últimos, información: un Ir y venir de mensajes que tuvieron por efecto la eliminación -o al menos la reducción- de los motivos que los hostillos pudiesen tener para lanzar un ataque. Hablamos, desde luego, de instrumentos principales, ya que cada una de las tres líneas de defensa ha requerido, en parte, de las otras dos. Así, la construcción de la muralla requirió planos (información) y el trabajo de una multitud de obreros (energía); la acción de los guerreros requería armas (materia) y entrenamiento (información); y las conversaciones de paz requerían el traslado de embajadores (energía) y tal vez algún regalo para el jefe hostillo (materia). Materia y energía constituyen un continuo que ha sido expresado en la famosa fórmula de Einstein: E = mc2 (la energía es igual a la masa multiplicada por el cuadrado de la velocidad de la luz). De modo que masa y energía son lo mismo; o, para decirlo con mayor rigor, la masa es uno de los estados posibles de la energía. Este descubrimiento ha abierto el camino a la producción de energía atómica, que consiste simplemente en transformar la energía de un estado en otro. La energía, a su vez, puede transformarse en calor o en movimiento; pero también puede servir para transmitir información. En efecto, producir información o transmitirla cuesta cierto gasto de energía, en tanto el uso adecuado de la Información permite lograr resultados que de otro modo exigirían una cantidad apreciable de energía (recuérdese el ejemplo de los bitillos y su eficaz diplomacia, y compáreselo con el del ejército ergillo). Y, lo que es muy importante, gastar energía para producir o transmitir información está lejos de ser una inversión improductiva, ya que los efectos que se obtienen mediante el uso de la Información suelen ser muy superiores a los que pueden lograrse con la simple energía (por ejemplo, bajo la forma de movimiento o calor). La estrecha relación entro información y energía se manifiesta especialmente frente a un concepto de vital importancia para la cibernética: la entropía. En una primera aproximación, podemos caracterizar la entropía como el desorden, y a su contraria, la neguentropía, como el orden. La neguentropía requiere información, y por lo tanto energía. Cuando el aporte de energía cesa, crece la entropía. Este mecanismo no puede explicarse completamente sin introducir conceptos sistémicos y termodinámicos que se examinarán en el capitulo próximo; pero, por ahora, podemos afirmar que todo sector de la realidad tiende a la entropía a menos que reciba aportes energéticos. Tratemos de comprender esto mejor mediante un ejemplo. Un día se decide construir un hospital. Cuando se lo Inaugura, es un hospital modelo: relucientes salas, pisos brillantes, instrumentos suficientes, aparatos de la mejor tecnología. Pero luego un programa de economías empieza a retacear los fondos, con lo que se suspende el mantenimiento. Pasa el tiempo y las paredes se descascaran, los pisos están quebrados y sucios, los Instrumentos se rompen o se pierden y los aparatos no funcionan. ¿Qué pasó? Que el hospital fue privado de nuevos aportes de energía (repintado de paredes, mantenimiento y limpieza de pisos, reparación de instrumentos y aparatos) y quedó librado a los destructivos efectos de la entropía. Supongamos que desde antes de su Inauguración el hospital es confiado a un director experimentado (es decir, que ha acumulado en su cerebro buena información -en cantidad y calidad- acerca de la administración de hospitales) Y enérgico (la palabra habla sola, ¿verdad?). Aun con independencia de los medios materiales con los que se cuente al principio, el hospital marchar como un engranaje bien aceitado y aprovechar aquellos medios del modo más económico y eficaz. Pero luego el director se jubila y el cargo permanece vacante (o cubierto por un interino perezoso y despreocupado) durante un par de años. Al cabo de es te tiempo ya nada funciona bien: los médicos (salvo casos de especial vocación profesional) aparecen de cuando en cuando, las enfermeras se dedican a charlar mientras los pacientes se quejan hasta desgañitarse, la comida es escasa y mala, los medicamentos faltan y la atención en general es desastrosa. ¿Qué ocurrió aquí? Que el hospital fue privado del aporte de información (bajo la forma de normas y de control constante de su cumplimiento) y la entropía hizo de las suyas. El orden, pues, es un estado menos probable que el desorden, ya que la realidad tiende hacia éste cada vez que deja de recibir suficiente energía o información. Si queremos llevar a un sector de la realidad hacia el orden (o mantenerlo en él) es indispensable que le inyectemos energía, y que parte de esta energía, al menos, produzca o transmita información. 14 Energía e Información, pues, producen neguentropía. Su adversaria común, la entropía, es el desorden para la termodinámica, pero adopta, para la teoría de la información, el rostro de la incertidumbre, concepto que ya hemos examinado. En efecto, la incertidumbre es el desorden de la comunicación. Si volcamos sobre una mesa una sopa de letras, lo m s probable es que (enchastre aparte) las letras aparezcan agrupadas o desparramadas sin orden ni concierto. Esta máxima entropía (desorden) no contiene mensaje alguno incertidumbre). La probabilidad de que las letras caigan formando una estrofa del Mart1n Fierro es ínfima y, en la práctica, despreciable. Este estado altamente improbable (neguentrópico) puede por lo tanto contener un mensaje y disipar la incertidumbre. 5.3.4. Información, informática, cibernética La mayor parte del contenido de este capitulo se inscribe en una disciplina que suele llamarse Teoría de la Información. Esta teoría fue lanzada en 1948 por el matemático Claude Shannon bajo el nombre de "Teoría matemática de la comunicación", casi al mismo tiempo que Norbert Wiener presentaba al mundo su primer libro sobre cibernética. Las relaciones entre la teoría de la información y la informática dependen del alcance que se da a este último término. Generalmente se entiende la informática como el estudio de las computadoras y de sus aplicaciones, o como el estudio del tratamiento lógico y automático de los sistemas de información. En este caso, la informática presupone la teoría de la información y se nutre de ella para perseguir sus propios objetivos particulares. Si prefiriéramos caracterizar la informática como el estudio de la Información, de su transmisión y de su tratamiento, incluso por medios automáticos, la teoría de la Información sería parte integrante, y ciertamente fundamental, de la informática. En cualquier caso, debe quedar en claro que la informática no es posible sin la teoría de la información. Pero la informática -al menos en su acepción o parte más relacionada con las computadoras- tampoco sería posible sin la cibernética, como hemos visto en el parágrafo 5.1.4. Pues bien, el nexo principal entre informática y cibernética se halla en la teoría de la Información, que es también parte integrante de la cibernética y de la teoría general de los sistemas en la medida en que permite explicar y medir la transmisión y los efectos de la información entre los distintos elementos de un sistema o entre un sistema y su entorno, a la vez que la cibernética permite englobar dentro de conceptos más amplios varios de los elementos que maneja la teoría de la información. Pero el uso de palabras como “sistema” y “entorno” requiere que nos introduzcamos ya en el campo de los conceptos sistémicos. En esto nos ocuparemos ahora. 5.4. ALGUNOS CONCEPTOS SISTÉMICOS 5.4. l. Sistema Hablamos mucho acerca de sistemas, o al menos empleamos con gran frecuencia la palabra “sistema". Solemos referirnos a sistemas políticos o filosóficos, al sistema nervioso, a un sistema de aire acondicionado o de calefacción, a sistemas deductivos, a sistemas de producción, distribución o venta, a sistemas para aprender dactilografía o corte y confección. Y en los últimos tiempos, claro está, se oyen muchas menciones acerca de los sistemas informáticos o de computación. Tal parece que vivimos rodeados de sistemas. Semejante afirmación es cierta, pero peca de timidez. No sólo vivimos rodeados de sistemas: también formamos parte de sistemas, y además nosotros mismos somos sistemas, integrados a nuestra vez por multitud de subsistemas, que es como se llama a los sistemas que forman parte de otros sistemas mayores en relación con éstos. La palabra "sistema", que tanto tiene que ver con nosotros y con lo que nos rodea, está lejos de representar un concepto nuevo, introducido por la cibernética o la T.G.S.: lo que sí es nuevo es la importancia que se asigna a esta idea como herramienta para interpretar la realidad, el análisis de las relaciones entre las cosas que forman el sistema, del orden que preside esas relaciones y del vínculo entre cada sistema y el resto del universo. Este vínculo y esta diferencia entre lo viejo y lo nuevo acerca de los sistemas -conviene que aclaremos esto ahora- ha llevado a acuñar un neologismo. Todo lo perteneciente o relativo a un sistema, en la concepción clásica, se llama sistemático (decimos que es sistemático lo que sigue un sistema o se ajusta a él, como cualquier actividad escrupulosamente metódica o regida por principios); pero para designar lo relativo al moderno enfoque de la Teoría General de Sistemas se usa el adjetivo “sistémico": hablaremos así de conceptos sistémicos, de análisis sistémico de la realidad, de enfoque sistémico de los problemas. Comencemos, pues, nuestros estudios sistémicos por indagar sobre el concepto mismo de sistema. Por lo pronto, un sistema es un conjunto de elementos (seguir llamándolos cosas podría traer algunas dificultades clasificatorias). Estos elementos pueden ser de muy diversas clases: proposiciones (como en un sistema filosófico), objetos (como en una máquina), seres humanos (como en una familia), elementos combinados de cada una de dichas clases (como en un sistema industrial) o animales, vegetales y minerales en general (como en el sistema ecológico). Claro está que no cualquier conjunto o colección de elementos (como la Biblia junto al calefón que imaginaba Discépolo) es un sistema: se requiere que tales elementos estén relacionados entre sí de tal modo que el conjunto funcione organizadamente como un todo. Una definición que, con sus más y sus menos, puede satisfacer nuestras necesidades es la que proponemos aquí: un sistema es una unidad en interacción con otras o dentro de la cual se distinguen elementos en interacción. No todos los aspectos implícitos en esta definición pueden explicarse ahora: los advertiremos a medida que avancemos en el estudio de los sistemas. Pero uno, muy importante, merece ser analizado en este momento. Distinguir un conjunto de elementos de otro conjunto de elementos es materia de decisión antes que de observación, ya que cualquier elemento puede pertenecer a infinitos conjuntos, según se nos ocurra imaginar éstos. Es más: 15 distinguir un elemento de otro elemento (aún cuando se trate -para hacerlo fácilde objetos materiales) también es materia de decisión (personal, convencional o tradicionalmente aceptada): somos nosotros quienes subdividimos la realidad en segmentos que Individualizamos y eventualmente nombramos en función de nuestros intereses, de nuestros temores, de nuestra historia o de nuestro mero capricho. Por esto definimos "sistema" como una unidad: esta palabra es poco comprometida. Si queremos pensar en las unidades como cosas-que-están-allí, santo y bueno. Si preferimos afirmar (como lo hacemos más arriba) que cada unidad depende de una decisión individualizadora, tanto da. La palabreja no prejuzga acerca de la posición filosófica de la que se parte, y sirve a tirios y troyanos. Lo mismo ocurre con el verbo "distinguir": puede ser que distingamos las cosas porque son distintas o que ellas sean distintas porque las distinguimos. Cada cual con su idea, y todos en el estudio de los sistemas, que no es una filosofía sino un método. De un modo parecido debe interpretarse la palabra "interacción", ya sea como una acción efectiva, ya sea como una disposición a la acción. Después de todo, cuando decimos que Carlos y David están en contacto epistolar (lo que implica la idea de comunicación interactiva) no queremos afirmar que ambos se escriben cartas veinticuatro horas por día, sino que están dispuestos a escribirse, tienen la posibilidad de hacerlo y de hecho lo hacen cuando les parece conveniente. Con todo lo dicho no hemos resuelto la controversia acerca del concepto de sistema (ni mucho menos), pero disponemos de un punto de apoyo para ir más allá. Consideremos, pues, las distintas clasificaciones que suelen trazarse para distinguir unos sistemas de otros. 5.4.2. Sistemas abiertos y sistemas cerrados Quedamos en que uno de los motivos que pueden llevarnos a individualizar un segmento de la realidad como sistema es el deseo de analizar su interacción con otros segmentos. Esta interacción del sistema con el medio que lo rodea (llamado entorno) consiste en un ir y venir de energía (entendámonos: de materia, de energía o de información, o de cualquier combinación de las tres). Un automóvil (el sistema automóvil) recibe energía cuando se le llena el tanque, materia cuando suben pasajeros o se carga el baúl e información proveniente del manejo o de su conductor; y entrega materia cuando bajan los pasajeros o se descarga el baúl, así como por el caño de escape; energía mediante el movimiento de las ruedas y otros mecanismos (como el limpiaparabrisas) o el calor despedido por el motor, e información mediante los indicadores de su tablero y las luces de posición y de giro. En este sentido, el automóvil es un sistema abierto. En el mismo sentido, un sistema cerrado es el que no intercambia con su entorno materia, energía ni información (y, para hablar con mayor rigor, carece de entorno, ya que lo exterior al sistema sólo se llama entorno por su relación con éste). Los sistemas "reales" (es decir, aquellos sectores de la realidad que nos tomamos el trabajo de analizar sistémicamente) son abiertos, pero no completamente; o cerrados, pero selectivamente. De hecho, son sistemas abiertocerrados: reciben influencia del resto del universo, pero sólo a través de ciertas vías específicas llamadas entradas, y ejercen influencia sobre el resto del universo, pero sólo a través de ciertas vías específicas llamadas salidas. En el ejemplo del automóvil, la boca del tanque de combustible es una entrada, las ruedas y el caño de escape son salidas y las puertas y la tapa del baúl son tanto entradas como salidas. Los indicadores del tablero son salidas; el volante y la palanca de cambios, entradas. Por las entradas el sistema recibe sus ingresos (inputs) de materia, energía o información. Por las salidas emite sus egresos (outputs) de los mismos elementos. El resto del sistema opone cierta resistencia a ingresos y egresos: tal es la noción de frontera entre sistema y entorno (por ejemplo, la chapa que recubre la carrocería del automóvil). Gráfico 5.3. Sistema y entorno ENTORNO frontera ingreso SISTEMA egreso 5.4.3. Sistemas estáticos y dinámicos Solemos llamar estático a lo que está quieto, y dinámico a lo que se mueve. Como el universo real se mueve y evoluciona constantemente, un sistema estático sólo puede concebirse en el plano de lo abstracto. En efecto, llamamos sistema estático a un conjunto de enunciados que poseen entre sí ciertas relaciones lógicas. Una clase de sistemas estáticos particularmente importantes para la ciencia es la de los sistemas axiomáticos, en los cuales, a partir de determinadas proposiciones admitidas de antemano, llamadas axiomas, se infieren lógicamente otras proposiciones, llamadas teoremas. En épocas modernas se han desarrollado los sistemas deductivos formales, en los que la estructura lógica se ha desligado del contenido por medio del uso de símbolos arbitrarios, con lo que los sistemas adquieren un alto grado de abstracción. Todos los sistemas que hemos mencionado aquí se componen de un conjunto de enunciados vinculados entre sí por ciertas reglas (la exactitud y la precisión de estos vínculos se han incrementado notablemente a partir del desarrollo de la lógica moderna y de la creación de sistemas abstractos). Como se trata de conjuntos de enunciados que responden a ciertas reglas de agrupación, estos sistemas son atemporales. Esto no significa que hayamos de ser indiferentes a la época en que se construyen, ni que su elaboración no responda a las 16 necesidades, creencias, prejuicios o condicionamientos del momento histórico en el que aparecen. Como obra humana tienen un principio y pueden ser abandonados, rechazados u olvidados; pero como sistemas tienen algo de eterno, de ajeno al tiempo. Los enunciados de la geometría o de la lógica no están referidos a un momento determinado: los ángulos interiores de un triángulo equivalen a dos rectos en cualquier tiempo y lugar en que se utilice la geometría de Euclides; y esta geometría puede usarse en cualquier tiempo y en cualquier lugar (que convenga hacerlo es harina de otro costal. Los sistemas dinámicos, por su parte, tienen mayor relación con lo concreto. No sólo pueden estar compuestos por enunciados, sino también por objetos, seres humanos o mezclas de cualquier tipo. Incluyen mecanismos de movimiento, cambio o evolución, y se hallan por lo tanto sujetos al tiempo: son temporales. La mecánica celeste es un sistema basado en el movimiento relativo de los cuerpos que componen el universo; un animal existe gracias a la efectiva interacción de sus órganos, y esta existencia tiene un principio, el nacimiento, y un fin, la muerte. Un sistema político rige las relaciones dinámicas entre individuos y grupos, y también aparece en un momento histórico para ser destruido, abandonado o reemplazado en otro, cuando sus posibilidades de auto conservación y defensa se han agotado. Una máquina de escribir es un conjunto organizado de piezas que interactúan cuando se las pone en funcionamiento, y su existencia ocupa también un espacio temporal. 5.4.4. Sistemas integrados Hemos examinado hasta aquí la noción de sistema y un par de clasificaciones entre las que suelen aplicarse a los sistemas. Sin embargo el interés central de la T.G.S. y de la cibernética no gira en derredor de los sistemas cerrados, ni de los sistemas estáticos, ni de cualquier clase de sistemas dinámicos. Los sistemas más interesantes, los que constituyen el paradigma de la noción de sistema, son los sistemas integrados. Un sistema integrado es un caso especial de sistema dinámico, que puede describirse como una entidad autónoma, estructurado y con funcionalidad propia para el cumplimiento de sus objetivos, con una frontera que la coloca en relación selectiva con un entorno específico y dotada de estabilidad dinámica dentro de una evolución Irreversible. ¿No se entiende, verdad? Claro que no. Pero saldremos fácilmente del paso si examinamos, una por una, las características mencionadas en la definición. Respiremos hondo y empecernos. a) Autonomía Decimos a veces que un avión posee mayor autonomía de vuelo que otro. ¿Qué significa esto? Que la relación entre su potencia, su velocidad y su consumo es tal que le permite volar más tiempo, o mayor distancia, sin necesidad de reabastecerse. Esto depende también, naturalmente, de su capacidad para almacenar combustible. El combustible acumulado en el depósito del avión es la reserva del sistema-avión. Del mismo modo una empresa puede mantenerse cierto tiempo sin créditos, gracias a sus reservas financieras. Un ser humano puede subsistir cierto tiempo sin comer, gracias a sus reservas de proteínas, hidratos de carbono y otras sustancias necesarias para la vida (eventualmente acumuladas bajo la forma de grasa). Las reservas (también llamadas variedad) constituyen, pues, el medio por el que el sistema adquiere una relativa independencia del entorno: si en el entorno las condiciones no son propicias para el intercambio, el sistema puede reducir o aun suprimir temporalmente algunos aspectos de ese intercambio, o bien adaptarse a las condiciones imperantes en el exterior. En esto consiste la autonomía. Adaptarse: he aquí una idea que obliga a profundizar el concepto de variedad o reserva. Hasta ahora imaginábamos la reserva como un depósito lleno de combustible, de dinero, de sustancias químicas o de lo que fuere necesario para hacer funcionar el sistema. Pero esto no es todo: el sistema tiene también mecanismos más sutiles para hacer frente a las modificaciones (el término técnico es variaciones) en los ingresos que recibe del entorno. Si hace frío, nuestro cuerpo genera más calor; si el calor es excesivo, lo disipamos mediante transpiración y evaporación; si el aire que respiramos se hace menos rico en oxígeno (como en las zonas muy altas), luego de un período de carencia (apunamiento) nuestra sangre se hace más rica en glóbulos rojos y así absorbe mejor el oxígeno escaso. Si nos atacan, nos defendemos o huimos. Esta capacidad para reaccionar ante las variaciones de- entorno se llama variabilidad; pero el ejercicio de la variabilidad requiere echar mano de la variedad o acumulación de recursos: salud, fuerza física, inteligencia. Así como nuestra capacidad para utilizar la energía acumulada como reserva en nuestro cuerpo es inútil cuando hace dos meses que no comemos, el impulso de defendernos necesita el apoyo de la fuerza física o de la inteligencia necesarias para hacerlo; huir eficazmente requiere la velocidad que hemos adquirido mediante algún entrenamiento; adaptarnos a la vida en Francia es más fácil si hemos acumulado algún conocimiento del idioma francés, y así es en todo. Cuanto mayor sea la variedad de un sistema (y cuanto mejor sea su esquema de variabilidad que le permite utilizar esa variedad con eficacia), tanto mayor será la autonomía de ese sistema frente a las variaciones del entorno. Es conveniente en este punto que no nos perdamos en el trabalenguas de los conceptos relativos a la autonomía: variación es la modificación (o fluctuación) de las condiciones externas; variedad las reservas con que cuenta el sistema para hacer frente a aquellas modificaciones; variabilidad la capacidad del sistema para echar mano de aquellas reservas de un modo eficaz. Aclaremos esto con un ejemplo. Dos ejércitos se encuentran en plena batalla, Uno de ellos envía una columna que, inesperadamente, ataca al otro por retaguardia (variación). Si el otro ejército no cuenta con tropas disponibles para hacer frente a este ataque, le falta variedad. Si las tiene, pero por incapacidad táctica de su jefe no logra ponerlas en acción, su variabilidad es insuficiente. En cualquiera de los dos casos es probable que pierda la batalla, y un ejército derrotado suele desaparecer como sistema. La constante batalla por la subsistencia del sistema se pierde cuando la variación es demasiado grande o demasiado prolongada en el tiempo: la variedad 17 se agota, la variabilidad queda sin recursos y el sistema desaparece, muere, se transforma acaso en otro sistema o en parte de otro sistema. b) Estructura y función Sabemos que los elementos que componen un sistema interactúan según ciertas relaciones. Estas relaciones configuran una organización, y para conservar y facilitar la organización hace falta una estructura. La estructura es el orden en que se hallan distribuidos los elementos del sistema. Así, en un animal los tejidos óseos son diferentes de los epiteliales, y se hallan agrupados de distinta manera y en diferentes lugares. Una empresa industrial tendrá un sector de fábrica, otro de ventas y otro de administración, cada uno con sus propios órganos de dirección, y un organigrama en el que cada sector, dividido en distintos niveles jerárquicos, se hallará finalmente supeditado a la dirección general. Cada elemento del sistema se halla situado en la estructura de acuerdo con la función que le compete; esto es, con el tipo de actividad que es propia de ese elemento en relación con los demás. Estructura y función son conceptos que a menudo se interpretan como antitéticos. ¿Qué es más importante: la estructura o la función? ¿Es la estructura la que determina la función, o la función incide en el diseño de la estructura? Para la Teoría General de Sistemas esta dicotomía es tan vieja e inútil como preguntarse si fue antes el huevo o la gallina. Algunas disciplinas la han superado: en las ciencias biológicas conviven armónicamente la anatomía (que estudia estructuras) y la fisiología (que examina funciones). Pero en las ciencias sociales la polémica ha sido particularmente extensa, y en antropología se oponen aún las escuelas estructuralista y funcionalista. Desde el punto de vista sistémico carece de utilidad plantear preeminencias semejantes. Estructura y función son dos enfoques complementarios de una misma realidad, y ninguno describe acabadamente, por si solo, el sistema. Los elementos ocupan un lugar determinado dentro de la estructura y se distinguen unos de otros por su función. Sin estructura no habría función, y sin función la estructura desaparecería (junto con el sistema). La diferencia reside en gran medida en la óptica desde la que nos dispongamos a apreciar el sistema: un enfoque diacrónico pone de resalto la función, en tanto otro sincrónico sólo permite ver la estructura. Por otra parte, si lo que nos lleva a ensanchar la diferencia entre estructura y función es el carácter estático de la primera y la condición dinámica de la segunda, hemos de tener en cuenta que esta distinción es apenas relativa: una estructura es un proceso lento, cuya apreciación estática depende de nuestra escala temporal. Un ejemplo al paso: nada hay más inmóvil (inmueble, dicen los abogados) que la tierra. "Tierra firme", repiten, con cierta redundancia, los marinos. Pero los continentes flotan como placas sobre un mar de roca fundida, y se mueven, unos respecto de los otros, algunos centímetros por siglo. Para la apreciación humana (que, fiel a aquello de que "el hombre es la medida de todas las cosas", aprecia el tiempo por comparación con la vida del homo sapiens ) este movimiento es prácticamente imperceptible y, por lo tanto, despreciable. Pero ¿cómo lo vería un ser capaz de vivir decenas de miles de millones de años? Y una mariposa, que vive sólo un día, ¿cómo podría concebir la evolución de un hombre desde el nacimiento hasta la muerte? Toda estructura, apreciada con suficiente perspectiva temporal, es un proceso de cambio y transformación. Todo proceso, apreciado en un lapso suficientemente breve, es una estructura. Aclarado este punto, examinemos la estructura de un sistema. Veremos que los distintos subsistemas que lo componen están relacionados entre sí de diversas maneras. Algunas de esas maneras son simétricas (los subsistemas A y B se influyen recíprocamente), y otras son asimétricas (el subsistema A influye en el B, pero no a la inversa). Estas relaciones asimétricas determinan jerarquías dentro del sistema: decimos que un subsistema A es superior al B (que llamamos Inferior en relación con el primero) cuando A determina asimétricamente la conducta o función de B. En todo sistema, trátese de un organismo, de una empresa, de la sociedad entera, existen subsistemas de control, cuya función consiste en determinar las conductas o funciones de los subsistemas de nivel inferior. c) Finalidad Un sistema tiende a cumplir sus objetivos. Esta característica introduce la noción de finalidad, que puede hacer enarcar las cejas a más de uno. En efecto, a primera vista parece que afirmáramos que un sistema fija o persigue conscientemente sus propios objetivos. Si tal afirmación es aceptable para muchos (no para todos) cuando se trata de sistemas humanos, lo es menos cuando hablamos de una ameba o del sistema solar; y el tema puede suscitar reflexiones filosóficas, metafísicas y hasta éticas. No es preciso, sin embargo, que nos sumerjamos en tales honduras, ya que una cosa es finalidad y otra intencionalidad. La intencionalidad, propia de los sistemas humanos, es una propiedad declarada por el sistema y requiere cierto grado de autoconciencia y capacidad volitiva. La finalidad es simplemente una propiedad revelada por el comportamiento efectivo del sistema, por lo que se la ha definido como el "objetivo o meta que el sistema parece perseguir, pese a las modificaciones de su entorno". En otras palabras, cuando vemos que un sistema reacciona a lo largo del tiempo frente a muy diversas variaciones del entorno de modo tal que cierta función o cierto grupo de funciones se mantiene incólume, podemos identificar (al menos provisionalmente) a dicha función o dicho grupo de funciones como finalidad del sistema, ya que el sistema se comporta en la práctica como si, en la hipótesis de ser consciente y racional, persiguiera deliberadamente ese objetivo por encima de los demás. Para la mayoría de los sistemas vivientes puede decirse que su finalidad es perpetuar la especie, ya que los diversos mecanismos de adaptación parecen tender a ese objetivo; y esta finalidad determina las funciones de los subsistemas, tales como el aparato digestivo, el reproductivo, el sistema nervioso, etc. Cuando se trata de sistemas o subsistemas sociales la finalidad es más difícil de identificar; no sólo porque cuanto mayores un sistema tanto más reducido es, en relación con él, el ámbito espacial y temporal en el que puede examinarse su comportamiento, sino también porque los sistemas y subsistemas sociales suelen hacer explícita la que consideran su finalidad, y en este punto, aun con buena fe, 18 finalidad e intencionalidad no siempre coinciden. La historia está repleta de ejemplos de organizaciones sociales que, creyendo perseguir un objetivo, colaboran eficazmente para lograr otro muy distinto. d) Frontera En el parágrafo 5.4.2. introdujimos la noción de frontera. La frontera de un sistema determina la relación adentro-afuera; esto es, permite establecer, entre todas las cosas del universo, cuáles serán consideradas elementos del sistema y cuáles quedarán excluidas de tal privilegio. Sin una frontera el sistema sería indiscernible de su entorno. Pero la frontera, conviene recordarlo, no es siempre fácil de identificar, y en muchos casos depende de decisiones por lo menos lingüísticas y casi siempre pragmáticas. Así, la frontera de un Estado (el límite geográfico) se extiende hasta abarcar las embajadas que ese estado posee en países extranjeros, que (hasta cierto punto) se consideran parte del territorio nacional.Pero tampoco hay una respuesta unívoca a preguntas aparentemente sencillas, como ¿cuál es la frontera de un ser humano?. Sin duda la piel funciona como frontera; pero ¿cómo clasificar las aberturas? Si uno, por ejemplo, tiene la boca abierta, ¿la frontera estará dada por la línea imaginaria trazable entre los dientes de arriba y los de abajo? ¿Y si tomamos en cuenta los ingresos y los egresos? Respecto de los ingresos, puede decirse que algo (un alimento, por ejemplo) ha traspuesto la frontera del organismo cuando empieza a ser asimilado en el estómago. ¿Deberemos, entonces, decir que la frontera del organismo es la pared estomacal? En este punto como en otros no hay una respuesta verdadera: la constitución del sistema depende del observador y de las decisiones metodológicas que éste adopte para mejor perseguir sus propios fines. e) Ingreso, proceso, egreso La frontera de un sistema (concepto que incluye las entradas y salidas a las que nos hemos referido en el par grafo 5.4.2.) es selectiva. Esto significa que no cualquier elemento puede ingresar al sistema o salir de él (es decir, convertirse en ingreso o egreso). Respecto de un sistema, los objetos capaces de ingresar o egresar pueden clasificarse en relevantes o irrelevantes. Son relevantes aquellos cuyo ingreso o egreso produce alguna modificación en el sistema, como la población en un Estado o las mercaderías en una empresa. Son irrelevantes aquellos que, aunque traspongan la frontera, no inciden en el funcionamiento del sistema (una bandada de golondrinas que atraviesa los límites de un país, el polvo atmosférico que se inhala con el aire al respirar). A su vez, los objetos relevantes pueden ser beneficiosos, si se trata de elementos que hacen crecer el sistema o lo estabilizan, como (dentro de ciertas proporciones) la inmigración en un estado poco poblado y en expansión o el alimento en un ser biológico, o perjudiciales si tienden a alejar el sistema del punto de equilibrio o a hacerlo desaparecer como sistema, tales como una invasión o un veneno. Si el sistema tiene una finalidad, esta finalidad está necesariamente relacionada con los ingresos y los egresos; o, más concretamente, con el proceso que en su interior sufren los ingresos hasta transformarse en egresos: si el egreso fuera idéntico al ingreso el sistema carecería de finalidad, ya que su existencia no traería cambio alguno en el mundo. Un motor transforma energía en movimiento; una vaca transforma hierbas y agua en carne, cuero, estiércol y... más vacas. Una universidad transforma bachilleres en graduados, en los que distribuye información que absorbe del entorno. Todo sistema procesa materia, energía o información para devolverlas bajo otra forma o en otro lugar. Los pasos de esta transformación son diferentes para cada tipo de ingresos y para cada tipo de sistema, que los procesa en forma diferente. Por semejanza con los conceptos de las ciencias biológicas, suele llamarse anabolismo a la recepción de elementos provenientes del entorno, metabolismo al proceso de transformación y aprovechamiento que ejerce el sistema sobre los ingresos para asegurar el crecimiento y el mantenimiento propios y catabolismo a la descomposición en el sistema de elementos complejos (con liberación de energía, de trabajo y de desechos) y su expulsión hacia el entorno. f) Entorno Al tratar sobre los sistemas en general (par grafo 5.4.2.) nos hemos aproximado a la noción de entorno (que hemos usado de allí en adelante) describiendo éste como el medio que rodea al sistema. En efecto, ningún sistema que no sea cerrado (y los sistemas integrados no lo son) funciona en el vacío, sino en constante relación con un entorno, El entorno, a su vez, suele ser un sistema más amplio, que recibe entonces el nombre de meta sistema respecto del sistema que contiene. El hombre, por ejemplo, se halla rodeado por otros hombres y todos forman parte del metasistema social. El entorno del sistema social, incluye a animales, plantas y demás elementos de la naturaleza, los que a su vez forman el sistema ecológico. Cada sistema mayor es un meta sistema respecto del menor. Cada sistema menor es un subsistema respecto del mayor si cumple dentro de él una función. Pero ¿cómo distinguir el sistema del entorno? Recordemos aquí lo dicho en el parágrafo 5.4.l.: la identificación de un sistema depende de una decisión individualizadora, fundada a su vez en razones prácticas. Pues bien, la distinción entre sistema y entorno (es decir, el trazado de la frontera) depende de la misma decisión. Claro está que hay decisiones más razonables que otras, en el sentido de que nos ayudan a examinar la realidad de un modo más sencillo y más útil para nuestros fines. El sistema y el entorno se definen, pues, recíprocamente, dado que los ingresos del sistema son egresos del entorno y viceversa. Examinemos el funcionamiento del intercambio sistema-entorno en un ejemplo simplificado. Un motor de automóvil (ver gráfico 5.4.) recibe del entorno nafta, agua, aceite y electricidad. Procesa estos ingresos en su interior y los transforma en egresos: trabajo (movimiento), electricidad (alternador), calor (que se 19 disipa en la atmósfera), vapor y gases (por medio del escape, y también destinados a disiparse en la atmósfera) e información (si tiene un cuentavueltas). Naturalmente, un ingreso diferente del específico (agua en el tanque de nafta, por ejemplo) no producir el resultado esperado. Sin embargo, la calidad de los ingresos puede sufrir variaciones siempre que éstas se sitúen dentro de determinados valores de tolerancia (como algunos aprovechados dueños de estaciones de servicio saben, puede haber una mínima cantidad de agua en la nafta). Un motor es un sistema destinado a transformar materia-energía en trabajo mecánico (en el caso de un automóvil, el trabajo producido por el subsistema motor se comunica a las ruedas para mover el sistema-vehículo). Pero todo proceso de este tipo genera subproductos (calor, gases, vapor). Por medio del alternador, el motor genera electricidad, que sirve para recargar la batería (subsistema de almacenamiento de energía), y de allí va otra vez al motor, con lo que se cierra un círculo de realimentación. Pero ésta es otra historia, a la que llegaremos pronto. Gráfico 5.5. El sistema taxi ENTORNO alimento abrigo calor SISTEMA HOMBRE -MÁQUINA nafta aceite Subsist. máquina trabajo ENTORNO NAFTA AGUA ELECTRICIDAD información agua Gráfico 5.4. El motor del automóvil ACEITE Subsist. hombre vapor, gases TRABAJO SISTEMA MOTOR INFORMACIÓN Otros gastos $ VAPOR, GASES CALOR ENTORNO Consideremos ahora el automóvil entero como sistema: respecto de él, el individuo que lo maneja forma parte del entorno (una parte muy importante, pues le proporciona todos sus ingresos, incluida la información contenida en el manejo mismo). Pero ¿por qué no imaginar un sistema que incluya al hombre? Ser un sistema hombre-máquina, con un grado de autonomía mucho mayor. Supongamos, para simplificar, que se trata de un taxi. El trabajo que egresa del sistema (transporte) es vendido a los pasajeros (entorno), y con el producto de esa venta el subsistema-hombre compra los ingresos necesarios para la subsistencia y el funcionamiento de ambos subsistemas (alimentos, abrigo, nafta, aceite). La figura muestra un modelo simplificado del sistema hombre-máquina en que consiste un taxi con su conductor, El rectángulo central representa la combinación de los dos subsistemas, relacionados recíprocamente (flecha interna de dos puntas) mediante intercambio de información, materia y energía: el hombre proporciona manejo y recibe los dados del tablero; se encarga de introducir combustible y otros insumos y sirve de intermediario para la venta del trabajo producido por la máquina. El sistema produce calor, vapor y gases, que se disipan en el entorno. También entrega al entorno información (luces de giro, por ejemplo). El trabajo llega al entorno para convertirse en dinero, y parte de- dinero es convertido a su vez en insumos para el subsistema máquina (nafta, aceite, agua) y para el subsistema hombre (alimento, abrigo). En este esquema no figura ya la electricidad (ver gráfico 5.4), porque ella es producida y consumida dentro de- subsistema máquina: no es ingreso ni egreso del sistema (salvo por la provisión de batería o lo necesario para servir de soporte a la información que egresa) sino de los subsistemas internos del subsistema máquina (motor, alternador, batería). g) Equilibrio dinámico "Nadie se baña dos veces en el mismo río", dijo una vez Heráclito. No quería decir con esto que sus coetáneos fuesen limpios y empedernidos turistas o sedentarios pringosos: aludía al perpetuo devenir de la naturaleza. Y, en efecto, un río corre y se pierde en el mar, de modo que las moléculas de agua que lo componen se renuevan constantemente. Desde luego, la famosa frase de aquel remoto pensador es, vista con ojos contemporáneos, poco más que una licencia poético-filosófica. El criterio común de uso de la palabra "mismo" no incluye, cuando se aplica a un río, la exigencia de que las moléculas que lo componen sean idénticas en cada observación. El río 20 permanece "idéntico" (para nuestra manera de nombrarlo y hablar de él) aunque su agua fluya, aunque su nivel varíe, e incluso, aunque de vez en cuando su cauce sufra alguna modificación. En otras palabras, el río se extiende en el tiempo a pesar de sus fluctuaciones (y, en parte, gracias a éstas). Esto no es extraño. El río es un sistema (o puede ser examinado como tal), y los sistemas se mantienen merced a una forma peculiar de equilibrio. Cuando lo pierden, desaparecen: mueren, dejan de existir como sistemas. ¿Qué equilibrio es éste? Ahora lo veremos. Imaginemos una esfera apoyada sobre una superficie cóncava. La esfera se alojar en el punto más bajo de la superficie y, si la movemos un poco, tenderá a volver al mismo sitio. Los físicos llaman a esto equilibrio estable. Supongamos ahora que la superficie es perfectamente plana y horizontal. La esfera se quedará quieta en cualquier punto en que la coloquemos, y si la movemos permanecerá donde nuestro movimiento cese. Este es el equilibrio indiferente. ¿Y si la superficie sobre la cual apoyamos la esfera es convexa? Hacer que la esfera se quede quieta ser tan difícil como el legendario experimento del huevo de Colón. Pero admitamos que, con paciencia y precisión infinitas, logramos que permanezca en el punto más alto de la protuberancia: es claro que el menor movimiento, la más leve trepidación harán que se desplace, caiga hacia un costado y ya no vuelva por sí sola al lugar donde la habíamos colocado. Se trata aquí del equilibrio inestable. Estas tres especies de equilibrio pertenecen a un mismo género: el del equilibrio estático, ya que en todos los casos mencionados se produce una equiparación de fuerzas que torna inmóvil al objeto. Esta inmovilidad es, por cierto, mucho más precaria en el equilibrio inestable, pero existe en un momento dado y mientras no cambien las condiciones: consiste en la inmovilidad del objeto y, en ocasiones, depende de tal inmovilidad (como en el caso del equilibrio inestable). Pero los sistemas tienen otro tipo de equilibrio: un equilibrio que depende del movimiento, y que por eso se llama dinámico. Pensemos en un individuo que está inflando un globo. A medida que él sopla, el globo se hincha por la presión del aire contenido en su interior. En cada momento entre dos soplidos, el globo se halla en equilibrio estático: la presión interior se compensa exactamente con la resistencia ejercida en sentido contrario, por la goma. Gráfico 5.6. Equilibrio Pero supongamos ahora que en el globo hay un diminuto orificio, debidamente reforzado en sus bordes para que el globo no estalle. Por ese agujero saldrá aire a presión. Y, en el mismo momento, nuestro amigo sigue soplando como si tal cosa. Si el aire que entra es más que el que sale, el globo seguirá hinchándose y acabará por explotar cuando se agote la resistencia de la goma. Si es menos, el globo disminuirá su tamaño hasta perder toda la presión interna. Pero si las corrientes de entrada y de salida son equivalentes, el globo permanecerá inflado y conservará indefinidamente su tamaño. Esta compensación de los cambios, esta armonía de las modificaciones, esta permanencia de estructuras y funciones en medio del flujo de movimientos es el equilibrio dinámico. Pero es preciso recordar aquí que el globo puede fluctuar dentro de ciertos límites sin desinflarse ni estallar: mientras nuestro amigo toma aire para seguir soplando el globo se contrae, y esta contracción es tal vez compensada luego con un soplido más fuerte. Algo semejante ocurre con el río, cuyo caudal puede aumentar o disminuir, también dentro de ciertos límites, sin que el río desaparezca por inundación ni por desecamiento. Estas fluctuaciones, o variaciones en torno al punto ideal del equilibrio, se consideran normales dentro de la vida (o incluso dentro de la "salud") de un sistema. Gráfico 5.7 Fluctuación Sin embargo, existe siempre un margen para estas saludables fluctuaciones. A cierta distancia por encima o por debajo del punto ideal de equilibrio aparecen los puntos críticos, más allá de los cuales el equilibrio se pierde. Así, un organismo puede hallarse en equilibrio con su entorno en una determinada banda de valores de temperatura, y tener reservas y variabilidad para soportar bastante bien las fluctuaciones dentro de esa banda- pero si el frío es excesivo se congela y muere, así como el excesivo calor (dentro de una cacerola) convierte a un crustáceo vivo y coleando en una apetitosa langosta a la termidor, restos de un ex sistema viviente que se incorpora al sistema (aun viviente) de cada comensal. Se representa aquí la fluctuación de un sistema en torno a su mediana de equilibrio, dentro y fuera de la zona de regulación económica, hasta la pérdida del equilibrio dinámico. Conviene aclarar que, como en todo modelo, se trata de una representación muy simplificada. Las líneas de puntos críticos no son necesariamente precisas ni rectilíneas, sino zonas en las que aumenta 21 considerablemente la probabilidad de la pérdida de- equilibrio. A la vez, el límite entre la zona de regulación económica y la zona de regulación costosa es más o menos arbitrario, ya que el mayor o menor costo de la regulación y lo que pueda entenderse como uso extraordinario de reservas es cuestión de grado. Pero sin llegar a tales extremos (o antes de llegar a ellos), el sistema en equilibrio se halla sujeto a distintos grados de exigencia para el mantenimiento de ese equilibrio. En efecto, cada fluctuación requiere cierto gasto de energía para volver a acercarse al punto ideal de equilibrio; y, traspuesto éste, un nuevo gasto para producir la nueva inflexión de la curva y acercarse otra vez a él. Dentro de ciertos límites, estos gastos de energía son normales y corresponden a lo que podría denominarse zona de regulación económica (ver gráfico 5.6). h) Retroalimentación El equilibrio de un sistema es, según acabamos de ver, un equilibrio de flujos: en cada uno de los elementos del sistema, como en el sistema mismo, los ingresos deben hallarse en cierta relación de equivalencia con los egresos; y, aunque pueden admitirse altibajos momentáneos, éstos no han de sobrepasar, en magnitud ni en duración, ciertos márgenes críticos. Sin embargo, pocos sistemas subsistirían si el cumplimiento de tal requisito hubiese de quedar librado exclusivamente al azar de las variaciones del entorno o a un funcionamiento más o menos errático del propio sistema. Cada sistema destinado a perdurar contiene cierta capacidad (incluida en su esquema de variabilidad) para regular sus ingresos a partir de sus egresos o sus egresos a partir de sus ingresos. Para examinar este tema con mayor claridad, propondremos dos experimentos, con la aclaración de que deben ser tomados como meros recursos pedagógicos y que su práctica real queda bajo la absoluta responsabilidad del lector. Supóngase que una tarde de primavera vemos en la calle a una joven atractiva. Nos acercamos y le decimos un piropo. Ella nos mira y sonríe (está bien, es sólo una suposición; continuemos). El resultado de nuestra acción es percibido por nosotros como un aliciente para ir más allá. Le proponemos ir a tomar un café. Acepta: nuevo estímulo. Así, los acontecimientos se desencadenan con mayor intensidad ante cada resultado... y ya nada vuelve a ser igual que antes. Imaginemos, en cambio, que nos cruzamos con un señor de anchas espaldas que nos inspira para nuestro segundo experimento. Le decimos claramente que jamás hemos visto un individuo tan ridículo como él y, para no dejar dudas de nuestra actitud, le propinarnos un puntapié en una rodilla (téngase en cuenta que él es mucho más corpulento que nosotros). No tardamos mucho, por supuesto, en vernos con un ojo en compota. El resultado de nuestra acción -al revés que en el caso precedente- nos disuade de persistir en la actitud agresiva que habíamos adoptado. En ambos ejemplos observamos cómo un sistema (nuestro sistema) utiliza los datos obtenidos de sus egresos para reingresarlos bajo la forma de estímulos, es decir, realimentarse: estímulos positivos en el primer caso y negativos en el segundo. Este fenómeno se llama realimentación o retroalimentación, y puede ser positivo o negativo. Existe retroalimentación positiva cuando, en un sistema, la información sobre el resultado de una acción genera estímulos en el mismo sentido de la acción original. Con este tipo de realimentación el sistema se aleja cada vez más del punto de estabilidad y, si la espiral no se detiene de algún modo, puede desaparecer. En el ejemplo del primer experimento, nuestra estabilidad afectiva se ve gravemente afectada y acaso, con motivo de las acciones emprendidas para reestablecer el equilibrio, nuestro "subsistema-Don-Juan" puede verse alcanzado por la entropía y aniquilarse en el más probable estado matrimonial. Pero una interpretación tal vez menos polémica puede alcanzarse con un ejemplo económico. En efecto, todos conocemos y hemos sufrido en carne propia los mecanismos de la inflación. El alza de precios genera el reclamo de mayores salarios; el alza de salarios provoca un aumento de demanda que a su vez hace subir los precios, y así sucesivamente. Esta sucesión de realimentaciones positivas termina por poner en peligro la existencia misma del sistema económico. Gráfico 5.8 Realimentación positiva. Hay en cambio retroalimentación negativa cuando la información sobre el resultado de una acción genera estímulos en sentido inverso al de la acción original, con lo que se tiende a reducir a cero el efecto de los cambios. Esta forma de retroalimentación contrarresta los desplazamientos de cada magnitud del sistema, con lo que mantiene los valores cerca del punto ideal de equilibrio dinámico. En el ejemplo del grandote, la reacción defensiva de éste nos quitó las ganas de seguir peleando: esto es, nuestra apreciación del resultado de nuestra acción se reintrodujo en nuestro sistema para inhibir cualquier estímulo agresivo que pudiera llevarnos a un peligro mayor. Con algunos machucones, nuestra vida ganó en prudencia y en seguridad. Gráfico 5.9 Retroalimentación negativa i) Retroacción y regulación La retroalimentación negativa es, pues, la llave del equilibrio y constituye uno de los conceptos más importantes de la cibernética. Para abreviar, la llamaremos en adelante retroacción. En el ejemplo del grandote el mecanismo psicológico de retroacción quedaba oscurecido por la violencia con que el entorno nos hacía percibir los 22 resultados de nuestra acción. Un ejemplo mejor -un ejemplo clásico, en verdad- se halla a nuestro alcance, precisamente sobre el inodoro de nuestro baño. Cuando se aprieta el botón (o se baja la palanca, o se tira de la cadena), el agua contenida en el depósito se descarga. Pero hay un flotador apoyado sobre la superficie del agua. Cuando el nivel del agua desciende, el flotador desciende también y, por un juego de palancas, abre la válvula de entrada. El agua entra en el depósito y el nivel vuelve a subir, hasta que la misma palanca actúa en sentido inverso y termina por cerrar la válvula. Con esto, el mecanismo queda listo para un nuevo uso. Como puede apreciarse, cada movimiento del nivel del agua provoca una acción de sentido contrario: el vaciamiento del depósito provoca su llenado y el llenado del depósito se auto detiene. Gracias a este mecanismo de retroacción, el sistemadepósito fluctúa dentro de ciertos limites mínimo y máximo y su función perdura en el tiempo. Gráfico 5.10 Retroacción y regulación ¿Otro ejemplo? La heladera. El motocompresor, al funcionar, hace bajar la temperatura interna del gabinete. Este descenso es registrado por el termostato y, al llegar a cierto punto crítico, provoca la desconexión del motor. La temperatura, entonces, vuelve a subir; pero al llegar al punto crítico superior el termostato lo advierte y pone otra vez a funcionar el motocompresor. De este modo la temperatura de los alimentos a conservar se mantiene aproximadamente constante, en equilibrio dinámico. En los ejemplos que hemos examinado, por cierto, aparece algún aparatito (algún subsistema) que se encarga específicamente de mantener el equilibrio dinámico: el flotador con su palanca, el termostato. La función de tales subsistemas es el control y la regulación de los sistemas a los que sirven: el control consiste en la detección de desvíos o perturbaciones con relación a un estado deseado, que es el estado de equilibrio; y la regulación es el mecanismo de retroalimentaciones compensadas gracias a las cuales el sistema puede mantener su equilibrio dinámico. En este punto, el lector se halla en condiciones de extender aquel modo de interpretación a cualquier sistema conocido. Por ejemplo ¿podría decirse que el Congreso es uno de los subsistemas reguladores de nuestro país? ¿Hay otros? ¿Cuáles? Y, ya que nos hemos introducido en el tema político, ¿en qué puede consistir la desestabilización de un gobierno? ¿Sólo en sustituirlo por la fuerza?¿No habrá modos de hacerle perder el equilibrio actuando sobre distintos factores acaso secundarios en sí mismos? Trate el lector de responder estas preguntas u otras semejantes y advertir cuán cerca de nuestra vida cotidiana se halla la teoría general de sistemas. j) Evolución irreversible Hemos examinado hasta ahora el modo en que un sistema se conecta con su entorno, persigue su finalidad y se autorregula, defendiéndose de las variaciones del entorno mediante el uso de sus reservas y con el auxilio de sus mecanismos de retroacción. Este modo de existir implica cierto grado de organización, es decir de orden. Pero sabemos que -como lo indica el segundo principio de la termodinámica- los sistemas cerrados evolucionan hacia el máximo desorden, que es el estado más probable. En esto consiste la entropía. De modo que un sistema integrado es siempre un "bolsón" de neguentropía en un medio que presiona en sentido contrario. Logra subsistir (cuando lo logra, mientras lo logra) gracias a que es un sistema abierto (selectivamente abierto, o abierto-cerrado, como dijimos en el par grafo 5.4.2.), por lo que absorbe del entorno un constante aporte de energía (alimentos en un ser vivo, nafta, aceite y mantenimiento en un automóvil, energía solar en el sistema ecológico) y de información (el manejo en el automóvil, las sensaciones en un animal, el conocimiento en los sistemas sociales). El hecho es que los sistemas tienden a crecer y a desarrollarse. Cuando el sistema se halla en la etapa de crecimiento posee varios reguladores que impulsan una realimentación positiva. Esto hace que algunas de las magnitudes que en un sistema adulto tienden a permanecer constantes aumenten aceleradamente (la cantidad de células de un organismo, el territorio ocupado por un imperio). Pero, aun en medio de esta tendencia ascendente (que ser limitada en el tiempo), el sistema debe mantener su equilibrio dinámico en torno a una mediana y sin superar los puntos críticos, que van desplazándose en la medida del crecimiento. Así, un sistema en crecimiento necesita más ingresos provenientes del entorno (más alimentos, como lo sabe cualquier padre de un adolescente; materiales, energía e información en el caso de un edificio en construcción; inmigración, trabajo y leyes en un país que se constituye). Pero siempre tendrá límites de absorción que no puede superar sin desorganizarse: la excesiva concentración de ciertas sustancias químicas puede ser tóxica para un organismo biológico, y, en cuanto al equilibrio demográfico de un país, puede señalarse que a veces la diferencia entre inmigración e invasión es meramente cuantitativa, como ocurrió en Texas en el siglo pasado o en los Sudetes en nuestro siglo. Una vez terminado el crecimiento cesa la tendencia hacia la realimentación positiva y la ecuación ingresos-egresos se estabiliza. Mientras el sistema permanezca alejado de los puntos críticos, puede desarrollarse y mantener su funcionalidad en equilibrio dinámico. Pero esto ocurre durante cierto tiempo. Los sistemas se desgastan, envejecen. Esto significa que las bandas dentro de las cuales el equilibrio admite las fluctuaciones se estrechan paulatinamente. Recuperar el equilibrio se hace cada vez más costoso en términos de reservas, y 23 llega el momento en que ingresos que en la etapa de madurez apenas habrían tocado la zona de regulación costosa traspongan sin embargo el punto crítico. Un simple resfrío puede llevar a la muerte a una persona de edad muy avanzada, y una pequeña rebelión puede terminar con un sistema político de muchos años, cuyos mecanismos internos de regulación se han desgastado, relajado o esclerosado. No existe, pues, un momento en que el sistema haya de desaparecer indefectiblemente; pero sus límites de supervivencia se estrechan hasta tal punto que la probabilidad de muerte se torna demasiado alta. Un accidente acaso pequeño hace que el sistema sea alcanzado finalmente por la entropía y se desintegre. Sus componentes se dispersan, adquieren autonomía (caso de los señoríos locales a la caída del imperio romano) o pasan a integrar nuevos sistemas (caso de los elementos químicos provenientes de la descomposición de los cadáveres, que contribuyen a la nutrición de los vegetales). de cosméticos, conocen bien el significado de esta palabra: cada etapa se encadena a las demás de tal suerte que el camino no puede desandarse. Desde la madurez sólo puede llegarse, con mayor o menor rapidez, a la decadencia: nunca regresar a la juventud o etapa de crecimiento. Desde luego, esto no ocurre sólo a hombres, animales y plantas: también sucede con las empresas, los países, las, máquinas de coser y los receptores de televisión. El segundo principio de la termodinámica no perdona a ningún sistema y la entropía acecha a cada instante. El propio crecimiento y la perpetua lucha por mantener el equilibrio requieren un creciente empleo de reservas. No todas las reservas son renovables, y aun las que lo son dependen a su vez de esquemas de variabilidad relativamente rígidos. Así la capacidad de reacción frente a nuevas fluctuaciones va desminuyendo y el, funcionamiento del sistema es inseparable de su paulatina obsolescencia: cada minuto de vida incluye una parcela de muerte. Gráfico 5.11 Evolución de un sistema k) Recapitulación Desde luego, el modelo biológico de crecimiento, adultez y muerte es el más fácil de ejemplificar (por hallarse cercano al paradigma); y su traslado al campo de lo meta viviente se facilita por nuestro hábito de considerar a los grupos sociales como organismos. Pero el esquema es aplicable a otros sistemas. Un edificio, por ejemplo, requiere (como dijimos antes) gran aporte de materia, energía e información durante su "crecimiento". Una vez terminado, comienza a cumplir su finalidad (viviendas, por ejemplo) y su absorción de ingresos se reduce considerablemente: limpieza, pintura de tanto en tanto, reparaciones menores, el cuidado del portero. Pero llega un momento en que las cañerías se corroen, las paredes se resquebrajan, el techo deja filtrar la lluvia y el sótano se inunda cada dos por tres. Las reparaciones se hacen muy costosas y poco a poco dejan de hacerse. El inmueble se torna inhabitable: es abandonado y luego demolido. Sus bloques de mampostería sirven de relleno en terrenos bajos y su portón de hierro, recuperado, repintado y revendido, pasa a adornar la quinta de un ejecutivo en ascenso. Esta secuencia de crecimiento, madurez y decadencia de los sistemas integrados es irreversible. Los seres humanos, pese al empeño de los fabricantes Volvamos ahora, por un momento, a la definición de sistema integrado (parágrafo 4.4.). Dijimos que es "una entidad autónoma, estructurada y con funcionalidad propia para el cumplimiento de sus objetivos, con una frontera que la coloca en relación selectiva con un entorno específico y dotada de estabilidad dinámica dentro de una evolución irreversible". Lo que entonces parecía incomprensible era en verdad un conjunto bastante concentrado de conceptos técnicos. Hemos ido analizando estos conceptos, uno por uno, a lo largo del capitulo; y al cabo de esta tarea, que esperamos no haya sido agotadora, nos hallamos en posesión de los rudimentos de la metodología sistémica: una forma de aproximación a la realidad o conjunto de reglas de modelización que domina crecientemente la ciencia de nuestros días. Cada uno de los elementos de la interpretación sistémica se describe en proposiciones que sólo pueden calificarse de verdaderas (o falsas) por referencia al esquema que las contiene. El esquema mismo no es en sí verdadero ni falso, pero la evolución científica reciente muestra que funciona. Esto de "funcionar" significa que el enfoque sistémico permite interpretar según sus esquemas una gran cantidad y variedad de sectores de la realidad, intercambiar entre ellos algunas conclusiones obtenidas de observaciones sectoriales y manejar los problemas dinámicos y complejos con una eficiencia novedosa. A partir de aquí, los frutos del método dependen del lector y del talento con que el lo aplique a la ciencia o a la técnica de su preferencia. 24 Glosario Autonomía: Capacidad del sistema para adaptarse a las condiciones del entorno, reduciendo o aun suprimiendo temporalmente algunos aspectos de su intercambio con él. Binario: Dícese del sistema numérico de base 2, o que emplea sólo dos dígitos. Bit: Cantidad de información que puede transmitirse mediante un mensaje que tenga dos estados posibles. Es la unidad mínima de la información. Bivalente: Dícese del sistema lógico que comprende dos valores de verdad (verdadero y falso). Byte: Cantidad de información que puede transmitirse mediante un grupo de ocho bits. Canal: Vía o medio físico por el que se traslada la información. Código: Conjunto de reglas que especifican la conversión de símbolos de un sistema de representación a símbolos de otro sistema de representación. Constricción: Reducción, en un código, del número de las señales válidas respecto del número de las señales posibles. Control: Función de un sistema que consiste en la detección de desvíos o perturbaciones con relación a un estado deseado. Crítico (punto): Límite de la magnitud de fluctuación que puede absorber un sistema sin padecer un cambio cualitativo irreversible. Dígito: Cada uno de los caracteres con que en un sistema numérico pueden representarse las cantidades. Egreso: Flujo de materia, energía o información que el sistema emite hacia el entorno. Entorno: Medio externo de un sistema, con el que éste se halla en comunicación e intercambio. Entropía: Medida de progreso de un sistema hacia el estado de desorden máximo. En teoría de la información, incertidumbre. Equilibrio: Estado mecánico de un cuerpo cuando está sometido a dos o más fuerzas que igualan sus acciones y cuya resultante es nula, ya que se destruyen mutuamente. Equilibrio dinámico: Persistencia de la forma, conservación de las estructuras y las funciones de un sistema abierto pese a la continua renovación de los componentes del mismo, resultante del ajuste de las velocidades de dos o más flujos que atraviesan el sistema. Estructura: Orden en que se hallan distribuidos los elementos de un sistema. Conjunto de relaciones entre los elementos de un conjunto. Forma en que las funciones se reparten en el sistema. Feed-back: Ver retroalimentación. Finalidad: Objetivo o meta que el sistema parece perseguir, pese a las modificaciones de su entorno. Fluctuación: Variación en torno al equilibrio. Frontera: Límite que separa el sistema de su entorno. Función: Tipo de actividad que es propia de un sistema o de un elemento de un sistema en relación con los demás. Hardware: Soporte físico de la función informática; máquinas computadoras y aparatos periféricos. Ingreso: Flujo de materia información o energía que un sistema admite desde su entorno. Mecanicismo: Modelo de interpretación de la realidad que tiende a comparar a ésta con una máquina o con un conjunto de máquinas. Memoria: Almacenamiento de información. Mensaje: Conjunto de símbolos que un emisor transmite a un receptor por medio de un canal, de acuerdo con un código común. Neguentropía: Medida de la tendencia de un sistema abierto irreversible hacia un estado de orden o diferenciación creciente. En la materia viva, proceso que conduce a la disminución local y momentánea de la entropía. Entropía negativa. Redundancia: Una parte del contenido de un dato o de un mensaje que puede ser eliminada sin pérdida de información sustancial. Repetición de la misma información dentro de un mensaje. Regulación: Mecanismo de retroalimentaciones compensadas gracias a las cuales un sistema puede mantener su equilibrio dinámico. Reserva: Acumulación de energía, materia o información de uso no inmediato gracias a la cual el sistema puede compensar las variaciones impuestas por el entorno. Retroacción: Realimentación negativa. Retroalimentación: Función de un sistema que utiliza los datos obtenidos de sus egresos para reingresarlos bajo la forma de estímulos. Puede ser positiva o negativa. Ruido: En un canal de comunicaciones, cualquier perturbación en la señal que puede producir alteraciones o interferencias en la comunicación. Servomecanismo: Dispositivo capaz de guiar un sistema hacia un objetivo fijado gracias al empleo de medios de control (generalmente retroalimentaciones de signos opuestos) que corrigen las divergencias a medida que ocurren. Sistema: Unidad en interacción con otras o dentro de la cual se distinguen elementos en interacción. Software: Soporte lógico de la función informática; programación de las computadoras. Soporte: Material sobre el que (o en el cual) pueden representarse y transportarse datos. Variabilidad: Capacidad del sistema para adaptarse a las variaciones del entorno o a las fluctuaciones de su medio interno utilizando para ello su variedad o reservas. Variación: Modificación de las condiciones del entorno. Variedad: Ver reserva. 25 Índice de contenidos NUEVOS ENFOQUES METODOLÓGICOS: ............................................................. 1 CIENCIA, CIBERNÉTICA Y SISTEMA. ...................................................................... 1 5.0. Introducción ......................................................................................................... 1 (presentación de los temas de la unidad) .......................................................... 1 5.1. RESPUESTAS PARA LA CIENCIA DE HOY ...................................................... 1 5.1.1. Las dificultades de la ciencia actual ............................................................. 1 5.1.2. La cibernética ............................................................................................... 2 5.1.3. La teoría general de sistemas ...................................................................... 3 5.1.4. Computación e informática ........................................................................... 3 5.2. COMPUTADORAS, MODELOS E INTELIGENCIA ............................................ 3 5.2. l. Cerebros electrónicos ................................................................................... 3 5.2.2. Brevísima historia de las computadoras ...................................................... 4 5.2.3. El sí y el no ................................................................................................... 4 a) La lógica como esquema binario del razonamiento ...................................... 5 b) El sistema numérico binario ........................................................................... 5 5.2.4. Realidad y modelo ........................................................................................ 6 5.2.5. Inteligencia artificial, inteligencia natural ...................................................... 8 5.2.6. El modelo mecanicista .................................................................................. 9 5.3. LA INFORMACIÓN .............................................................................................. 9 5.3. l. Comunicación, mensaje y codificación ......................................................... 9 a) Variedad y constricción ................................................................................ 10 b) Redundancia ................................................................................................ 11 5.3.2. Información ................................................................................................. 12 5.3.3. Información, energía, entropía ................................................................... 13 5.3.4. Información, informática, cibernética .......................................................... 14 5.4. ALGUNOS CONCEPTOS SISTÉMICOS ......................................................... 14 5.4. l. Sistema ....................................................................................................... 14 5.4.2. Sistemas abiertos y sistemas cerrados ...................................................... 15 5.4.3. Sistemas estáticos y dinámicos.................................................................. 15 5.4.4. Sistemas integrados ................................................................................... 16 a) Autonomía .................................................................................................... 16 b) Estructura y función ..................................................................................... 17 c) Finalidad ....................................................................................................... 17 d) Frontera ........................................................................................................ 18 e) Ingreso, proceso, egreso ............................................................................. 18 f) Entorno .......................................................................................................... 18 g) Equilibrio dinámico ....................................................................................... 19 i) Retroacción y regulación ............................................................................... 21 j) Evolución irreversible .................................................................................... 22 k) Recapitulación .............................................................................................. 23 Glosario ................................................................................................................ 24