EL BASILISCO, número 10, mayo-octubre 1980, www.fgbueno.es ARTÍCULOS ESTRUCTURAS DISIPATIVAS ALGUNAS NOCIONES BÁSICAS /1 MANtJEL G A R C Í A VELARDE Madrid 1. Introducción os seres vivos, en su diversidad de estructuras, su funcionamiento y cooperación entre ellos dando lugar a un todo complejo pero cuidadosamente regulado, han hecho pensar durante mucho tiempo que formaban un mundo totalmente aparte del inanimado. Esencialmente, las teorías vitaiistas surgieron como un intento de justificar la organización en los seres vivos a través de un etéreo Principio Vital, que singularizaba la mateiria viva frente al resto de la naturaleza. Con la introducción del Segundo Principio de la Termodinámica y las especulaciones de Clausius se reforzó la idea de la existencia de un imaginario «diablillo» (Maxwell, Brillouin, Szilard) que, cuidadosamente, relacionaba y controlaba los distintos componentes del ser vivo a contracorriente de dicho Principio termodinámico. Los progresos hechos en Biología en el siglo X X y en especial el desarrollo de la Biología Molecular han dejado a la filosofía vitalista en el baúl de los recuerdos, reduciendo la vida a la conjunción de numerosos mecanismos fisicoquímicos maravillosamente regulados y sincronizados. Sin embargo, si por una parte la Biología Molecular ha hecho una aportación clave para nuestra comprensión del problema, por otro lado ha planteado nuevas cuestiones que empezamos a poder contestar. Por un lado ya entendemos la compatibilidad, o mejor dicho la ajenidad, de los seres vivos con el Segundo Principio de la Termodinámica y, por otro lado, vamos asimilando el que forma, estructura y organización no son reducibles de forma trivial a las propiedades de los elementos físico-químicos de que se componen los organismos o, en otras palabras, la propiedad de coope- VÍCTOR FAIREN LE LAY Stanford ratividad o sinergismo entre los distintos componentes de un ser vivo no se explica por la simple suma de las propiedades de todas ellas por separado. Curiosamente, esto ya era conocido en algunos aspectos de la Física de lo inanimado (magnetismo, ferroelectricidad, superconductividad, etc.). En efecto, los fenómenos cooperativos no son privativos del mundo vivo, sino que encontramos en la naturaleza inanimada variedad de éstos, todos ellos caracterizados, al igual que ocurre con los seres vivos, por la formación de estructuras ordenadas. La aparición de estas estructuras cubre casi todas las ramas de la Física, extendiéndose también a la Química, tanto orgánica como inorgánica. El progreso hecho en ios últimos años para intentar explicar estos fenómenos ha sido espectacular, hasta el punto que, a medida que avanza la Teoría, va tomando fuerza el sentimiento que estas estructuras ordenadas son la regla más que la excepción. Las características generales de estas estructuras ordenadas son esencialmente las siguientes: se desarrollan muy lejos del equilibrio, es decir, son fenómenos fuertemente irreversibles y, por tanto, fuertemente disipativos (de energía o materia). A causa de esta fuerte disipación, que tienen que compensar para poder mantenerse, estas estructuras sólo aparecen en sistemas que intercambian materia y/o energía con su entorno, es decir, en sistemas abiertos. Evidentemente, la descripción de estas estructuras sale fuera de la forma global del Segundo Principio de la Termodinámica (para sistemas aislados) por lo que la existencia de un «diablillo de Maxwell» es innecesaria. Pero esta evidencia y el entendimiento del segundo principio en su forma local como principio de crecimiento de la entropía han tardado muchos años en imponerse. EL BASILISCO EL BASILISCO, número 10, mayo-octubre 1980, www.fgbueno.es 2. Estructuras Disipativas La formulación clásica del Segundo Principio de la Termodinámica, debida a Glausius, se refiere únicamente a sistemas aislados, es decir, que no intercambian ni materia ni energía con el exterior. Entonces, en presencia de procesos irreversibles en el sistema, la entropía, S, aumenta monótonamente alcanzando un máximo en el equilibrio termodinámico. Para sistemas que están en contacto con una fuente térmica y, según el carácter de esta última, otros potenciales como son las energías libres de Helmholtz, de Gibbs, etc., sustituyen a la entropía. Con la utilización de estos potenciales la Termodinámica y la Mecánica Estadística del equilibrio han permitido explicar tanto las transiciones entre distintas fases «estáticas» de la materia (gas, líquido, sólido, superfluído, superconductor, plasma, etc.) como las propiedades de estructuras ordenadas como son los cristales; un virus inactivo, por ejemplo. Sin embargo cuando un virus «infecta», su comportamiento (como el de cualquier ser «vivo») escapa a dichas teorías. En un sistema abierto el balance de entropía total viene dado como la suma de dos términos: uno es la variación de entropía debida a los intercambios másicos y energéticos del sistema con el exterior, de S, cuyo valor puede ser positivo o negativo y otro que da la variación de entropía debida a los procesos irreversibles que ocurren dentro del sistema, d; s. (dS) total = d e S + d i S Esta suma puede ser negativa o positiva El Segundo Principio de la Termodinámica establece el crecimiento monótono del término d ¡ S, pero sin dar una relación cuantitativa de éste con las magnitudes que caracterizan los distintos procesos irreversibles que tienen lugar en el sistema. Es a partir de los años treinta del siglo X X cuando se ataca el problema de extender la termodinámica a los procesos irreversibles (Onsager). Los primeros avances (ya esbozados por científicos del siglo pasado) se hicieron sobre la base de suponer que en un proceso irreversible nos hallamos en presencia de ciertas «fuerzas» o «causas» como pueden ser (*) .gradientes de temperatura, afinidades químicas, gradientes de presión, gradientes de concentración, potencial químico o electroquímico, etc. En primera aproximación, cada una de estas «fuerzas», hace que el sistema tienda a evolucionar en un sentido único y determinado, de aquí la noción de irreversibilidad. Por ejemplo, si calentamos una barra de hierro por un extremo, el flujo de calor, en primera aproximación, irá siempre del extremo caliente al frío, y sólo podrá hacerlo en sentido contrario si otras «fuerzas» actúan. Debido a las «fuerzas» se establecen unas corrientes o «flujos generalizados» como son el ca(*) «causa» y «efecto» tienen el vago sentido que usamos en la descripción intuitiva de la fenomenología. Si por cualquier medio se crea en un sistema inicialmente isotermo, una distribución no uniforme de temperatura, generamos una corriente calorífica. Hay casos particulares en que el calor puede ir del punto frío al caliente y ello no viola las leyes de la Física. EL BASILISCO lor, los procesos reactivos químicos, la corriente eléctrica, la difusión de materia, etc. En el equilibrio, tanto las fuerzas generalizadas (causas) como sus correspondientes flujos o corrientes (efectos) son nulos. En el equilibrio termodinámico, la entropía, S, es función de los varios parámetros que son necesarios para definir completamente el estado macrocópico del Sistema. La descripción de los procesos irreversibles parte de la hipótesis (hipótesis de Gibbs del equilibrio local) de que fuera del equilibrio las relaciones termodinámicas básicas (primarias) del equilibrio (total) son válidas, bastando tomar cada magnitud por su correspondiente valor por unidad de masa (entropía por unidad de masa, etc.). Al nysmo tiempo, se introce el concepto de producción (local) de entropía, o densidad de producción de entropía, o, tal que diS át I adV volumen Una vez acef)tada la hipótesis del equilibrio local, la producción local de entropía, a, viene dada por <?-SJÍX>O en donde Ji, X; son respectivamente los flujos generalizados y sus correspondientes fuerzas generalizadas. Supongamos de ahora en adelante que mantenemos el sistema continuamente fuera del equilibrio. Se puede demostrar que si nos hallamos en presencia de procesos irreversibles en los que las desviaciones del estado de equilibrio son pequeñas (o más generalmente infinitesimales), entonces el sistema se dirige espontáneamente hacia un estado estacionario (*) de mínima o máxima producción de entropía, es decir de mínima o máxima disipación. Este «Principio», descubierto y utilizado por Korteweg, Lord Reyleigh, Onsage y más espectacularmente por Kubo y Prigogine, juega para los procesos no muy alejados del equilibrio papel análogo al del Segundo Principio en el equilibrio de los sistemas aislados (*). Tal principio responde a nuestra concepción intuitiva, ya deducida por Le Chatelier, Gibbs y Einstein, de que pequeñas perturbaciones en un sistema «estable» tienden a ser amortiguadas en el transcurso del tiempo. Por ello se dice que la producción de entropía es un «potencial» termodinámico fuera del equilibrio. La extensión de tal principio de moderación a los procesos fuertemente disipativos no es válida. En efecto, si nos situamos «suficientemente» lejos del equilibrio y las leyes que rigen el comportamiento del sistema son, por ejemplo, no-lineales, este puede no tender hacia el (*) Estado estacionario es aquél en el que las magnitudes del sistema, salvo la entropía, son constantes en el tiempo. Hay producción no nula de entropía en virtud del segundo principio (se piense o no en un sistema aislado). Cuando la producción de entropía, es decir, la disipación, es nula entonces el estado estacionario es de equilibrio. (*) Obsérvese que el principio de mínima o máxima producción de entropía se aplica a sistemas que se mantienen siempre fuera del equilibrio, que siempre disipan energía y/o materia y que por lo tanto son abiertos absorbiendo energía y materia que compensen las disipadas. Sin embargo, en forma global el Segundo Principio se aplica a sistemas que no pueden compensar la energía y/o materia disipadas y por tanto se ven obligados a alcanzar un estado de equilibrio con disipación nula. EL BASILISCO, número 10, mayo-octubre 1980, www.fgbueno.es estado estacionario de disipación extrema, sino que, como ha podido observarse experimentalmente, cabe se ordene e inhomogeneice espontáneamente (*), estructurándose y diferenciándose en el tiempo y/o en el espacio Contrariamente al equilibrio no cabe predecir unívocamente la nueva estructura, sino que, para distintos modos de operación, o en lenguaje técnico, distintos valores de los parámetros, distintas condiciones iniciales y distintas condiciones de contorno, un mismo sistema puede •adoptar una u otra entre una gran variedad de estructuras distintas, mostrando con ello una cierta flexibilidac de adaptación a las distintas condiciones del medio er que se encuentra. N o estamos, pues, muy lejos de hacer plausible la idea de Darwin de la evolución mediante «selección natural», aunque guárdese el lector de imaginar que la idea de Darwin va más allá de la expresión de una tautología (sobre ello volveremos más adelante al hablar de evolución y estabilidad). Como hemos dicho, estas estructuras sólo aparecen en sistemas muy alejados del equilibrio, por lo que, al ser altamente disipativas, necesitan, para mantenerse, compensar esta disipación con un aporte continuo importante de energía y/o materia desde el exterior. De aquí el calificativo de Estructuras Disipativas introducido en los años sesenta por Prigogine. Tales características de disipación y «alimentación» se simultanean con la condición necesaria pero no suficiente de que algunas de las leyes que gobiernan tales sistemas no sean «lineales». Disipación y no-linealidad . aparecen como condiciones necesarias para el entendimiento de los conceptos de regulación y autoorganización en las estructuras disipativas. Veamos cómo se entienden ambos modos de operación. 3. Regulación Ilustremos el argumento haciendo llamada al fiíncionamiento (para pequeños desplazamientos) de un péndulo o de una cuerda vibrante o, como se usa en Física, de un oscilador armónico. Bien sabido es que este sistema admite un número infinito de soluciones periódicas, todas del mismo período pero de diferente amplitud. Supongamos el sistema en una de esas soluciones. Si damos al sistema una pequeña pertubación, por pequeña que sea, éste pasa a otra solución cercana y permanecerá en ella sin posibilidad de retornar, per se, a. la solución original. Tal comportamiento es intrínseco a los sistemas que en Física se denominan conservativos, de los que, evidentemente, el oscilador armónico forma parte. Conservativos porque existe una magnitud que se conserva a lo largo de cada solución y que es diferente en cada una de ellas (i.e.: la energía total en el caso del oscilador armóni(*) La «espontaneidad» no LO :.mu un eutemismo. La estructuración procede de una transformación en que azar y determinisnao compiten y/o cooperan. Por eso en los sistemas complejos, no es fácil predecir la evolución o el resultado en una transición. Por ello no tenemos más que comparar las predicciones de los líderes políticos o los pronósticos de encuestas antes de elecciones con los resultados de las mismas. De hecho el abstencionismo es un voto cuando hay partidos disciplinarios en liza o el uso monocolor de la televisión son mecanismos fuertemente «reguladores» del resultado electoral, eliminando su «esponta neidad». 10 co). Si perturbamos el oscilador, le añadimos o restamos energía, con lo que pasa a una solución de energía total diferente (amplitud máxima diferente) de lo que no se moverá espontáneamente por sí solo. Junto a los sistemas conservativos hallamos los sistemas disipativos. Un buen ejemplo es el péndulo moviéndose en un líquido viscoso y que es caso particular del oscilador armónico amortiguado en el que para cualesquiera pequeñas perturbaciones del estado de reposo, el sistema tarde o temprano (asintóticamente) volverá a él. En estos sistemas aparentemente no hay magnitud alguna que se conserve en el transcurso del tiempo. En el oscilador armónico amortiguado hay una pérdida continua de energía disipada por rozamiento (del péndulo con el líquido en cuestión) y se dice que el estado de reposo es estable-(al menos frente a pequeñas perturbaciones). Al hacer esta separación entre sistemas conservativos y disipativos, y como puede verse en el ejemplo discutido, se hace implícitamente una distinción entre lo que se llama estabilidad marginal y estabilidad asintótica. En el caso de sistemas conservativos el sistema, después de una perturbación, no trata de restituir el estado original, aunque permanece cerca de él. Hablaremos de estabilidad marginal. Sin embargo, en el caso de sistemas disipativos el sistema actúa «como si» se opusiese a un intento de desplazarlo del estado en donde está. En otras palabras, en el segundo caso el sistema contiene propiedades reguladoras que no tiene el primero. Hablaremos de estabilidad asintótica. Los sistemas físicos en general, incluyéndose en este término los sistemas químicos, biológicos, etc., deben tener para su relativa independencia frente a perturbaciones exteriores estados o regímenes con estabihdad asintótica. En caso contrario el estado en que se encontrasen dependería siempre de pequeñas perturbaciones exteriores, siempre existentes, variando continuamente con éstas. Además de esta propiedad todo sistema deberá ser, en cierta manera, algo independiente de pequeños cambios en las leyes que lo gobiernan. Es decir, su comportamiento no debe variar profundamente con pequeñas variaciones de las leyes (o función) por las que se rige. A esta propiedad se la denomina Estabilidad Estructural. Puede verse que los sistemas conservativos no la poseen (tal es la situación de toda la mecánica de Newton, no disipativa), contrariamente a los sistemas disipativos. Es por las consideraciones anteriores que en la disipación, es decir, en la irreversibilidad, en el alejamiento del equilibrio, en el «desequilibrio», está la clave de la evolución y asimismo de la estabilidad no sólo del mundo biológico sino del mundo físicoquímico en general. 4. Autxx>rganización Supongamos el siguiente esquema (que visualizamos en la figura 1): A un sistema que llamaremos X y cuya naturaleza no viene al caso precisar, se le acopla un «sistema de control» que actúa según un cierto prograEl. BASILISCO EL BASILISCO, número 10, mayo-octubre 1980, www.fgbueno.es F . 5 A V ^ ^ X i - ^ La forma más simple de las ecuaciones que relacionan las respuestas «y» con las instrucciones «F» en los sistemas cuya estructura es la descrita en la figura 1, en el caso en que la respuesta del sistema sea inmediata es 1 dy -=Ay -f B(F)y + C(F) (1) dt Figura 1. Regulación ejfterna. A: sistema de control; X: sistema; R: retroacción. ma. El sistema de control envía una cierta «instrucción», F, dependiente de una señal de entrada Yi. El sistema X actúa en consecuencia, obteniéndose una señal de salida que, por retroacción, se convierte a su vez en señal de entrada, siendo procesada por el sistema de control que envía otra vez al sistema X una nueva instrucción en consecuencia. Si el sistema X no tiene ninguna organización propia, asistiremos en el esquema anterior a la aparición de un comportamiento organizado en él, impuesto por el sistema de control y que desaparece en ausencia de éste último. En cierta manera podemos hablar de una organización del sistema desde el exterior, organización que es inherente al sistema de control. Así si el sistema X fuese un péndulo descrito por la ecuación del oscilador armónico amortiguado, sea el sistema de control un mecanismo que proporciona impulsos constantes a razón de uno por oscilación. En la Figura 2 se representa en el plano velocidad - posición la trayectoria seguida por el péndulo. en donde B(F) y C(F) son «magnitudes» que se anulan en el caso en que F se anule. En este último caso A es tal que el sistema tiende hacia el estado y = o, es decir, en ausencia del sistema de control, o en caso de desconexión de éste, la organización del sistema desaparece. Es también importante resaltar que la ecuación anterior es lineal en las respuestas aunque también pudiera ocurrir que no fuese lineal. Supongamos ahora que el sistema de control no es ajeno al sistema X, sino que les es inherente. En este caso el control lo realiza el propio sistema X, y el proceso de organización se transforma en autoorganización. Tal sistema viene esquematizado en la figura 3. 5 r-^ X R Figura 3. Autoorganización. X: sistema; R: retroacción. En la descripción de la autoorganización, al ser el propio sistema el que se controla, las instrucciones vienen dadas por los mismos valores de las respuestas «y». A la vista de esto, si consideramos la ecuación (1), las instrucciones «F» serán funciones de las respuestas «y», y por lo tanto la ecuación (1) se transformará en relación no-lineal en «y». Así se dice que la autoorganización exige leyes no-lineales. Figura 2. Oscilación mantenida desde fuera. V: velocidad; P: posición. Empezando en el punto A, la trayectoria es la espiral logarítmica, AMB. En el punto B el mecanismo de control (cuerda del reloj) le cede un impulso BA que, compensada la energía disipada por rozamiento, cierra la trayectoria dando lugar a un movimiento periódico. Si inicialmente la amplitud de oscilación es mayor (menor) ésta disminuirá (aumentará) hasta que el impulso cedido compense la energía disipada. En caso de ausencia del ritmo de control el péndulo mantendría su movimiento oscilatorio amortiguado hasta llegar a la posición de reposo. EL BASILISCO Un buen ejemplo de sistema autoorganizado es el llamado oscilador (no lineal) de Van der Pol, para el que el coeficiente de rozamiento depende de la amplitud de oscilación de tal manera que, cuando ésta es menor que la unidad, el oscilador está amplificado y absorbe energía, y cuando es mayor que la unidad está amortiguado y disipa energía. El balance total absorción-disipación durante un período es nulo, con lo que el sistema empieza a oscilar espontáneamente, sosteniéndose y estabilizándose estas oscilaciones por un continuo balance entre absorción y disipación de energía. Tal oscilador procede del estudio de circuitos electrotécnicos y ha sido por muchos años el paradigma en la teoría matemática de los fenómenos no lineales. A medida que aumentamos la variedad de componentes o de elementos que posean una función especializada, aumentamos la complejidad del sistema. Pasamos II EL BASILISCO, número 10, mayo-octubre 1980, www.fgbueno.es de un sistema de gran simplicidad estructural como el oscilador de Van der Pol a sistemas tan complejos como pueden ser una sociedad o un ecosistema. En estos sistemas complejos los elementos característicos están organizados en una jerarquía de niveles de autoorganización (por ejemplo, célula, órgano, organismo, sociedad, etc.). A medida que vamos recorriendo esta jerarquía, tanto los elementos de cada nivel como los distintos niveles, están ligados entre sí por interacciones no-lineales. Además, cada elemento constitutivo de un nivel de complejidad es de por sí un sistema abierto que está en relación permanente con su entorno, intercambiando energía, materia e información, utilizados en el mantenimiento de la organización para contrarestar la degradación que ejerce el tiempo. Figura 5: Retroacción positiva. X: magnitud del problema; T: tiempo; I; situación inicial; C: crecimiento; D: caída. El estado final corresponde al valor infinito del tiempo. ENT. SAL. Figura 4. Retroalimentación. A: sistema abierto; E: entorno; Ent.: entradas; Sal.: salidas. En cada uno de estos niveles de autoorganización el autocontrol del sistema se ejerce a través de uno o varios bucles retroactivos (Feedbacks), en cada uno de los cuales Jas «respuestas» (salida) del sistema se convierten en «instrucciones» (entrada). Si estas «instrucciones» favorecen o activan el sistema para producir respuestas en el mismo sentido que las anteriores, nos encontraremos ante una retroacción positiva (positive Feedback). Si las «instrucciones» tienen un efecto inhibitorio, estaremos ante el caso de una retroacción negativa (Negative Feedback). En el primer caso los efectos son acumulativos, resultando un crecimiento o decrecimiento exponencial: reacción en cadena, crecimiento demográfico, etc. Al contrario, la retroacción negativa tiene un efecto esencialmente correctivo, de mantenimiento de un cierto statu quo. En el oscilador de Van der Pol encontramos un caso de retroacción negativa, que lo mantiene oscilando con un balance total absorción-disipación nulo. En un sistema autoorganizado intervienen un cierto número de bucles de retroacción, tanto positivos como negativos, siendo la labor de los segundos moderadora de la tendencia de los primeros a hacer crecer o decrecer alguna magnitud del sistema. Como resultado de ello el sistema se estabiliza en un cierto estado compatible con su entorno. Sin embargo, esta situación no tiene por qué ser definitiva. En efecto, un mismo sistema puede tener acceso a muchos estados diferentes compatibles con un 12 Figura 6. Retroacción negativa, X: magnitud del problema; T: tiempo; I; situaciones iniciales. El estado final corresponde al valor infinito del tiempo. mismo entorno (en valor medio), siendo el mecanismo de paso de un estado a otro mediante las fluctuaciones, tanto internas (en el sistema) como externas (en el entorno), existentes en todo sistema natural. Un estado es estable frente a fluctuaciones de un cierto tamaño máximo. Por debajo de este tamaño la fluctuación decrece y el sistema se reincorpora al estado original, pero si alguna sobrepasase este tamaño máximo (crítico) el efecto es contrario: las retroacciones positivas amplifican la fluctuación hasta que el efecto de las retroacciones negativas estabiliza el sistema en otro estado diferente al estado de partida. A esta posibilidad de varios estados accesibles para un entorno determinado tenemos que añadir la existencia de una infinidad de estados a través de los cuales el sistema se adapta a la gran variedad de modificaciones del entorno. Así, cabe pensar que cuanto más complejo es un sistema, tanto mayor es el número de posibilidaddes de adaptación a los cambios del entorno. Por esta razón, EL BASILISCO EL BASILISCO, número 10, mayo-octubre 1980, www.fgbueno.es como generadora de variedad, la comf>ie)idad es en cierta manera un certificado de garantía en contra de la inadaptación frente a situaciones de cambio rápido. En ecología, es la gran variedad de especies y de interacciones entre éstas lo que asegura la supervivencia del medio. La destrucción de especies, y no nos faltan ejemplos a nuestro alrededor, es una fuente permanente de desequilibrios. La misma situación parece existir en la sociedad humana donde quizá la pluralidad de ideas y la riqueza de interacciones entre individuos proporcionan una mejora en las posibilidades de respuesta del colectivo frente a situaciones nuevas. 5. El orden biológico Un ser vivo es, termodinámicamente, un sistema abierto (intercambia materia y energía con el exterior) y, al mismo tiempo, fuertemente disipativo, es decir, degrada la energía y materia que absorbe con producción de calor a través de procesos fuertemente irreversibles y, por lo tanto, muy alejados del equilibrio termodinámico. Al mismo tiempo, estructuralmente, es algo más que la simple suma de sus partes constitutivas. Esta diferencia (fenómeno de sinergesis o como se dice en Física, cooperatividad) es la autoorganización, que diferencia a la calidad de la cantidad. La autoorganización conlleva una jerarquía de estructuras o niveles de funcionamiento que va desde la célula hasta las sociedades y los ecosistemas, pasando por los organismos, y que se mantienen gracias a mecanismos intrínsecos de control. En definitiva, cabe decir que los seres vivos no son sino eslabones de una jerarquía de «Estructuras Disipativas». N o obstante, aunque conceptualmente cabe admitir que las cosas se entiendan tal como las hemos descrito anteriormente, el problema práctico del entendimiento de procesos biológicos concretos es un poco más delicado. En efecto, una dificultad aparece en el estudio de los seres vivos, así como en cualquier sistema altamente complejo (sistemas económicos, etc.). Es la dificultad de identificar las variables o las leyes relevantes de funcionamiento del sistema y en la abstracción, en el estudio de un nivel estructural de la jerarquía, de este nivel como unidad del nivel superior. una satisfactoria primera aproximación a los gases reales, pero un conjunto de robinsones no cabe imaginarlo como una primera aproximación a una sociedad. Nótese cuan importantes pueden ser los cambios psíquicos, y como consecuencia algunos fisiológicos, en un individuo por una simple comunicación verbal con otro. La energía de interacción es pequeñísima y, sin embargo, la influencia no es despreciable. En otro orden de cosas podríamos citar casos más concretos como pueden ser: el hecho de que el campo gravitatorio controla los intercambios calcicos en el organismo; que la ausencia de campo magnético terrestre provoca molestias mórbidas; las perturbaciones cardiovasculares provocadas por la actividad solar, etc. (ejemplos significativos podrían también encontrarse para sistemas económicos o sociológicos). En definitiva, la definición del sistema y de sus leyes de funcionamiento en biología (economía, sociología) es tarea más ardua de lo que podría pensarse. Además, toda esta jerarquía evoluciona, cambia de estructuras simples a estructuras cada vez más complejas; o simplemente, de una estructura a otra. Una fluctuación nace, las retroacciones positivas la amplifican y el sistema se estabiliza en otro nivel organizativo gracias a las retroacciones negativas. ¿Sería localizable en esta pirámide el origen de esta fluctuación?. Más bien parece que la respuesta es negativa. En un sistema complejo, ante tai número de conexiones, relaciones, interdependencias, el deseo de modelización con su inevitable carga de simplificación, induciéndonos a ponderar tal interacción más o menos, eliminando otras cuya importancia se nos escapa, puede llevar a conclusiones, que por su deseo simplificador, se revelan totalmente erróneas. Sin embargo, estas observaciones no deben en ningún modo restar validez conceptual a la teoría física que hemos expuesto y que proviene del análisis de ejemplos sencillos, sino que deben hacer extraer como conclusión que, debido a la complejidad de los fenómenos biológicos, conviene hacer su estudio pausadamente, a base de esclarecer casos concretos y funciones particulares con modelos simplificados, de los que podemos luego inferir leyes más generales. El viejo reduccionismo, ingenuamente aplicado, no vale hoy; se precisa afinar algo más; pero los reduccionistas, aún a pesar del dogmatismo de algunos, fueron iluminándonos en el arduo camino de la conquista científica de la naturaleza. Sobre estas cuestiones, ilustradas con ejemplos y algún que otro desarrollo formal, volveremos en artículos próximos. La física se basa en.la definición de unidades estadísticas relacionadas por interacciones. En su deseo de simplificación reduce distintos conjuntos de estas unidades, aislándolos. Esta abstracción es perfectamente realizable al poderse definir un recinto a través del cual los intercambios energéticos de interacción son despreciables. Referencias generales de interés En lo que respecta a la biología (podíamos decir lo mismo en lo que respecta a, por ejemplo, la economía, sociología, etc.) esta sistemática es imposible, incluso aunque las interacciones sean, en apariencia, muy débiles. La influencia puede ser tal que es imposible mirar realmente como independientes elementos de un sistema que físicamente parecen estarlo. Un gas perfecto es un sistema de elementos sin interacción y es, sin embargo. 4) J. de Rosnay, El Microscopio (trad.), AC. Madrid, 1977. EL BASILISCO 1) H. Haken, Synergetic, Springer-Verkg, New York, 1978. 2) G. Nicolis e I. Prigogine, Self-Organization in Nonequilihrium Systems, Wiley-Interscience, New York, 1977. 3) I. Prigogine, Introducción a la termodinámica de los procesos irreversibles, Selecciones Científicas, Madrid, 1974. 5) M.G. Velarde y A.L. Kawczynskii, Rivista del Nuevo Cimento, a aparecer en 1980. 6) I. PRIGOGINE e I. STENGERS, La Nouvelle AUiance (Métamorphose de la sciencie), Editions Gallimard, París. 7) I. PRIGOGINE e I. STENGERS: 1979, La Nouvelle Alliance (Métamorphose de la science). Editions Gallimard, París. 13