ESTRUCTURAS DISIPATIVAS

Anuncio
EL BASILISCO, número 10, mayo-octubre 1980, www.fgbueno.es
ARTÍCULOS
ESTRUCTURAS
DISIPATIVAS
ALGUNAS NOCIONES BÁSICAS /1
MANtJEL G A R C Í A
VELARDE
Madrid
1. Introducción
os seres vivos, en su diversidad de estructuras, su funcionamiento y cooperación entre ellos dando lugar a un todo
complejo pero cuidadosamente regulado,
han hecho pensar durante mucho tiempo
que formaban un mundo totalmente
aparte del inanimado. Esencialmente, las
teorías vitaiistas surgieron como un intento de justificar
la organización en los seres vivos a través de un etéreo
Principio Vital, que singularizaba la mateiria viva frente al
resto de la naturaleza. Con la introducción del Segundo
Principio de la Termodinámica y las especulaciones de
Clausius se reforzó la idea de la existencia de un imaginario «diablillo» (Maxwell, Brillouin, Szilard) que, cuidadosamente, relacionaba y controlaba los distintos componentes del ser vivo a contracorriente de dicho Principio
termodinámico. Los progresos hechos en Biología en el
siglo X X y en especial el desarrollo de la Biología Molecular han dejado a la filosofía vitalista en el baúl de los
recuerdos, reduciendo la vida a la conjunción de numerosos mecanismos fisicoquímicos maravillosamente regulados y sincronizados. Sin embargo, si por una parte la
Biología Molecular ha hecho una aportación clave para
nuestra comprensión del problema, por otro lado ha
planteado nuevas cuestiones que empezamos a poder
contestar. Por un lado ya entendemos la compatibilidad,
o mejor dicho la ajenidad, de los seres vivos con el Segundo Principio de la Termodinámica y, por otro lado,
vamos asimilando el que forma, estructura y organización
no son reducibles de forma trivial a las propiedades de
los elementos físico-químicos de que se componen los
organismos o, en otras palabras, la propiedad de coope-
VÍCTOR FAIREN LE LAY
Stanford
ratividad o sinergismo entre los distintos componentes
de un ser vivo no se explica por la simple suma de las
propiedades de todas ellas por separado. Curiosamente,
esto ya era conocido en algunos aspectos de la Física de
lo inanimado (magnetismo, ferroelectricidad, superconductividad, etc.).
En efecto, los fenómenos cooperativos no son privativos
del mundo vivo, sino que encontramos en la naturaleza
inanimada variedad de éstos, todos ellos caracterizados,
al igual que ocurre con los seres vivos, por la formación
de estructuras ordenadas. La aparición de estas estructuras cubre casi todas las ramas de la Física, extendiéndose
también a la Química, tanto orgánica como inorgánica. El
progreso hecho en ios últimos años para intentar explicar
estos fenómenos ha sido espectacular, hasta el punto
que, a medida que avanza la Teoría, va tomando fuerza
el sentimiento que estas estructuras ordenadas son la
regla más que la excepción.
Las características generales de estas estructuras ordenadas son esencialmente las siguientes: se desarrollan
muy lejos del equilibrio, es decir, son fenómenos fuertemente irreversibles y, por tanto, fuertemente disipativos
(de energía o materia). A causa de esta fuerte disipación,
que tienen que compensar para poder mantenerse, estas
estructuras sólo aparecen en sistemas que intercambian
materia y/o energía con su entorno, es decir, en sistemas
abiertos. Evidentemente, la descripción de estas estructuras sale fuera de la forma global del Segundo Principio de
la Termodinámica (para sistemas aislados) por lo que la
existencia de un «diablillo de Maxwell» es innecesaria.
Pero esta evidencia y el entendimiento del segundo
principio en su forma local como principio de crecimiento
de la entropía han tardado muchos años en imponerse.
EL BASILISCO
EL BASILISCO, número 10, mayo-octubre 1980, www.fgbueno.es
2. Estructuras Disipativas
La formulación clásica del Segundo Principio de la
Termodinámica, debida a Glausius, se refiere únicamente
a sistemas aislados, es decir, que no intercambian ni materia ni energía con el exterior. Entonces, en presencia
de procesos irreversibles en el sistema, la entropía, S,
aumenta monótonamente alcanzando un máximo en el
equilibrio termodinámico. Para sistemas que están en
contacto con una fuente térmica y, según el carácter de
esta última, otros potenciales como son las energías libres de Helmholtz, de Gibbs, etc., sustituyen a la entropía. Con la utilización de estos potenciales la Termodinámica y la Mecánica Estadística del equilibrio han permitido explicar tanto las transiciones entre distintas fases
«estáticas» de la materia (gas, líquido, sólido, superfluído, superconductor, plasma, etc.) como las propiedades
de estructuras ordenadas como son los cristales; un virus
inactivo, por ejemplo. Sin embargo cuando un virus «infecta», su comportamiento (como el de cualquier ser «vivo») escapa a dichas teorías.
En un sistema abierto el balance de entropía total
viene dado como la suma de dos términos: uno es la variación de entropía debida a los intercambios másicos y
energéticos del sistema con el exterior, de S, cuyo valor
puede ser positivo o negativo y otro que da la variación
de entropía debida a los procesos irreversibles que ocurren dentro del sistema, d; s.
(dS) total = d e S + d i S
Esta suma puede ser negativa o positiva
El Segundo Principio de la Termodinámica establece
el crecimiento monótono del término d ¡ S, pero sin dar
una relación cuantitativa de éste con las magnitudes que
caracterizan los distintos procesos irreversibles que tienen lugar en el sistema. Es a partir de los años treinta
del siglo X X cuando se ataca el problema de extender la
termodinámica a los procesos irreversibles (Onsager).
Los primeros avances (ya esbozados por científicos
del siglo pasado) se hicieron sobre la base de suponer
que en un proceso irreversible nos hallamos en presencia
de ciertas «fuerzas» o «causas» como pueden ser (*)
.gradientes de temperatura, afinidades químicas, gradientes de presión, gradientes de concentración, potencial
químico o electroquímico, etc. En primera aproximación,
cada una de estas «fuerzas», hace que el sistema tienda a
evolucionar en un sentido único y determinado, de aquí
la noción de irreversibilidad. Por ejemplo, si calentamos
una barra de hierro por un extremo, el flujo de calor, en
primera aproximación, irá siempre del extremo caliente
al frío, y sólo podrá hacerlo en sentido contrario si otras
«fuerzas» actúan. Debido a las «fuerzas» se establecen
unas corrientes o «flujos generalizados» como son el ca(*) «causa» y «efecto» tienen el vago sentido que usamos en la descripción intuitiva de la fenomenología. Si por cualquier medio se crea
en un sistema inicialmente isotermo, una distribución no uniforme de
temperatura, generamos una corriente calorífica. Hay casos particulares
en que el calor puede ir del punto frío al caliente y ello no viola las leyes de la Física.
EL BASILISCO
lor, los procesos reactivos químicos, la corriente eléctrica, la difusión de materia, etc. En el equilibrio, tanto
las fuerzas generalizadas (causas) como sus correspondientes flujos o corrientes (efectos) son nulos.
En el equilibrio termodinámico, la entropía, S, es
función de los varios parámetros que son necesarios para
definir completamente el estado macrocópico del Sistema. La descripción de los procesos irreversibles parte de
la hipótesis (hipótesis de Gibbs del equilibrio local) de
que fuera del equilibrio las relaciones termodinámicas
básicas (primarias) del equilibrio (total) son válidas, bastando tomar cada magnitud por su correspondiente valor
por unidad de masa (entropía por unidad de masa, etc.).
Al nysmo tiempo, se introce el concepto de producción
(local) de entropía, o densidad de producción de entropía, o, tal que
diS
át
I
adV
volumen
Una vez acef)tada la hipótesis del equilibrio local, la producción local de entropía, a, viene dada por
<?-SJÍX>O
en donde Ji, X; son respectivamente los flujos generalizados y sus correspondientes fuerzas generalizadas.
Supongamos de ahora en adelante que mantenemos el sistema
continuamente fuera del equilibrio. Se puede demostrar
que si nos hallamos en presencia de procesos irreversibles en los que las desviaciones del estado de equilibrio
son pequeñas (o más generalmente infinitesimales),
entonces el sistema se dirige espontáneamente hacia un
estado estacionario (*) de mínima o máxima producción
de entropía, es decir de mínima o máxima disipación.
Este «Principio», descubierto y utilizado por Korteweg,
Lord Reyleigh, Onsage y más espectacularmente por Kubo y Prigogine, juega para los procesos no muy alejados
del equilibrio papel análogo al del Segundo Principio en
el equilibrio de los sistemas aislados (*). Tal principio
responde a nuestra concepción intuitiva, ya deducida por
Le Chatelier, Gibbs y Einstein, de que pequeñas perturbaciones en un sistema «estable» tienden a ser amortiguadas en el transcurso del tiempo. Por ello se dice que
la producción de entropía es un «potencial» termodinámico fuera del equilibrio.
La extensión de tal principio de moderación a los
procesos fuertemente disipativos no es válida. En efecto,
si nos situamos «suficientemente» lejos del equilibrio y
las leyes que rigen el comportamiento del sistema son,
por ejemplo, no-lineales, este puede no tender hacia el
(*) Estado estacionario es aquél en el que las magnitudes del sistema,
salvo la entropía, son constantes en el tiempo. Hay producción no nula
de entropía en virtud del segundo principio (se piense o no en un
sistema aislado). Cuando la producción de entropía, es decir, la disipación, es nula entonces el estado estacionario es de equilibrio.
(*) Obsérvese que el principio de mínima o máxima producción de
entropía se aplica a sistemas que se mantienen siempre fuera del equilibrio, que siempre disipan energía y/o materia y que por lo tanto son
abiertos absorbiendo energía y materia que compensen las disipadas.
Sin embargo, en forma global el Segundo Principio se aplica a sistemas
que no pueden compensar la energía y/o materia disipadas y por tanto
se ven obligados a alcanzar un estado de equilibrio con disipación nula.
EL BASILISCO, número 10, mayo-octubre 1980, www.fgbueno.es
estado estacionario de disipación extrema, sino que,
como ha podido observarse experimentalmente, cabe se
ordene e inhomogeneice espontáneamente (*), estructurándose y diferenciándose en el tiempo y/o en el espacio
Contrariamente al equilibrio no cabe predecir unívocamente la nueva estructura, sino que, para distintos modos de operación, o en lenguaje técnico, distintos valores
de los parámetros, distintas condiciones iniciales y distintas condiciones de contorno, un mismo sistema puede
•adoptar una u otra entre una gran variedad de estructuras distintas, mostrando con ello una cierta flexibilidac
de adaptación a las distintas condiciones del medio er
que se encuentra. N o estamos, pues, muy lejos de hacer
plausible la idea de Darwin de la evolución mediante
«selección natural», aunque guárdese el lector de imaginar que la idea de Darwin va más allá de la expresión de
una tautología (sobre ello volveremos más adelante al hablar de evolución y estabilidad).
Como hemos dicho, estas estructuras sólo aparecen
en sistemas muy alejados del equilibrio, por lo que, al
ser altamente disipativas, necesitan, para mantenerse,
compensar esta disipación con un aporte continuo
importante de energía y/o materia desde el exterior. De
aquí el calificativo de Estructuras Disipativas introducido
en los años sesenta por Prigogine. Tales características
de disipación y «alimentación» se simultanean con la
condición necesaria pero no suficiente de que algunas de
las leyes que gobiernan tales sistemas no sean «lineales».
Disipación y no-linealidad . aparecen como condiciones
necesarias para el entendimiento de los conceptos de regulación y autoorganización en las estructuras disipativas.
Veamos cómo se entienden ambos modos de operación.
3. Regulación
Ilustremos el argumento haciendo llamada al fiíncionamiento (para pequeños desplazamientos) de un péndulo o de una cuerda vibrante o, como se usa en Física, de
un oscilador armónico. Bien sabido es que este sistema
admite un número infinito de soluciones periódicas,
todas del mismo período pero de diferente amplitud. Supongamos el sistema en una de esas soluciones. Si damos
al sistema una pequeña pertubación, por pequeña que
sea, éste pasa a otra solución cercana y permanecerá en
ella sin posibilidad de retornar, per se, a. la solución original. Tal comportamiento es intrínseco a los sistemas que
en Física se denominan conservativos, de los que, evidentemente, el oscilador armónico forma parte. Conservativos porque existe una magnitud que se conserva a lo
largo de cada solución y que es diferente en cada una de
ellas (i.e.: la energía total en el caso del oscilador armóni(*) La «espontaneidad» no LO :.mu un eutemismo. La estructuración
procede de una transformación en que azar y determinisnao compiten
y/o cooperan. Por eso en los sistemas complejos, no es fácil predecir la
evolución o el resultado en una transición. Por ello no tenemos más
que comparar las predicciones de los líderes políticos o los pronósticos
de encuestas antes de elecciones con los resultados de las mismas. De
hecho el abstencionismo es un voto cuando hay partidos disciplinarios
en liza o el uso monocolor de la televisión son mecanismos fuertemente «reguladores» del resultado electoral, eliminando su «esponta
neidad».
10
co). Si perturbamos el oscilador, le añadimos o restamos
energía, con lo que pasa a una solución de energía total
diferente (amplitud máxima diferente) de lo que no se
moverá espontáneamente por sí solo.
Junto a los sistemas conservativos hallamos los sistemas disipativos. Un buen ejemplo es el péndulo moviéndose en un líquido viscoso y que es caso particular del
oscilador armónico amortiguado en el que para cualesquiera pequeñas perturbaciones del estado de reposo, el
sistema tarde o temprano (asintóticamente) volverá a él.
En estos sistemas aparentemente no hay magnitud alguna
que se conserve en el transcurso del tiempo. En el oscilador armónico amortiguado hay una pérdida continua de
energía disipada por rozamiento (del péndulo con el líquido en cuestión) y se dice que el estado de reposo es
estable-(al menos frente a pequeñas perturbaciones).
Al hacer esta separación entre sistemas conservativos y disipativos, y como puede verse en el ejemplo
discutido, se hace implícitamente una distinción entre lo
que se llama estabilidad marginal y estabilidad asintótica.
En el caso de sistemas conservativos el sistema, después
de una perturbación, no trata de restituir el estado original, aunque permanece cerca de él. Hablaremos de estabilidad marginal. Sin embargo, en el caso de sistemas
disipativos el sistema actúa «como si» se opusiese a un
intento de desplazarlo del estado en donde está. En otras
palabras, en el segundo caso el sistema contiene propiedades reguladoras que no tiene el primero. Hablaremos de
estabilidad asintótica.
Los sistemas físicos en general, incluyéndose en este
término los sistemas químicos, biológicos, etc., deben
tener para su relativa independencia frente a perturbaciones exteriores estados o regímenes con estabihdad
asintótica. En caso contrario el estado en que se encontrasen dependería siempre de pequeñas perturbaciones
exteriores, siempre existentes, variando continuamente
con éstas.
Además de esta propiedad todo sistema deberá ser,
en cierta manera, algo independiente de pequeños cambios en las leyes que lo gobiernan. Es decir, su comportamiento no debe variar profundamente con pequeñas
variaciones de las leyes (o función) por las que se rige. A
esta propiedad se la denomina Estabilidad Estructural.
Puede verse que los sistemas conservativos no la poseen
(tal es la situación de toda la mecánica de Newton, no
disipativa), contrariamente a los sistemas disipativos.
Es por las consideraciones anteriores que en la disipación, es decir, en la irreversibilidad, en el alejamiento
del equilibrio, en el «desequilibrio», está la clave de la
evolución y asimismo de la estabilidad no sólo del mundo biológico sino del mundo físicoquímico en general.
4. Autxx>rganización
Supongamos el siguiente esquema (que visualizamos
en la figura 1): A un sistema que llamaremos X y cuya
naturaleza no viene al caso precisar, se le acopla un
«sistema de control» que actúa según un cierto prograEl. BASILISCO
EL BASILISCO, número 10, mayo-octubre 1980, www.fgbueno.es
F .
5
A
V
^
^
X
i
-
^
La forma más simple de las ecuaciones que relacionan las
respuestas «y» con las instrucciones «F» en los sistemas
cuya estructura es la descrita en la figura 1, en el caso en
que la respuesta del sistema sea inmediata es
1
dy
-=Ay -f B(F)y + C(F)
(1)
dt
Figura 1. Regulación ejfterna. A: sistema de control; X: sistema; R: retroacción.
ma. El sistema de control envía una cierta «instrucción»,
F, dependiente de una señal de entrada Yi. El sistema X
actúa en consecuencia, obteniéndose una señal de salida
que, por retroacción, se convierte a su vez en señal de
entrada, siendo procesada por el sistema de control que
envía otra vez al sistema X una nueva instrucción en
consecuencia. Si el sistema X no tiene ninguna organización propia, asistiremos en el esquema anterior a la aparición de un comportamiento organizado en él, impuesto
por el sistema de control y que desaparece en ausencia
de éste último. En cierta manera podemos hablar de una organización del sistema desde el exterior, organización que es
inherente al sistema de control.
Así si el sistema X fuese un péndulo descrito por la
ecuación del oscilador armónico amortiguado, sea el sistema de control un mecanismo que proporciona impulsos constantes a razón de uno por oscilación. En la Figura 2 se representa en el plano velocidad - posición la
trayectoria seguida por el péndulo.
en donde B(F) y C(F) son «magnitudes» que se anulan
en el caso en que F se anule. En este último caso A es
tal que el sistema tiende hacia el estado y = o, es decir,
en ausencia del sistema de control, o en caso de desconexión de éste, la organización del sistema desaparece. Es
también importante resaltar que la ecuación anterior es
lineal en las respuestas aunque también pudiera ocurrir
que no fuese lineal.
Supongamos ahora que el sistema de control no es ajeno al sistema X, sino que les es inherente.
En este caso el control lo realiza el propio sistema X, y
el proceso de organización se transforma en autoorganización. Tal sistema viene esquematizado en la figura 3.
5
r-^
X
R
Figura 3. Autoorganización. X: sistema; R: retroacción.
En la descripción de la autoorganización, al ser el
propio sistema el que se controla, las instrucciones vienen dadas por los mismos valores de las respuestas «y».
A la vista de esto, si consideramos la ecuación (1), las
instrucciones «F» serán funciones de las respuestas «y»,
y por lo tanto la ecuación (1) se transformará en relación
no-lineal en «y». Así se dice que la autoorganización exige
leyes no-lineales.
Figura 2. Oscilación mantenida desde fuera. V: velocidad; P: posición.
Empezando en el punto A, la trayectoria es la espiral logarítmica, AMB. En el punto B el mecanismo de
control (cuerda del reloj) le cede un impulso BA que,
compensada la energía disipada por rozamiento, cierra la
trayectoria dando lugar a un movimiento periódico. Si
inicialmente la amplitud de oscilación es mayor (menor)
ésta disminuirá (aumentará) hasta que el impulso cedido
compense la energía disipada. En caso de ausencia del
ritmo de control el péndulo mantendría su movimiento
oscilatorio amortiguado hasta llegar a la posición de reposo.
EL BASILISCO
Un buen ejemplo de sistema autoorganizado es el
llamado oscilador (no lineal) de Van der Pol, para el que
el coeficiente de rozamiento depende de la amplitud de
oscilación de tal manera que, cuando ésta es menor que
la unidad, el oscilador está amplificado y absorbe
energía, y cuando es mayor que la unidad está amortiguado y disipa energía. El balance total absorción-disipación durante un período es nulo, con lo que el sistema
empieza a oscilar espontáneamente, sosteniéndose y estabilizándose estas oscilaciones por un continuo balance
entre absorción y disipación de energía. Tal oscilador
procede del estudio de circuitos electrotécnicos y ha sido
por muchos años el paradigma en la teoría matemática
de los fenómenos no lineales.
A medida que aumentamos la variedad de componentes o de elementos que posean una función especializada, aumentamos la complejidad del sistema. Pasamos
II
EL BASILISCO, número 10, mayo-octubre 1980, www.fgbueno.es
de un sistema de gran simplicidad estructural como el
oscilador de Van der Pol a sistemas tan complejos como
pueden ser una sociedad o un ecosistema. En estos sistemas complejos los elementos característicos están organizados en una jerarquía de niveles de autoorganización
(por ejemplo, célula, órgano, organismo, sociedad, etc.).
A medida que vamos recorriendo esta jerarquía, tanto
los elementos de cada nivel como los distintos niveles,
están ligados entre sí por interacciones no-lineales. Además, cada elemento constitutivo de un nivel de complejidad es de por sí un sistema abierto que está en relación
permanente con su entorno, intercambiando energía, materia e información, utilizados en el mantenimiento de la
organización para contrarestar la degradación que ejerce
el tiempo.
Figura 5: Retroacción positiva. X: magnitud del problema; T: tiempo;
I; situación inicial; C: crecimiento; D: caída. El estado final corresponde al valor infinito del tiempo.
ENT.
SAL.
Figura 4. Retroalimentación. A: sistema abierto; E: entorno; Ent.: entradas; Sal.: salidas.
En cada uno de estos niveles de autoorganización el
autocontrol del sistema se ejerce a través de uno o varios bucles retroactivos (Feedbacks), en cada uno de los
cuales Jas «respuestas» (salida) del sistema se convierten
en «instrucciones» (entrada). Si estas «instrucciones» favorecen o activan el sistema para producir respuestas en
el mismo sentido que las anteriores, nos encontraremos
ante una retroacción positiva (positive Feedback). Si las
«instrucciones» tienen un efecto inhibitorio, estaremos
ante el caso de una retroacción negativa (Negative
Feedback). En el primer caso los efectos son acumulativos, resultando un crecimiento o decrecimiento exponencial: reacción en cadena, crecimiento demográfico,
etc. Al contrario, la retroacción negativa tiene un efecto
esencialmente correctivo, de mantenimiento de un cierto
statu quo. En el oscilador de Van der Pol encontramos
un caso de retroacción negativa, que lo mantiene oscilando con un balance total absorción-disipación nulo.
En un sistema autoorganizado intervienen un cierto
número de bucles de retroacción, tanto positivos como
negativos, siendo la labor de los segundos moderadora
de la tendencia de los primeros a hacer crecer o decrecer
alguna magnitud del sistema. Como resultado de ello el
sistema se estabiliza en un cierto estado compatible con
su entorno. Sin embargo, esta situación no tiene por qué
ser definitiva. En efecto, un mismo sistema puede tener
acceso a muchos estados diferentes compatibles con un
12
Figura 6. Retroacción negativa, X: magnitud del problema; T: tiempo;
I; situaciones iniciales. El estado final corresponde al valor infinito del
tiempo.
mismo entorno (en valor medio), siendo el mecanismo
de paso de un estado a otro mediante las fluctuaciones,
tanto internas (en el sistema) como externas (en el entorno), existentes en todo sistema natural. Un estado es estable frente a fluctuaciones de un cierto tamaño máximo.
Por debajo de este tamaño la fluctuación decrece y el
sistema se reincorpora al estado original, pero si alguna
sobrepasase este tamaño máximo (crítico) el efecto es
contrario: las retroacciones positivas amplifican la fluctuación hasta que el efecto de las retroacciones negativas
estabiliza el sistema en otro estado diferente al estado de
partida. A esta posibilidad de varios estados accesibles
para un entorno determinado tenemos que añadir la
existencia de una infinidad de estados a través de los
cuales el sistema se adapta a la gran variedad de modificaciones del entorno.
Así, cabe pensar que cuanto más complejo es un sistema, tanto mayor es el número de posibilidaddes de
adaptación a los cambios del entorno. Por esta razón,
EL BASILISCO
EL BASILISCO, número 10, mayo-octubre 1980, www.fgbueno.es
como generadora de variedad, la comf>ie)idad es en
cierta manera un certificado de garantía en contra de la
inadaptación frente a situaciones de cambio rápido. En
ecología, es la gran variedad de especies y de interacciones entre éstas lo que asegura la supervivencia del medio. La destrucción de especies, y no nos faltan ejemplos
a nuestro alrededor, es una fuente permanente de desequilibrios. La misma situación parece existir en la sociedad humana donde quizá la pluralidad de ideas y la
riqueza de interacciones entre individuos proporcionan
una mejora en las posibilidades de respuesta del colectivo
frente a situaciones nuevas.
5. El orden biológico
Un ser vivo es, termodinámicamente, un sistema
abierto (intercambia materia y energía con el exterior) y,
al mismo tiempo, fuertemente disipativo, es decir, degrada la energía y materia que absorbe con producción de
calor a través de procesos fuertemente irreversibles y,
por lo tanto, muy alejados del equilibrio termodinámico.
Al mismo tiempo, estructuralmente, es algo más que la
simple suma de sus partes constitutivas. Esta diferencia
(fenómeno de sinergesis o como se dice en Física, cooperatividad) es la autoorganización, que diferencia a la
calidad de la cantidad.
La autoorganización conlleva una jerarquía de estructuras o niveles de funcionamiento que va desde la
célula hasta las sociedades y los ecosistemas, pasando por
los organismos, y que se mantienen gracias a mecanismos
intrínsecos de control. En definitiva, cabe decir que los
seres vivos no son sino eslabones de una jerarquía de
«Estructuras Disipativas».
N o obstante, aunque conceptualmente cabe admitir
que las cosas se entiendan tal como las hemos descrito
anteriormente, el problema práctico del entendimiento
de procesos biológicos concretos es un poco más delicado. En efecto, una dificultad aparece en el estudio de los
seres vivos, así como en cualquier sistema altamente
complejo (sistemas económicos, etc.). Es la dificultad de
identificar las variables o las leyes relevantes de funcionamiento del sistema y en la abstracción, en el estudio
de un nivel estructural de la jerarquía, de este nivel
como unidad del nivel superior.
una satisfactoria primera aproximación a los gases reales,
pero un conjunto de robinsones no cabe imaginarlo
como una primera aproximación a una sociedad. Nótese
cuan importantes pueden ser los cambios psíquicos, y
como consecuencia algunos fisiológicos, en un individuo
por una simple comunicación verbal con otro. La energía
de interacción es pequeñísima y, sin embargo, la influencia no es despreciable. En otro orden de cosas podríamos citar casos más concretos como pueden ser: el
hecho de que el campo gravitatorio controla los intercambios calcicos en el organismo; que la ausencia de
campo magnético terrestre provoca molestias mórbidas;
las perturbaciones cardiovasculares provocadas por la actividad solar, etc. (ejemplos significativos podrían también encontrarse para sistemas económicos o sociológicos). En definitiva, la definición del sistema y de sus leyes de funcionamiento en biología (economía, sociología)
es tarea más ardua de lo que podría pensarse.
Además, toda esta jerarquía evoluciona, cambia de
estructuras simples a estructuras cada vez más complejas;
o simplemente, de una estructura a otra. Una fluctuación
nace, las retroacciones positivas la amplifican y el sistema
se estabiliza en otro nivel organizativo gracias a las retroacciones negativas. ¿Sería localizable en esta pirámide
el origen de esta fluctuación?. Más bien parece que la
respuesta es negativa. En un sistema complejo, ante tai
número de conexiones, relaciones, interdependencias, el
deseo de modelización con su inevitable carga de simplificación, induciéndonos a ponderar tal interacción más o
menos, eliminando otras cuya importancia se nos escapa,
puede llevar a conclusiones, que por su deseo simplificador, se revelan totalmente erróneas.
Sin embargo, estas observaciones no deben en ningún modo restar validez conceptual a la teoría física que
hemos expuesto y que proviene del análisis de ejemplos
sencillos, sino que deben hacer extraer como conclusión
que, debido a la complejidad de los fenómenos biológicos, conviene hacer su estudio pausadamente, a base de
esclarecer casos concretos y funciones particulares con
modelos simplificados, de los que podemos luego inferir
leyes más generales. El viejo reduccionismo, ingenuamente aplicado, no vale hoy; se precisa afinar algo más;
pero los reduccionistas, aún a pesar del dogmatismo de
algunos, fueron iluminándonos en el arduo camino de la
conquista científica de la naturaleza. Sobre estas cuestiones, ilustradas con ejemplos y algún que otro desarrollo
formal, volveremos en artículos próximos.
La física se basa en.la definición de unidades estadísticas relacionadas por interacciones. En su deseo de
simplificación reduce distintos conjuntos de estas unidades, aislándolos. Esta abstracción es perfectamente
realizable al poderse definir un recinto a través del cual
los intercambios energéticos de interacción son despreciables.
Referencias generales de interés
En lo que respecta a la biología (podíamos decir lo
mismo en lo que respecta a, por ejemplo, la economía,
sociología, etc.) esta sistemática es imposible, incluso
aunque las interacciones sean, en apariencia, muy débiles. La influencia puede ser tal que es imposible mirar
realmente como independientes elementos de un sistema
que físicamente parecen estarlo. Un gas perfecto es un
sistema de elementos sin interacción y es, sin embargo.
4) J. de Rosnay, El Microscopio (trad.), AC. Madrid, 1977.
EL BASILISCO
1) H. Haken, Synergetic, Springer-Verkg, New York, 1978.
2) G. Nicolis e I. Prigogine, Self-Organization in Nonequilihrium Systems, Wiley-Interscience, New York, 1977.
3) I. Prigogine, Introducción a la termodinámica de los procesos irreversibles, Selecciones Científicas, Madrid, 1974.
5) M.G. Velarde y A.L. Kawczynskii, Rivista del Nuevo Cimento, a
aparecer en 1980.
6) I. PRIGOGINE e I. STENGERS, La Nouvelle AUiance (Métamorphose de la sciencie), Editions Gallimard, París.
7) I. PRIGOGINE e I. STENGERS: 1979, La Nouvelle Alliance
(Métamorphose de la science). Editions Gallimard, París.
13
Descargar