Y el tiempo fluye...II

Anuncio
 Y el tiempo fluye...II
J. Rubén G. Cárdenas.
La teoría de relatividad de Einstein, niega el significado absoluto y
universal del momento actual, por lo tanto la abstracción contenida en
la frase ?el tiempo fluye? es definitivamente discutible (Ver: El tiempo
fluye I). Por mera convención, la flecha del tiempo apunta en dirección
al futuro y aunque la recta del tiempo indique una dirección no indica
una velocidad, es como decir que porque una brújula apunte al Norte,
entonces se dirige hacia ahí. Las posibles direcciones del eje temporal,
pasado y futuro, simulan precisamente una antisimetría, no un
movimiento, la flecha del tiempo denota una antisimetría en el tiempo,
no una simetría del o en el tiempo. Es decir, hablar del pasado y del
futuro (en este contexto) tiene tan poco significado como hablar del
arriba o del abajo.
Sin embargo, negar que el tiempo fluya no significa que los conceptos
de ?pasado? y ?futuro? carezcan de fundamento físico. Definitivamente
los hechos cotidianos parecieran llevar una secuencia unidireccional de
la que habla la teoría termodinámica clásica en cuanto a procesos
irreversibles, como que un bañista se arroje desde un trampolín hacia
una alberca ó que una casa con explosivos dentro explote en pedazos;
jamás se ha visto a un bañista salir disparado de la alberca hacia el
trampolín o a una casa reconstruirse a partir de una explosión. Puesto
que la naturaleza presenta muchos casos de procesos irreversibles, la
segunda ley de la termodinámica desempeña un papel importante en
dotar al mundo de una asimetría entre las direcciones del pasado y del
futuro a lo largo del eje del tiempo.
Otro de los aspectos que tienden a crear la impresión de que el tiempo
fluye es la diferencia del pasado y el futuro, para la termodinámica
clásica, esto se explica en términos de entropía. La entropía es una
consecuencia de la segunda ley de la termodinámica y es la medida de
degradación de la energía que tiene un sistema cerrado y que se
incrementa con el tiempo. Podemos pensar en la degradación de la
energía como en la cantidad de energía de la que puede disponer un
sistema, que ya no es la misma después de un cierto tiempo, esto es, ya
no es ?accesible? para el sistema; por esto la entropía es la responsable
de que nuestras células ?envejezcan? y nuestra vida termine.
Generalmente se habla de que la entropía mide el grado de ?desorden?
de un sistema, pero si se piensa así lo que se hace en realidad, es
relacionar al término de ?menos desordenado? con las posibilidades del
sistema a ?acceder? a energía y al término de ?mas desordenado? con
el hecho de que, después de un intervalo de tiempo existe una cantidad
de energía que ya no está disponible para ningún proceso; pero se habla
de energía todo el tiempo.
La termodinámica clásica define muy bien cuales son los sistemas
cerrados y en ellos, no cabe duda, la entropía aumenta. Sin embargo, el
mismo problema puede ser abordado con un enfoque distinto, Ludwig
Boltzmann en el siglo XIX dio una posible explicación de tipo
probabilística; considerando que la entropía aumenta con el tiempo,
existen más probabilidades de que un sistema esté en desorden a que
esté en orden. Si el sistema está mas o menos ordenado ahora
probablemente esté mas desordenado dentro de un instante,
razonamiento que es simétrico en el tiempo: También el sistema era
probablemente mas desordenado hace un instante.
El físico austriaco Ludwig Boltzmann (1844-1906), logró proporcionar
una profunda interpretación a la ley de la degradación de la energía al
hacerse la pregunta de ¿por qué crece la entropía siempre con cada
acontecer espontáneo en la naturaleza? Al vincular la teoría cinética con
la termodinámica, Boltzmann buscó la solución a la pregunta anterior en
el carácter peculiar del calor desde el punto de vista estadístico, como
un efecto, en nuestra escala macroscópica debido al incesante
movimiento molecular presente en la escala microscópica. Sin embargo,
ya James Maxwell había puesto en evidencia que el cálculo permite
asociar a cada estado global del sistema, caracterizado por las
posiciones y velocidades de sus partículas, una cierta y bien definida
probabilidad. Basado en esto, Boltzmann llegó a la conclusión de que la
entropía (S) de un sistema aislado está ligada a la probabilidad (p) de
su estado actual por la relación S ? k log p + C , siendo k y C
constantes. La entropía es, pues, proporcional al logaritmo de la
probabilidad del estado en que el sistema se encuentra, de donde
resulta que la variación de la entropía entre dos estados sucesivos, es
proporcional a la diferencia logarítmica de las probabilidades de estos
dos estados. Como esa diferencia es siempre positiva, dado que la
entropía es una función creciente, se sigue que la probabilidad del
estado posterior debe ser siempre mayor que la del estado anterior. De
este modo, en la perspectiva del teorema de Boltzmann el aumento
ininterrumpido de la entropía pierde su carácter enigmático: traduce el
pasaje del mundo de un estado menos probable a estados cada vez más
probables.
La ciencia apenas se está ocupando de lo que significa el tiempo en
todas sus dimensiones y no es de extrañar que los humanos contemos
con un órgano responsable de que esa sensación sea tan real para cada
uno de nosotros. De cualquier modo el tiempo, como concepto, nos
rebasa en acaecimiento y en imaginación por lo que harán falta debates
aún muy largos casi ?atemporales? sobre su significado.
Bibliografía.
?The Unreality of Time? . John Ellis Mc Taggart. Mind .vol17. 1908.
?Real Time? Gary Stix. Scientific American, Año 1 Num. 5 .Año 2002.
Ver: Sarmiento, Antonio. El fantasma cuyo andar deja huella. La ciencia
para todos 103. Fonde de Cultura Económica 2000,México.
Sarmiento, Antonio. Los disfraces del fantasma que nos horada. La
ciencia desde México 134. FCE 1994.México.
Hacyan, Shahen. Relatividad para principiantes. La ciencia para todos
78. FCE 2002. México.
F.Reif.? Statistical Physics? . Mc Grow Hill. España. 1969.
Descargar