Si
grabamos durante cinco segundos un péndulo oscilando y luego le
enseñamos a alguien el vídeo hacia atrás, desde el final hasta el
principio, ese alguien no se daría cuenta de que hemos invertido el
sentido del tiempo. Pero si grabamos el péndulo durante dos minutos,
la cosa cambia. Al ver la película del derecho, observamos como el
péndulo, poco a poco, pierde velocidad hasta quedarse parado por
completo. Sin embargo, si lo viéramos empezando por el final, como
rebobinando la grabación, nos daríamos fácilmente cuenta del truco
al ver a un péndulo parado que poco a poco coge velocidad. La
mayoría de las cosas en la vida son como la grabación de los dos
minutos: es elemental saber si estamos viendo algo que sucede hacia
"delante" en el tiempo (del pasado al futuro) o si, por el
contrario, estamos viendo el proceso de rebobinado (algo
transcurriendo del futuro hacia el pasado). Por ejemplo, un vaso se
cae de la mesa y se rompe en pedacitos de cristal. Algo que todo el
mundo ha observado alguna vez. Lo que nadie jamás ha visto (y de
haber alguien, nadie le creería, pobre) es que los trozos de vidrio
se recompongan ellos solos y el vaso, regenerado, brinque de nuevo a
la mesa. Sin embargo, como veremos, esto no violaría ninguna ley
fundamental de la naturaleza. La energía (esa cosa que se conserva)
no tendría porque escandalizarse en ese proceso, porque los
fragmentos de cristal podrían coger la energía necesaria para su
recomposición y salto de la agitación térmica de los millones de
partículas de aire de los alrededores.
Estos
no son sino ejemplos de una (aparente) obviedad: que el pasado y el
futuro están claramente diferenciados porque hay procesos (¡la
mayoría!) que transcurren en el sentido pasado-futuro, pero que
jamás esperaríamos ver ocurriendo en el sentido futuro-pasado. Si
bien esto puede parecer trivial (el pasado es lo que está "antes"
que mi presente, y el futuro es lo que viene "después" que
éste, ¿de verdad hace falta darle más vueltas al asunto?), es
necesario/interesante entender cómo casa esta diferencia entre
pasado y futuro con las leyes de la física, que son las herramientas
que tenemos para estudiar y comprender la naturaleza a su nivel más
fundamental. Éste fue un problema al que dedicaron esfuerzo varios
físicos del siglo XIX de los que pronto hablaremos. Por entonces ya
era bien sabido que las leyes de Newton son las leyes fundamentales
que dictan la manera en que los cuerpos se mueven por el espacio y a
lo largo del tiempo cuando unas condiciones iniciales de posición y
velocidad han sido dadas. No hay ningún ingrediente adicional que se
necesite para determinar la evolución de un sistema a través de las
leyes de Newton. Estas leyes poseen una propiedad interesante, y es
que les dan básicamente igual el pasado y el futuro. Todo lo que
hace falta para poner en marcha la maquinaria newtoniana es una serie
de posiciones y velocidades iniciales de los objetos que conforman el
sistema a estudiar; dado eso y la suficiente potencia de cálculo
(¡como la del demonio de Laplace del que hablábamos en la entrada
sobre Determinismo!), la aplicación de la manivela matemática da la
evolución en el tiempo de las posiciones de los objetos estudiados.
Pero esto tiene una consecuencia inmediata, y es que cualquier
proceso (en este contexto, “proceso” significa “evolución de
las posiciones de los objetos”) que yo pueda observar ocurriendo
desde el pasado hacia el futuro también puede ser observado
ocurriendo desde el futuro hacia el pasado...¡lo único que hace
falta es encontrar las condiciones iniciales adecuadas! Esto es lo
que técnicamente en física se denomina "simetría bajo
inversión temporal". Sin embargo, si yo abro un frasco de
perfume, las moléculas tienden a esparcirse por la habitación, lo
que rápidamente se nota en el olor, pero nunca esperaría que las
moléculas del perfume volviesen espontáneamente al frasco. Esto es
lo que se conoce como "irreversibilidad" (hay procesos que
ocurren "hacia delante en el tiempo" y que no pueden ser
revertidos). Con este simple experimento mental advertimos que en
nuestra cotidianidad experimentamos una fuerte asimetría
pasado/futuro, lo cual, según lo dicho, no queda explicado por las
leyes de Newton. ¿Cómo es posible? Tanto la simetría temporal como
la irreversibilidad son verdades que entendemos bien y que cuentan
con una evidencia abrumadora. Pero, ¿Cómo pueden ser ambas verdad
al mismo tiempo? Así formulada la pregunta, esto es básicamente lo
que se conoce como paradoja de Loschmidt, enuncida en 1876 por el
físico del mismo nombre. Loschmidt trataba de desafiar los
argumentos que mostraban cómo la irreversibilidad emergía a partir
de las leyes microscópicas.
A lo
largo del siglo XIX se había desarrollado la rama de la física
conocida como Termodinámica, que estudia conceptos como el calor, el
trabajo, las máquinas térmicas, los cuerpos en equilibrio y sus
funciones de estado, etc. La Física Estadística, que con
herramientas de las matemáticas de la teoría de probabilidad
estudiaba conjuntos de muchas partículas, fue desarrollada a lo
largo de las décadas de los 50, 60 y 70 del mismo siglo por físicos
como Maxwell, Boltzmann o Gibbs, que pudieron probar cómo los
resultados de carácter fenomenológico de la termodinámica emergían
de las leyes microscópicas bien conocidas a través de un riguroso
análisis estadístico. Por entonces, la teoría atomística era algo
muy discutido y muchos lo consideraban una tesis filosófica que, si
bien útil, era contrafáctica y no corroborable y que, por
consiguiente, caía fuera del dominio de la investigación
científica. Este debate no fue realmente concluido hasta los
trabajos sobre movimiento browniano de Eistein y Perrin a principios
del siglo XX, pero con anterioridad ya en el contexto de la Física
Estadística se habían logrado grandes conquistas (explicativas, por
lo menos) para la teoría atomística. Una de ellas fue la
interpretación microscópica de Boltzmann de la noción de entropía.
La famosa entropía, lejos de enunciarse en términos de “desorden”
como modernamente se suele hacer, había sido introducida por
Clausius al estudiar la eficiencia de máquinas térmicas (tan de
moda en los años de la Revolución Industrial, por supuesto). La
entropía de Clausius es, básicamente, la magnitud que mide, dada
una diferencia de temperatura entre dos cuerpos, la máxima
eficiencia (entendida como la relación entre energía aprovechada
para realizar un trabajo y la cantidad total de energía inicialmente
recibida) a la que se puede aspirar en un ciclo térmico. Esta máxima
eficiencia corresponde al caso ideal (reversible) conocido como Ciclo
de Carnot, y es una cota superior para cualquier eficiencia que uno
pueda pretender alcanzar en el diseño de cualquier máquina térmica.
Uno de los grandes triunfos de Boltzmann y de la recién nacida
Física Estadística fue, como comentábamos, lograr dar una
definición equivalente a la de Clausius de este concepto en términos
de los átomos. Simplificando un poco, podemos decir que la entropía
según Boltzmann se define como una medida (logarítmica) del número
total de estados posibles en que los átomos de un cuerpo pueden
estar cuando fijamos ciertas restricciones (la temperatura, la
presión, el volumen,...). Es aquí donde se conecta la noción de
entropía con el concepto de desorden.
Más
allá de eso, Boltzmann logró dar una interpretación microscópica
del así llamado Segundo Principio de la Termodinámica. En Física
ya se sabía bien por entonces dos cosas muy importantes: que la
energía se conserva (esto se llama Primer Principio de la
Termodinámica) y que cuando ponemos dos cuerpos a distinta
temperatura en contacto, el calor fluye del caliente al frío hasta
que ambas temperaturas se igualan (llegando así a lo que se conoce
como equilibrio
termodinámico).
El Segundo Principio añade algo nuevo y muy importante para las
oficinas de patentes, siempre hastiadas con los esfuerzos de
cantidades ingentes de personas por patentar máquinas de movimiento
perpetuo (máquinas que procuran energía constantemente y que nunca
se paran) que, por supuesto, siempre fracasaban. En términos de los
conceptos de eficiencia y entropía de Clausius que hemos visto
antes, el Segundo Principio establece que la eficiencia del Ciclo de
Carnot (ese proceso ideal y reservible que siempre va a ser mejor que
cualquier otro que podamos realizar en la experiencia) no es el 100%.
Esa eficiencia depende de la diferencia de temperatura entre las
partes de nuestra máquina, cierto, pero nunca llegará a ser
perfecta (en la ficción matemática de que una de las partes se
calentara hasta el infinito, sí que se llegaría a una eficiencia
del 100% en la máquina de Carnot, pero creo que entonces es
razonable sospechar que nos cargaríamos varias partes importantes de
las piezas concretas que usáramos para realizar materialmente
nuestra máquina térmica... :-) ). De manera equivalente, esto se
puede enunciar como que es imposible tomar calor de una fuente y
convertirlo completamente en trabajo útil (¡esto es lo que quiere
decir que la eficiencia no sea del 100%!). La versión microscópica
de Bolztmann de este hecho, en el contexto de la Teoría Cinética de
los Gases (la combinación de la Teoría Atomística y la Física
Estadística), es la prueba matemática de que su particular versión
del concepto de entropía es una cantidad que nunca disminuye a lo
largo de la evolución en el tiempo de un sistema físico. Puesto que
se trataba de un problema en que uno lidiaba con una cantidad brutal
de partículas (números de Avogadro... ¡imaginemos un uno seguido
de veintitres o veinticuatro ceros!), la aplicación sistemática de
las ecuaciones de Newton no era una estrategia realista (incluso los
superordenadores punteros de la NASA de hoy en día están
inimaginablemente lejos de poder vérselas con una cantidad tal de
ecuaciones acopladas). Las elegantes herramientas a las que
recurrieron los físicos estadísticos fueron las distribuciones de
probabilidad y otras armas de la Teoría de Probabilidad, que si bien
por entonces no era en absoluto una rama rigurosa de la Matemática,
ya había desarrollado un gran poder. En efecto, para averiguar y
codificar las propiedades interesantes de un gas de trillones de
trillones de partículas, no hace falta seguirle la pista a cada una
de las partículas, sino que basta una información precisa sobre,
por ejemplo, “cómo de probable es encontrar una partícula en tal
sitio, moviéndose a tal velocidad, en tal instante”. Cuando
estudiamos un gas, nos interesarán cosas como su temperatura, cómo
oscila su energía, la presión que ejerce en cierta zona, a que
ritmo se expande o se contrae,..., pero para todas esas cosas,
conviene insistir, no es necesario tener toda la información sobre
cada partícula, sino que basta un conocimiento más sutil que
sintetiza e integra todos esos detalles. Eso es justamente lo que
hace una función de distribución de probabilidad. Eso es uno de los
aspectos claves de la física de los sistemas complejos. No es sólo
una cuestión de encontrar métodos aproximados que nos permitan
entender el problema (que, por supuesto, es la motivación más
importante), sino también una cuestión de elegancia (¿por qué dar
la información de un sistema en un archivo de millones de páginas,
en donde es un sufrimiento encontrar patrones, cuando en dos páginas
podemos contener toda la información relevante relacionada con lo
que vamos a observar en la experiencia?).
Aún
así, las distribuciones de probabilidad se cimentaban, por supuesto,
en las leyes de Newton (más adelante en las leyes de la cuántica,
claro está). Lo que trata de hacer uno con una distribución de
probabilidad de posiciones y velocidades en un sistema como un gas es
resumir la información contenida en todas las ecuaciones del
movimiento, y las leyes para la evolución de esa distribución de
probabilidad emerge por supuesto de las mismas leyes de Newton.
Lo
que Boltzmann probó, con todas estas herramientas, es que la
entropía, que en el caso más general se define a través de una
ecuación matemática en términos de la distribución de
probabilidad que describe el sistema bajo estudio, nunca disminuye a
lo largo de la evolución de un sistema. Ya sea en la imagen de
Clausius o en la de Boltzmann, el resultado es el mismo: la entropía
nunca disminuye. Los casos en que se mantenga constante son los que
llamamos “reversibles” (por ejemplo, esto es lo que localmente
parece ser la dinámica del péndulo durante cortos periodos de
tiempo), mientras que los casos en que aumenta son los irreversibles
(como las moléculas saliendo del perfume), en que el sistema
evoluciona hacia macroestados con muchos más microestados accesibles
(expresado en términos boltzmannianos).
Es
en este punto donde volvemos hacer contacto con la paradoja de
Loschmidt. Boltzmann había probado por entonces su famoso “Teorema
H”, en que prueba la desigualdad para la cantidad H que,
resumiendo, es una versión de la noción entropía . Lo que se
preguntó Loschmidt era algo muy sencillo e inquietante. Si las leyes
fundamentales que rigen el movimiento de los átomos son simétricas
bajo inversión temporal (como ya explicamos más arriba), ¿cómo es
posible que razonando a partir de ellas se llegue a un hecho que
introduce una clara asimetría pasado/futuro? No es un problema
trivial en absoluto y provocó mucha discusión en torno a la
interpretación correcta del significado del Segundo Principio. Entre
veinte y treinta años después, los trabajos de Poincaré y
Carathéodory aumentaron los problemas para el Segundo Principio. Un
teorema matemático de la mecánica teórica (obra de estos dos
matemáticos mencionados) mostraba que dada una colección de
partículas en un recinto acotado con ciertas posiciones y ciertas
velocidades, si se deja pasar el suficiente tiempo siempre se
observará a las partículas -su evolución gobernada por las leyes
de Newton- volver a la configuración inicial con aquellas ciertas
posiciones y velocidades. ¡Esto parece un disparate! Este resultado
parece decir que si abro un frasco de perfume y las partículas
empiezan a dispersarse, después de esperar el suficiente tiempo veré
a las partículas del perfume metiéndose de nuevo hacia el frasco.
Bueno, no sólo parece decir eso, ¡sino que el teorema dice
exáctamente eso! ¿No es esto una violación flagrante del Segundo
Principio? La clave está, por supuesto, en la condición “después
de suficiente tiempo”.
Lo
que ocurre es que la mayor parte del tiempo, efectivamente,
observaremos un incremento de la entropía, pero hay veces, muy de
cuando en cuando, en que ocurren procesos que efectivamente
contradicen lo que el Segundo Principio parece decir. Esto no es nada
nuevo, pues ya Maxwell y Boltzmann advirtieron en su momento de que
el Segundo Principio es un hecho estadístico, y no una ley absoluta.
“Que la segunda ley sea verdad es... algo estadístico, no una
verdad matemática,[...], Así, la Segunda Ley de la Termodinamica es
continuamente violada”, escribía Maxwell en un artículo para
Nature
(Nature
17, 278 (1878) )
, mientras que Boltzmann, [Re-joinder to the Heat Theoretical
Considerations of Mr E. Zermelo (1896)], decía “ tan pronto como
uno mire a cuerpos de una dimensión suficientemente pequeña,
conteniendo sólo unas pocas moléculas, la validez de este teorema
[la segunda ley] ha de cesar” (las traducciones son mías). El
Segundo Principio, entendido como un enunciado estadístico (que es,
en verdad, la única manera correcta de entenderlo), no presenta
contradicción alguna con el resultado de Poincaré y Carathéodory
sobre la recurrencia de los sistemas mecánicos. En efecto, por
grande que sea un sistema, después de trillones de años uno
observaría todo tipo de eventos improbables, pero la clave es que el
tiempo que uno pasa “viendo a la entropía decrecer” es siempre
una proporción de tiempo diminuta al lado del tiempo total que duran
los procesos.
El
concepto de entropía ha resultado ubicuo en la física y también
fuera de ella. De una forma similar al Principio de Mínima Acción,
se ha convertido en una noción unificadora que aparece detrás de
una gran diversidad de leyes y fenómenos distintos. Por ejemplo, la
utilidad de la entropía surge de manera natural al estudiar cómo se
distribuyen los salarios en una sociedad (hay todo un campo moderno
llamado thermodynamics
of economics),
cómo fluctúa un gas en torno a su situación de equilibrio, y un
largo etcétera. En general, la entropía aparece siempre que uno se
enfrenta a un problema en que la probabilidad y/o la evolución en el
tiempo de sistemas complejos juega un papel. En mi opinió (y tengo
la impresión de que no es muy compartida por la mayoría de los
físicos, pero en fin :-) ) la maneras más esclarecedora y
pedagógica de entender esta universalidad es a través de la
identificación de la entropía con la información. Claude Shannon
introdujo la entropía en Teoría de la Información en el año 1948,
mucho después de los trabajos de Maxwell y Boltzmann. En realidad,
Shannon dudó fuertemente la conveniencia del nombre, aunque al final
John Von Neumann (uno de los mayores genios científicos de la
historia; responsable a su vez de extender el concepto de entropía a
la mecánica cuántica...!) le convenció de ello1.
[desde
aquí hasta el siguiente corchete se puede omitir; es más técnico]
Creo
que merece la pena introducir un poco de razonamiento matemático en
este punto para entender de qué manera se motiva la forma concreta
de lo que podríamos llamar “función información”. Hay pocos
conceptos matemáticos no enteramente elementales que, siendo tan
sencillos, sean tan importantes y universalmente útiles. La idea
básica es que nosotros querríamos tener una funnción matemática,
llamemosla I, que nos dijera cuánta información contiene un evento,
y queremos hacer esto -en principio- de la manera más sencilla
posible. La manera en que comenzamos es poniendo ciertas
restricciones “obvias” sobre la función I. Estas restricciones,
que se pueden pensar como axiomas, no son sino traducciones a
lenguaje matemático de ciertas intuiciones elementales que tenemos
sobre qué quiere decir la información. Para empezar, asumimos que
la información es una función exclusivamente de la probabilidad,
pero hay otras dos cosas fundamentales que vamos a suponer. Por un
lado, parece obvio asumir que si un evento A es más probable que B,
entonces el hecho de que A ocurra aporta menos información que B (no
me sorprenderé por cruzarme cada mañana con mi vecino, pero si un
día al salir de mi portal me cruzo con un policía, me sorprenderé
un poco y sacaré de ello alguna clase de información). Esto lo que
escribimos diciendo que, si prob(A) > prob(B), entonces I(A) <
I(B). Por otra parte, si A y B son dos sucesos independientes, es
lógico asumir que la información que recibo cuando ocurren A y B a
la vez es la suma de las informaciones. Por ejmplo, si A es “cae un
meteorito en París” y B es “me toca la lotería”, la
información que recibo cuando ambos ocurren es la suma de las
informaciones. La probabilidad de dos sucesos independientes es
simplemente el producto de las probabilidades; es decir, prob(A y
B)=prob(A)prob(B), y estamos exigiendo que I(A y B)=I(A)+I(B). Si
juntamos estas dos cosas, 1) la información decrece al aumentar la
probabilidad y 2) La función información transforma productos en
sumas, un teorema matemático permite demostrar que lo único que
puede ser la información... ¡es menos el logaritmo de la
probabilidad! Es decir, llegamos al resultado de que
I(A)=-log(prob(A)). Por supuesto, sería posible poner muchas pegas a
esta motivación: para empezar, es muy discutible que una
codificación cuantitativa de la información necesariamente sea
función exclusiva de la probabilidad y, además, suponer que siempre
podemos asignar probabilidades a todos los eventos concebibles de
manera significativa es algo filosóficamente problemático y se sale
del marco de la teoría formal de las probabilidades. Pero partiendo
del hecho de que queremos
hacer
una tal codificación cuantitativa (nos hace ilusión, oye), esto es
una manera simple y eficaz de conseguir una que funciona bastante
bien para muchas cosas (como Shannon comprobó) y que respeta ciertas
intuciones que tenemos sobre lo que es la información. Ahora que
tenemos nuestra función información, pensemos que tenemos una serie
de n eventos, A1,A2,A3,....,An, que pueden ocurrir (esto puede ser lo
que sea; resultados de la quiniela, el número de días que va a
llover en junio en Singapur,...., lo que sea!). Cada uno de estos
eventos tiene una probabilidad que denotaremos con la letra p y el
correspondiente subíndice; es decir, p1=prob(A1),
p2=prob(A2),...,pn=prob(An). La función información del j-ésimo
evento, Aj, es entonces simplemente I(Aj)=-log pj. Bien, visto esto
(ánimo, lo más difícil está ya hecho (-: ), la entropía que
definió Shannon es simplemente el promedio de la función
información. Es decir, la entropía, S, es simplemente la respuesta
cuantitativa a la pregunta “Si puede ocurrir tal evento y tal otro,
¿cuánta información puedo esperar recibir en promedio?”.
Matemáticamente esto entonces no es más que:
S=
-p1*log(p1)-p2*log(p2)-...-pn*log(pn)
(el *
denota multiplicación).
¡Y
esto sin más es ya la entropía de Shannon!. Esta entropía no es
matemáticamente lo mismo que la entropía estadística de Boltzmann,
que da una medida de cuántos microestados tiene un sistema
compatibles con un cierto macroestado descrito por diversas funciones
de estado (en el caso más simple, la energía, pero pueden usarse
otras). Sin embargo, es claro que existe una relación muy estrecha
este ambas. En particular, si buscamos, en un sistema con una energía
fija, que distribución de probabilidad da la máxima entropía, el
cálculo de la entropía de Shannon coincide con el cálculo de la
entropía de Boltzmann
[fin
de la parte técnica]
Aunque
no se hayan seguido todos los detalles técnicos de esta explicación,
lo importante es mantener en mente que: 1) Hemos hecho una serie de
asunciones sobre propiedades básicas que debe cumplir una función
que codifique cuantitativamente el significado de lo que es
“información”; y 2) Hemos derivado, usando tales asunciones y
matemáticas elementales, la forma matemática precisa de nuestra
función información. Si se quiere, se puede pensar en esto como un
modelo matemático de lo que es la información. Este modelo es muy
simple pero, sin embargo, resulta tremendamente útil. Cualquier
persona es bienvenida a tratar de elaborar modelos más complejos de
la información,... pero no será tarea fácil encontrar algo que
siendo tan simple pueda ser tan universalmente aplicable.
Esta
función S, el promedio de la información, está asociada a la
distribución de probabilidad del espacio de eventos que estemos
estudiando. Dadas las probabilidades, hay un camino directo para
calcular S. Pero, ¿podemos hacer de alguna manera el camino inverso?
¿Qué cosas puedo deducir de las probabilidades de mi sistema de
estudio si yo partiera de conocer la información promedio? Muy a
menudo ocurre que uno tiene una estimación razonable de ciertas
magnitudes, como la media, o la desviación de la media, pero no
tiene ni idea de cómo es la ley probabilística subyacente. Una
receta bien sencilla y en principio muy lógica para dar como
candidata una cierta distribución de probabilides (aquellos números
p1,p2,...) es maximizar la cantidad de información S. Es decir, si
yo sé, por ejemplo, que la media del fenómeno que estudio es un
cierto número, propondré como candidata a la distribución de
probabilidad que modela mi fenómeno de estudio a la colección de
números p1,p2,..., que hagan que S -la información- sea máxima
respetando la restricción de que la media sea ese cierto número que
ya conocía. Esta receta, que parece tremendamente simplista, es lo
que se conoce como Principio de Máxima Entropía y es un algoritmo
que permite motivar la aparición de prácticamente todas las
distribuciones de probabilidad famosas y relevantes. Si uno quiere
saber la probabilidad de encontrar a un gas en tal o cual
configuración sabiendo tan sólo la energía promedio, la solución
la ha de hallar maximizando la entropía (o información), S, dando
así lugar a lo que se conoce como distribución de Boltzmann. Si uno
quiere saber la distribución del tiempo de espera hasta que se funda
una bombilla y sólo sabe la media, maximizar la entropía también
da la solución (la distribución exponencial; la cual se puede
derivar por métodos más elementales). La archiconocida distribución
normal o campana de Gauss también emerge de forma natural al
maximizar la entropía. Los salarios en una sociedad, el número de
clientes que llegan a un servicio en una cierta franja horaria, las
velocidades de los átomos en una molécula,...., a todos esos
fenómenos les podemos asociar una distribución de probabilidad por
el método de maximizar la función información/entropía. Por
supuesto, es fácil imaginar que puede haber situaciones complicadas
donde esto falle: en la física fuera del equilibrio, patrones
ordenados, sistemas caóticos, orden emergente, etc, maximizar la
entropía no da nada parecido a lo que se observa en la realidad. Sin
embargo, es sorprendente que un procedimiento tan sencillo (para
operar matemáticamente con él sólo se precisan rudimentos del
llamado Cálculo de Variaciones) de resultados tan útiles en una
gama tan amplia de problemas.
En mi
opinión, es esta visión de la entropía como información y este
Principio de Máxima Entropía lo que explica la ubicuidad de este
concepto tan universal y unificador. Se trata, además, de la manera
más pedagógica de explicar -con cierta profundidad- qué es la
entropía. Al estudiar física estadística y termodinámica, los
primeros encontronazos con la entropía transmiten la inquietud de
estar tratando con un concepto misteriosísimo, repleto de multitud
de formulaciones no trivialmente equivalentes, y cuya forma
logarítmica resulta al principio todo un arcano. Una cita (que se
encuentra en Wikipedia!) de Gibbs, uno de los fundadores de la física
estadística, en su libro “Graphical Methods in Thermodynamics of
Fluids”, expresa precisamente esta opinión:
“Any
method involving the notion of entropy, the very existence of which
depends on the second law of thermodynamics, will doubtless seem to
many far-fetched, and may repel beginners as obscure and difficult of
comprehension."
[“Cualquier
método en que aparezca la noción de entropía, cuya existencia
depende del segundo principio de la termodinámica, parecerá sin
duda enrevesado a mucha gente, y espantará a los principiantes al
tratarse de algo oscuro y difícil de aprehender”]
Creo
que este problema que explica Gibbs se arregla bastante si se motiva
la entropía a través de la versión de la Teoría de la
Información. El contacto con la física se recupera luego, al
entender que maximizar esa función S es un método que nos da toda
la información estadística de un sistema físico en equilibrio. Por
su parte, la entropía de Boltzmann, como ya he comentado, mide el
número de microestados accesibles a un sistema que está en un
cierto macroestado. Se define a través de un logaritmo por la
sencilla razón de que así conseguimos una magnitud aditiva
(¡queremos que si juntamos dos sistemas independientes, eso que
llamamos entropía sea la suma de las entropías de cada parte!)
En
un artículo (cuyo nombre no recuerdo y ahora no lo encuentro..!) de
los años sesenta, el matemático Jaynes, que trabajó mucho sobre la
entropía, argumentaba que la entropía era en realidad un concepto
antropomórfico. En efecto, al ser la entropía (de
Gibbs-Jaynes-Shannon) un funcional sobre distribuciones de
probabilidad que codifica la cantidad de información, lo más
natural es pensar en la cantidad S como una herramienta construida
por los humanos para ordenar nuestra experiencia del mundo, y no como
un objeto que corresponde a alguna realidad extramental tangible. Si
bien la entropía es extraña y enrevesada, como advertía Gibbs, eso
a mí no me preocupa demasiado, puesto que se trata de un concepto
auxiliar no relacionado con ninguna entidad material, sino meramente
creado para procesar y organizar la información que se tiene al
observar o estudiar un sistema. Muy distinto es, por ejemplo, el caso
de la Temperatura, que sí que corresponde a algo que “está ahí
fuera” (la energía cinética promedio de un cuerpo, al menos en
el caso de equilibrio) y que, por ello mismo, resulta ser un concepto
muchísimo más conflictivo y difícil. Entender qué es la
temperatura es, por consiguiente, un problema mucho más difícil que
requiere mayor sutileza.
Los
nuevos resultados de la Física del No Equilibrio (que mencionaré
más adelante) ofrecen las mejores versiones del Segundo Principio,
pero la paradoja de Loschmidt había sido resuelta incluso mucho
antes atendiendo a algo más básico y fundamental: ¿Qué elemento
es el que rompe la simetría temporal en la Teoría Cinética de los
Gases? Éste es el problema conceptual básico que parece tan
difícil. Sin embargo, es posible que incluso Maxwell y Boltzmann ya
supieran la solución a esta pregunta -si bien, hasta donde yo sé,
parece que nunca respondieron satisfactoriamente-, puesto que fueron
ellos los primeros en introducir y hacer uso de la llamada “Hipótesis
del Caos Molecular”, que, gracias a los escritos de un físico
posterior de principios del siglo XX, Paul Ehrenfest [ The
Conceptual Foundations of the Statistical Approach in Mechanics
], es conocida como Stosszahlansatz
(aparentemente
el alemán tiene gancho para crear nombres tan carismáticos como
Bremsstrahlung
o éste otro).
Esta hipótesis, fundamental para poder realizar los tratamientos
matemáticos que Bolztmann y Maxwell hicieron de las mezclas
gaseosas, establece que las velocidades de las partículas
involucradas en una colisión no están correlacionadas entre sí; es
decir, que a efectos de simular el sistema uno puede tomar las
velocidades iniciales como números aleatorios, sin que lo que valgan
esas velocidades para un cierto grupo de partículas tenga que
influir en lo que valgan las velocidades para otro grupo. Esta
simplificación rompe de manera crucial la simetría bajo inversión
temporal, y lleva a todo tipo de consecuencias trascendentales, como
el conocido Teorema H de Boltzmann, que da una desigualdad para la
cantidad H que codifica el valor de la entropía de un sistema a lo
largo del tiempo. Una manera sencilla de entender la ruptura de
simetría es pensar en las condiciones iniciales. Cuando uno piensa
simular un sistema “desde el principio”, las velocidades se toman
al azar siguiendo ciertas distribuciones de probabilidad, pero se
hace de forma que para cada partícula la velocidad es una simulación
aleatoria independiente (es como si tiráramos un dado por cada
componente de velocidad de cada partícula). Sin embargo, si ahora
vemos una grabación de la evolución de un gas que se ha expandido
hacia atrás (rebobinando), ¿cómo son las condiciones iniciales
(que en realidad son las finales, pero que se transforman en las
nuevas “iniciales” al ver la película hacia atrás) de las que
parten las velocidades de las partículas? Bueno, lógicamente ahora
no tiene sentido pensar en esas velocidades como variables
independientes, sino que están sujetas a correlaciones horriblemente
complicadas fruto de la evolución del gas a lo largo del tiempo.
Así, esas condiciones finales (“iniciales” cuando empezamos a
rebobinar) son unas muy concretas y muy distintas de unas condiciones
iniciales típicas que encontraríamos simulando aleatoriamente cada
velocidad de cada partícula por separado de forma independiente. Ese
hecho supone una ruptura fundamental de la simetría bajo inversión
temporal, y por sí solo da buena cuenta, al menos conceptualmente,
de la paradoja de Loschmidt.
Así,
aunque algunos han querido entender que la paradoja de Loschmidt no
se puede resolver sin acudir a la Mecánica Cuántica, o que la
ireversibilidad está ligada al Problema de la Medida y al colapso de
la función de ondas, lo cierto es que tanto esta paradoja como la
emergencia de la irreversibilidad son cosas completamente
comprensibles en el contexto de la Física Clásica.
Aún
habiendo entendido como matemáticamente es compatible la emergencia
de la irreversibilidad en nuestros modelos de estudio de la
naturaleza con las leyes fundamentales en que se basan esos modelos,
la naturaleza del tiempo tiene otras características radicalmente
sorprendentes de las que todavía no he hablado, y es por eso que me
gustaría comentar brevemente lo que la Teoría de la Relatividad nos
enseña a ese respecto.
Lo
cierto es que creo que esto es muy importante porque no habido
ninguna filosofía del tiempo que no sea superficial hasta el
desarrolló de la Teoría de la Relatividad. Con lo de “superficial”
no pretendo ser despreciativo, sino simplemente descriptivo. Con la
poca comprensión matemática y física que había del tiempo antes
del siglo XX, no había nada muy interesante que hacer con este tema,
y me parece un error creer que es muy relevante o profundo lo que
dijeron filósofos antiguos, medievales o modernos acerca del tiempo
en el pasado, antes de la Relatividad. Por supuesto, podemos valorar
sus aportaciones a un nivel histórico y evaluar su pensamiento en
relación al contexto en que lo desarrollaron, pero de cara a
comprender el tiempo son otras cosas a las que tenemos que
atender. Por ejemplo, la Física de Aristóteles tiene un
importantísimo valor cultural e histórico, pero a nivel científico
está plagada de errores, de cosas que son simplemente falsas, y
aunque, como digo, es una obra importante para el estudio de la
cultura y el pensamiento, sería ridículo pretender que se trata de
algo relevante para la comprensión de la naturaleza.
Hasta
comenzado el siglo XX, el tiempo era concebido como algo absoluto,
único. Había un presente, un pasado, un futuro. De hecho, la
mayoría de la gente, a nivel intuitivo (y aunque no hayan pensado
sobre ello), tienen estas concepciones. El debate sobre si el tiempo
es lineal o cíclico, trascendente como puede ser, pierde importancia
en la ciencia frente a estas otras ideas que la Relatividad demolió
y demostró falsas. La constancia de la velocidad de la luz en todo
sistema de referencia implica automáticamente la dilatación de los
tiempos para un sistema en movimiento. Ese hecho, implícito en las
ecuaciones del electromagnetismo, es en la actualidad comprobado
rutinariamente con relojes de alta precisión. Si yo voy en tren y mi
hermana se queda en casa, cuando pare habrá pasado menos tiempo para
mí. Mi reloj habrá hecho tic menos veces. Gracias a que la
velocidad de la luz es altísima comparada con las velocidades
típicas de la experiencia humana, este hecho está muy lejos de ser
intuitivo, ya que la diferencia se encuentra en una pequeñísima
cifra decimal que, desde luego, el reloj de mi teléfono móvil es
incapaz de detectar. Las masas tienen un efecto parecido, cosa que se
entendió con la Teoría General de la Relatividad. Más cerca de la
superficie de la tierra el tiempo transcurre más despacio que en una
nube. Estos hechos fantásticos, objetivos y sorprendentes han
aportado más a actualizar nuestra manera de entender el tiempo que
todas las páginas infumables que produjo Heidegger. Más allá de
eso, como explica Carlo Rovelli en su librito "El orden del
tiempo", que recomiendo encarecidamente y que es una estupenda
obra de divulgación científica, la noción de presente es
imprecisa. No tiene sentido preguntarse qué está pasando "ahora"
en Andrómeda. La noción del ahora depende de manera crucial del
estado de movimiento del observador, y cualquier par de eventos que
no estén conectados causalmente en el sentido de que no estén uno
dentro del cono de luz del otro pueden ocurrir o bien en un orden o
bien en el contrario depende del sistema de referencia que se elija.
Creo que el hecho -bien conocido por los físicos pero increíblemente
poco divulgado- de que el "ahora" es una noción sin valor
absoluto y que no existe un "ahora" común válido para
todo el universo es una de las conclusiones más sorprendentes de la
ciencia, y cualquier filosofía sobre el tiempo que no la incorpore
explícitamente está condenada a la superficialidad. La intuición
que tenemos sobre que el "ahora" sí es algo preciso nace
del hecho de que en la Tierra y a las velocidades a las que nos
desplazamos los efectos relativistas son despreciables (para casi
todo... ¡ojo! hay que tenerlos en cuenta para programar los GPS's,
algo que sin duda habría emocionado a Einstein) y los desfases entre
distintos "ahoras" están en el orden de unos pocos
nanosegundos, lo cual es imperceptible para el cerebro humano.
El tiempo no es pues una simple estructura monolítica con una capa de presente y una de pasado y otra de futuro bien diferenciadas. La realidad del tiempo es algo mucho más rico y desafiante. Es por eso que creo la gramática de todos los lenguajes humanos es pobre para captar las complejas estratificaciones del tiempo, que, dice Octavio Paz, "en vivientes fragmentos divide al que fui del que seré".
Lo
menciono porque el "Soy, fui, seré" es, por supuesto,
suficiente para encapsular lo que es nuestra experiencia vital del
tiempo, y no necesitamos más tiempos verbales para distinguir esos
"vivientes fragmentos" en los que sin duda queda dividida
nuestra vida. Pero al hablar de sucesos más allá de nuestra
experiencia, de lo que acontece en general en la realidad, sin duda
nuestros sistemas verbales, crecidos en el contexto de un mundo ajeno
a la relatividad, están sin duda infra-preparados. Y es por eso que
debemos ser especialmente cautelosos al describir la naturaleza del
tiempo, pues está claro que ese trata de un campo donde la hipótesis
de Sapir-Whorf sobre la influencia del lenguaje en el pensamiento
resuena especialmente: nuestra manera de incluir el tiempo en
nuestros idiomas lleva implícita una ontología concreta del mismo.
Por
supuesto, no quiero dar la impresión de que entendemos de manera
perfecta qué es el tiempo, en qué consiste el fluir del tiempo o
qué es el pasado y el futuro. Nada más lejos de la realidad. Hemos
aprendido muchísimas cosas, particularmente en los últimos
doscientos años (¡y particularmente en los últimos cien!), pero
aún el tiempo es la cosa más misteriosa y extraña que hay, y no me
parece probable que deje de serlo por mucho “tiempo” (badabum,
tsss). Me paro en un sitio silencioso sin hacer nada. No hay
distracciones, trato de no pensar, pero hay algo que está pasando.
El tiempo sigue transcurriendo. ¿Qué quiere decir eso? Recuerdo lo
que hice ayer, pero no recuerdo lo que haré mañana. ¿Es extraño o
natural? ¿Por qué existe el tiempo? ¿Existe acaso? ¿Cuál es la
diferencia entre pasado y futuro? ¿Y qué es el presente? Plantear
las preguntas correctas es el primer paso, pero siento que para ello,
en lo concerniente al tiempo, los lenguajes humanos se quedan cortos.
Bergson caracterizó el tiempo como "lo que no puede
conceptualizarse". Pasado, presente y futuro son sólo una
aproximación de primer orden a una realidad de complejas
estratificaciones que dista mucho de la concepción absolutista del
pensamiento newtoniano. El tiempo es pérdida, es olvido. Los
recuerdos tienen un sabor doloroso a inmaterialidad. Olvidar detalles
es hacer irreal algo. Pero el recuerdo lúcido puede ser peor, es
como una fotografía vieja de personas muertas. ¿De qué manera es
real lo que sucedió? Sólo creer en la noción de causa puede dar un
sentido a esa pregunta. La causalidad es la memoria del mundo. ¿Pero
y cuando ésta no se puede rastrear en el presente? Pienso en mi
infancia como una realidad, pero la mayor parte de ella es una
oscuridad de detalles olvidados e irrecuperables, que podrían haber
sido de miles de formas distintas a la forma en que de hecho fueron.
Borges se consolaba obligándose a una creencia metafísica:
"sé
que en la eternidad perdura y arde
lo
mucho y lo precioso que he perdido:
esa
fragua, esa luna y esa tarde."
Pero
no sabemos dónde está esa eternidad, y de esa fragua y esa luna y
esa tarde hoy sólo nos queda ese poema.
Que
el tiempo es enteramente subjetivo y no una realidad objetiva
extramental e indepediente de la experiencia humana es una
especulación fantasiosa muy agradable con la que muchos han jugado,
desde Agustín de Hipona hasta Kant, sin que nunca nada de todo ello
haya contribuido a aclarar qué es el tiempo o cómo surge en la
experiencia. Creo que algo sólido que claramente podemos aprender de
la Relatividad y la Termodinámica y la Física en general es que el
tiempo es, fuera de toda duda, algo muy real y en absoluto subjetivo.
O, mejor dicho, corresponde
a algo muy real y en absoluto subjetivo: el cambio. El cambio existe
de manera objetiva en las entidades materiales del mundo, y el tiempo
es simplemente una manera ordenada de describir eso. Ocurre que, por
las escalas de energía que típicamente experimentamos en nuestro
día a día, nos encontramos en un límite (no relativista) en que
nuestra experiencia de la totalidad de esos cambios que acontecen, de
eso que llamamos tiempo, aparenta ser muy simple, engañosamente
simple. La Relatividad muestra que la estructura relacional (entre
sistemas de referencia) de los procesos de cambio es algo complejo y
que no tiene sentido la noción de ahora, y que cada punto del
espacio tiene un pasado distinto. Hay infinidad puntos (realmente
eventos,
siendo un poco más técnicos. Un evento es unas coordenadas
espaciales y una temporal) del espacio-tiempo para los cuales la
Segunda Guerra Mundial no está en su pasado, por ejemplo. Aunque
todo esto pueda ser abstracto, es importante entender que nos enseña
algo profundo e impresionante sobre la naturaleza de lo que hemos
venido a llamar tiempo.
Volviendo
al problema de la irreversibilidad, que macroscópicamente parece
manifestar en nuestra narices el flujo del tiempo, uno de los
desarrollos recientes más interesantes -empezando a mediados de los
años noventa- sobre entropía en física fuera del equilibrio es una
familia de teoremas, llamados teoremas de fluctuación, que
cuantifican de manera precisa cómo de probable es ver fluctuaciones
en las que se observa decrecimiento de la entropía. El Teorema de
Fluctuación de Evans-Searles (así llamado por sus autores, cuyo
artículo pionero en 1994 abrió todo un nuevo tema de investigación
en la Física del No Equilibrio), viene a decir que observar en un
sistema una trayectoria hacia delante en el tiempo donde se está
generando entropía (proceso irreversible) es exponencialmente más
probable que observar la trayectoria “revertida” en el tiempo en
que el sistema está perdiendo entropía (¡por lo que, al mirarlo,
podría parecer que el sistema está yendo hacia atrás en el
tiempo!). Aquí el “exponencialmente” no está usado, como muchas
veces en el habla coloquial, como sinónimo del averbio “mucho”,
sino que tiene un sentido cuantitativo preciso. La forma matemática
del Teorema de Evans y Searles dice que, en efecto, ambas
probabilidades están relacionadas por una función exponencial.
Además, esa exponencial será tanto más grande cuanto más grande
sea el tamaño de la fluctuación (la cantidad de entropía ganada o
perdida) y la duración del proceso. En conclusión, los Teoremas de
Fluctuación no sólo logran formular de una manera mucho más
completa el Segundo Principio de la Termodinámica, sino que además
logran dar una solución satisfactoria a la paradoja de Lochsmidt con
precisión cuantitativa: las trajectorias “revertidas en el tiempo”
pueden ocurrir perfectamente, pero son muy improbables y la mayor
parte del tiempo no se dan. Estos “muy improbable” y “la mayor
parte del tiempo”, como acabamos de ver, reciben una cuantificación
precisa en el contexto de estos nuevos Teoremas de Fluctuación, de
modo que no son simplemente cosas conceptuales vagas.
Comento
como curiosidad que, en lo que respecta a violaciones de la Segunda
Ley, hace muy poco (en noviembre de 2017) se ha dado a conocer un
trabajo (“Reversing the thermodynamic arrow of time using quantum
correlations ”) en el se logra preparar un sistema físico en el
que el calor fluye espontáneamente de la parte fría a la parte
caliente. Cuando esto ocurre se dice que el sistema tiene temperatura
negativa, algo que se puede lograr preparando con extremo cuidado las
correlaciones con las que se parte del estado inicial. Por raro que
parezca, ¿por qué no? Esto no viola ninguna ley fundamental, no
contradice las ecuaciones básicas de la cuántica, o las leyes
clásicas del movimiento, ni tampoco la conservación de la energía
(que es el Primer Principio de la Termodinámica). Lo que ocurre es
que la cantidad de condiciones iniciales que pueden llevar a una tal
situación (“temperatura negativa”) es despreciable frente al
total de posibles condiciones iniciales. Sin embargo, con técnicas
experimentales muy precisas, Resonancia Magnética Nuclear y
Tomografía Cuántica (Quantum State Tomography), es posible lograr
unas de esas extremadamente raras condiciones iniciales, que son las
que uno encontraría si “viese hacia atrás” la película de la
evolución de ese sistema en una situación típica. El sistema en
que se observa esta transferencia de calor de la parte fría a la
caliente es diminuta: un par de núcleos atómicos en una molécula
pequeña. Así, en este experimento lo que se logra es algo así a un
análogo microscópico del fenómeno de ver unos trozos de cristal en
el suelo recomponerse hasta formar un vaso que salta de vuelta hasta
la mesa desde la que se cayó. En la película 'Las Vidas Posibles de
Mr. Nobody', donde se juega mucho con la idea del tiempo, se nos
muestran imágenes como ésta: el humo volviendo al cigarro o la
salsa de tomate separándose de la comida en el plato. No son
fenómenos imposibles, simplemente extremadamente improbables, y esto
es un enunciado tan fuerte como la imposibilidad. En el mundo
macroscópico tenemos la emergencia de la irreversibilidad como un
fenómeno estadístico esencial y este tipo de fluctuaciones 'a lo
Mr. Nobody' se hacen monstruosamente improbables (¡Los Teoremas de
Fluctuación de Evans y Searles cuantifican cuánto de improbables!),
pero en el mundo microscópico es posible llegar a preparar sistemas
donde se exhibe este sorprendente comportamiento en que parece que
las cosas estányendo hacia atrás en el tiempo. En algunos medios
españoles se hicieron eco de este artículo con titulares como
“físicos logran que el tiempo fluya hacia atrás”, o cosas
similares, pero el propio título del artículo aclara que lo que se
revierte es la flecha termodinámica del tiempo, no el tiempo
en sí -sea lo que sea eso-, lo cual, sin duda, sería algo mucho más
extraño, incomprensible y sonado.
1"You
should call it entropy, for two reasons. In the first place your
uncertainty function has been used in statistical mechanics under
that name, so it already has a name. In the second place, and more
important, nobody knows what entropy really is, so in a debate you
will always have the advantage."
(Me encanta esta anécdota =) )