lunes, 20 de agosto de 2018

La flecha del tiempo





Si grabamos durante cinco segundos un péndulo oscilando y luego le enseñamos a alguien el vídeo hacia atrás, desde el final hasta el principio, ese alguien no se daría cuenta de que hemos invertido el sentido del tiempo. Pero si grabamos el péndulo durante dos minutos, la cosa cambia. Al ver la película del derecho, observamos como el péndulo, poco a poco, pierde velocidad hasta quedarse parado por completo. Sin embargo, si lo viéramos empezando por el final, como rebobinando la grabación, nos daríamos fácilmente cuenta del truco al ver a un péndulo parado que poco a poco coge velocidad. La mayoría de las cosas en la vida son como la grabación de los dos minutos: es elemental saber si estamos viendo algo que sucede hacia "delante" en el tiempo (del pasado al futuro) o si, por el contrario, estamos viendo el proceso de rebobinado (algo transcurriendo del futuro hacia el pasado). Por ejemplo, un vaso se cae de la mesa y se rompe en pedacitos de cristal. Algo que todo el mundo ha observado alguna vez. Lo que nadie jamás ha visto (y de haber alguien, nadie le creería, pobre) es que los trozos de vidrio se recompongan ellos solos y el vaso, regenerado, brinque de nuevo a la mesa. Sin embargo, como veremos, esto no violaría ninguna ley fundamental de la naturaleza. La energía (esa cosa que se conserva) no tendría porque escandalizarse en ese proceso, porque los fragmentos de cristal podrían coger la energía necesaria para su recomposición y salto de la agitación térmica de los millones de partículas de aire de los alrededores.

Estos no son sino ejemplos de una (aparente) obviedad: que el pasado y el futuro están claramente diferenciados porque hay procesos (¡la mayoría!) que transcurren en el sentido pasado-futuro, pero que jamás esperaríamos ver ocurriendo en el sentido futuro-pasado. Si bien esto puede parecer trivial (el pasado es lo que está "antes" que mi presente, y el futuro es lo que viene "después" que éste, ¿de verdad hace falta darle más vueltas al asunto?), es necesario/interesante entender cómo casa esta diferencia entre pasado y futuro con las leyes de la física, que son las herramientas que tenemos para estudiar y comprender la naturaleza a su nivel más fundamental. Éste fue un problema al que dedicaron esfuerzo varios físicos del siglo XIX de los que pronto hablaremos. Por entonces ya era bien sabido que las leyes de Newton son las leyes fundamentales que dictan la manera en que los cuerpos se mueven por el espacio y a lo largo del tiempo cuando unas condiciones iniciales de posición y velocidad han sido dadas. No hay ningún ingrediente adicional que se necesite para determinar la evolución de un sistema a través de las leyes de Newton. Estas leyes poseen una propiedad interesante, y es que les dan básicamente igual el pasado y el futuro. Todo lo que hace falta para poner en marcha la maquinaria newtoniana es una serie de posiciones y velocidades iniciales de los objetos que conforman el sistema a estudiar; dado eso y la suficiente potencia de cálculo (¡como la del demonio de Laplace del que hablábamos en la entrada sobre Determinismo!), la aplicación de la manivela matemática da la evolución en el tiempo de las posiciones de los objetos estudiados. Pero esto tiene una consecuencia inmediata, y es que cualquier proceso (en este contexto, “proceso” significa “evolución de las posiciones de los objetos”) que yo pueda observar ocurriendo desde el pasado hacia el futuro también puede ser observado ocurriendo desde el futuro hacia el pasado...¡lo único que hace falta es encontrar las condiciones iniciales adecuadas! Esto es lo que técnicamente en física se denomina "simetría bajo inversión temporal". Sin embargo, si yo abro un frasco de perfume, las moléculas tienden a esparcirse por la habitación, lo que rápidamente se nota en el olor, pero nunca esperaría que las moléculas del perfume volviesen espontáneamente al frasco. Esto es lo que se conoce como "irreversibilidad" (hay procesos que ocurren "hacia delante en el tiempo" y que no pueden ser revertidos). Con este simple experimento mental advertimos que en nuestra cotidianidad experimentamos una fuerte asimetría pasado/futuro, lo cual, según lo dicho, no queda explicado por las leyes de Newton. ¿Cómo es posible? Tanto la simetría temporal como la irreversibilidad son verdades que entendemos bien y que cuentan con una evidencia abrumadora. Pero, ¿Cómo pueden ser ambas verdad al mismo tiempo? Así formulada la pregunta, esto es básicamente lo que se conoce como paradoja de Loschmidt, enuncida en 1876 por el físico del mismo nombre. Loschmidt trataba de desafiar los argumentos que mostraban cómo la irreversibilidad emergía a partir de las leyes microscópicas.

A lo largo del siglo XIX se había desarrollado la rama de la física conocida como Termodinámica, que estudia conceptos como el calor, el trabajo, las máquinas térmicas, los cuerpos en equilibrio y sus funciones de estado, etc. La Física Estadística, que con herramientas de las matemáticas de la teoría de probabilidad estudiaba conjuntos de muchas partículas, fue desarrollada a lo largo de las décadas de los 50, 60 y 70 del mismo siglo por físicos como Maxwell, Boltzmann o Gibbs, que pudieron probar cómo los resultados de carácter fenomenológico de la termodinámica emergían de las leyes microscópicas bien conocidas a través de un riguroso análisis estadístico. Por entonces, la teoría atomística era algo muy discutido y muchos lo consideraban una tesis filosófica que, si bien útil, era contrafáctica y no corroborable y que, por consiguiente, caía fuera del dominio de la investigación científica. Este debate no fue realmente concluido hasta los trabajos sobre movimiento browniano de Eistein y Perrin a principios del siglo XX, pero con anterioridad ya en el contexto de la Física Estadística se habían logrado grandes conquistas (explicativas, por lo menos) para la teoría atomística. Una de ellas fue la interpretación microscópica de Boltzmann de la noción de entropía. La famosa entropía, lejos de enunciarse en términos de “desorden” como modernamente se suele hacer, había sido introducida por Clausius al estudiar la eficiencia de máquinas térmicas (tan de moda en los años de la Revolución Industrial, por supuesto). La entropía de Clausius es, básicamente, la magnitud que mide, dada una diferencia de temperatura entre dos cuerpos, la máxima eficiencia (entendida como la relación entre energía aprovechada para realizar un trabajo y la cantidad total de energía inicialmente recibida) a la que se puede aspirar en un ciclo térmico. Esta máxima eficiencia corresponde al caso ideal (reversible) conocido como Ciclo de Carnot, y es una cota superior para cualquier eficiencia que uno pueda pretender alcanzar en el diseño de cualquier máquina térmica. Uno de los grandes triunfos de Boltzmann y de la recién nacida Física Estadística fue, como comentábamos, lograr dar una definición equivalente a la de Clausius de este concepto en términos de los átomos. Simplificando un poco, podemos decir que la entropía según Boltzmann se define como una medida (logarítmica) del número total de estados posibles en que los átomos de un cuerpo pueden estar cuando fijamos ciertas restricciones (la temperatura, la presión, el volumen,...). Es aquí donde se conecta la noción de entropía con el concepto de desorden.

Más allá de eso, Boltzmann logró dar una interpretación microscópica del así llamado Segundo Principio de la Termodinámica. En Física ya se sabía bien por entonces dos cosas muy importantes: que la energía se conserva (esto se llama Primer Principio de la Termodinámica) y que cuando ponemos dos cuerpos a distinta temperatura en contacto, el calor fluye del caliente al frío hasta que ambas temperaturas se igualan (llegando así a lo que se conoce como equilibrio termodinámico). El Segundo Principio añade algo nuevo y muy importante para las oficinas de patentes, siempre hastiadas con los esfuerzos de cantidades ingentes de personas por patentar máquinas de movimiento perpetuo (máquinas que procuran energía constantemente y que nunca se paran) que, por supuesto, siempre fracasaban. En términos de los conceptos de eficiencia y entropía de Clausius que hemos visto antes, el Segundo Principio establece que la eficiencia del Ciclo de Carnot (ese proceso ideal y reservible que siempre va a ser mejor que cualquier otro que podamos realizar en la experiencia) no es el 100%. Esa eficiencia depende de la diferencia de temperatura entre las partes de nuestra máquina, cierto, pero nunca llegará a ser perfecta (en la ficción matemática de que una de las partes se calentara hasta el infinito, sí que se llegaría a una eficiencia del 100% en la máquina de Carnot, pero creo que entonces es razonable sospechar que nos cargaríamos varias partes importantes de las piezas concretas que usáramos para realizar materialmente nuestra máquina térmica... :-) ). De manera equivalente, esto se puede enunciar como que es imposible tomar calor de una fuente y convertirlo completamente en trabajo útil (¡esto es lo que quiere decir que la eficiencia no sea del 100%!). La versión microscópica de Bolztmann de este hecho, en el contexto de la Teoría Cinética de los Gases (la combinación de la Teoría Atomística y la Física Estadística), es la prueba matemática de que su particular versión del concepto de entropía es una cantidad que nunca disminuye a lo largo de la evolución en el tiempo de un sistema físico. Puesto que se trataba de un problema en que uno lidiaba con una cantidad brutal de partículas (números de Avogadro... ¡imaginemos un uno seguido de veintitres o veinticuatro ceros!), la aplicación sistemática de las ecuaciones de Newton no era una estrategia realista (incluso los superordenadores punteros de la NASA de hoy en día están inimaginablemente lejos de poder vérselas con una cantidad tal de ecuaciones acopladas). Las elegantes herramientas a las que recurrieron los físicos estadísticos fueron las distribuciones de probabilidad y otras armas de la Teoría de Probabilidad, que si bien por entonces no era en absoluto una rama rigurosa de la Matemática, ya había desarrollado un gran poder. En efecto, para averiguar y codificar las propiedades interesantes de un gas de trillones de trillones de partículas, no hace falta seguirle la pista a cada una de las partículas, sino que basta una información precisa sobre, por ejemplo, “cómo de probable es encontrar una partícula en tal sitio, moviéndose a tal velocidad, en tal instante”. Cuando estudiamos un gas, nos interesarán cosas como su temperatura, cómo oscila su energía, la presión que ejerce en cierta zona, a que ritmo se expande o se contrae,..., pero para todas esas cosas, conviene insistir, no es necesario tener toda la información sobre cada partícula, sino que basta un conocimiento más sutil que sintetiza e integra todos esos detalles. Eso es justamente lo que hace una función de distribución de probabilidad. Eso es uno de los aspectos claves de la física de los sistemas complejos. No es sólo una cuestión de encontrar métodos aproximados que nos permitan entender el problema (que, por supuesto, es la motivación más importante), sino también una cuestión de elegancia (¿por qué dar la información de un sistema en un archivo de millones de páginas, en donde es un sufrimiento encontrar patrones, cuando en dos páginas podemos contener toda la información relevante relacionada con lo que vamos a observar en la experiencia?).
Aún así, las distribuciones de probabilidad se cimentaban, por supuesto, en las leyes de Newton (más adelante en las leyes de la cuántica, claro está). Lo que trata de hacer uno con una distribución de probabilidad de posiciones y velocidades en un sistema como un gas es resumir la información contenida en todas las ecuaciones del movimiento, y las leyes para la evolución de esa distribución de probabilidad emerge por supuesto de las mismas leyes de Newton.
Lo que Boltzmann probó, con todas estas herramientas, es que la entropía, que en el caso más general se define a través de una ecuación matemática en términos de la distribución de probabilidad que describe el sistema bajo estudio, nunca disminuye a lo largo de la evolución de un sistema. Ya sea en la imagen de Clausius o en la de Boltzmann, el resultado es el mismo: la entropía nunca disminuye. Los casos en que se mantenga constante son los que llamamos “reversibles” (por ejemplo, esto es lo que localmente parece ser la dinámica del péndulo durante cortos periodos de tiempo), mientras que los casos en que aumenta son los irreversibles (como las moléculas saliendo del perfume), en que el sistema evoluciona hacia macroestados con muchos más microestados accesibles (expresado en términos boltzmannianos).

Es en este punto donde volvemos hacer contacto con la paradoja de Loschmidt. Boltzmann había probado por entonces su famoso “Teorema H”, en que prueba la desigualdad para la cantidad H que, resumiendo, es una versión de la noción entropía . Lo que se preguntó Loschmidt era algo muy sencillo e inquietante. Si las leyes fundamentales que rigen el movimiento de los átomos son simétricas bajo inversión temporal (como ya explicamos más arriba), ¿cómo es posible que razonando a partir de ellas se llegue a un hecho que introduce una clara asimetría pasado/futuro? No es un problema trivial en absoluto y provocó mucha discusión en torno a la interpretación correcta del significado del Segundo Principio. Entre veinte y treinta años después, los trabajos de Poincaré y Carathéodory aumentaron los problemas para el Segundo Principio. Un teorema matemático de la mecánica teórica (obra de estos dos matemáticos mencionados) mostraba que dada una colección de partículas en un recinto acotado con ciertas posiciones y ciertas velocidades, si se deja pasar el suficiente tiempo siempre se observará a las partículas -su evolución gobernada por las leyes de Newton- volver a la configuración inicial con aquellas ciertas posiciones y velocidades. ¡Esto parece un disparate! Este resultado parece decir que si abro un frasco de perfume y las partículas empiezan a dispersarse, después de esperar el suficiente tiempo veré a las partículas del perfume metiéndose de nuevo hacia el frasco. Bueno, no sólo parece decir eso, ¡sino que el teorema dice exáctamente eso! ¿No es esto una violación flagrante del Segundo Principio? La clave está, por supuesto, en la condición “después de suficiente tiempo”.

Lo que ocurre es que la mayor parte del tiempo, efectivamente, observaremos un incremento de la entropía, pero hay veces, muy de cuando en cuando, en que ocurren procesos que efectivamente contradicen lo que el Segundo Principio parece decir. Esto no es nada nuevo, pues ya Maxwell y Boltzmann advirtieron en su momento de que el Segundo Principio es un hecho estadístico, y no una ley absoluta. “Que la segunda ley sea verdad es... algo estadístico, no una verdad matemática,[...], Así, la Segunda Ley de la Termodinamica es continuamente violada”, escribía Maxwell en un artículo para Nature (Nature 17, 278 (1878) ) , mientras que Boltzmann, [Re-joinder to the Heat Theoretical Considerations of Mr E. Zermelo (1896)], decía “ tan pronto como uno mire a cuerpos de una dimensión suficientemente pequeña, conteniendo sólo unas pocas moléculas, la validez de este teorema [la segunda ley] ha de cesar” (las traducciones son mías). El Segundo Principio, entendido como un enunciado estadístico (que es, en verdad, la única manera correcta de entenderlo), no presenta contradicción alguna con el resultado de Poincaré y Carathéodory sobre la recurrencia de los sistemas mecánicos. En efecto, por grande que sea un sistema, después de trillones de años uno observaría todo tipo de eventos improbables, pero la clave es que el tiempo que uno pasa “viendo a la entropía decrecer” es siempre una proporción de tiempo diminuta al lado del tiempo total que duran los procesos.

El concepto de entropía ha resultado ubicuo en la física y también fuera de ella. De una forma similar al Principio de Mínima Acción, se ha convertido en una noción unificadora que aparece detrás de una gran diversidad de leyes y fenómenos distintos. Por ejemplo, la utilidad de la entropía surge de manera natural al estudiar cómo se distribuyen los salarios en una sociedad (hay todo un campo moderno llamado thermodynamics of economics), cómo fluctúa un gas en torno a su situación de equilibrio, y un largo etcétera. En general, la entropía aparece siempre que uno se enfrenta a un problema en que la probabilidad y/o la evolución en el tiempo de sistemas complejos juega un papel. En mi opinió (y tengo la impresión de que no es muy compartida por la mayoría de los físicos, pero en fin :-) ) la maneras más esclarecedora y pedagógica de entender esta universalidad es a través de la identificación de la entropía con la información. Claude Shannon introdujo la entropía en Teoría de la Información en el año 1948, mucho después de los trabajos de Maxwell y Boltzmann. En realidad, Shannon dudó fuertemente la conveniencia del nombre, aunque al final John Von Neumann (uno de los mayores genios científicos de la historia; responsable a su vez de extender el concepto de entropía a la mecánica cuántica...!) le convenció de ello1.


[desde aquí hasta el siguiente corchete se puede omitir; es más técnico]

Creo que merece la pena introducir un poco de razonamiento matemático en este punto para entender de qué manera se motiva la forma concreta de lo que podríamos llamar “función información”. Hay pocos conceptos matemáticos no enteramente elementales que, siendo tan sencillos, sean tan importantes y universalmente útiles. La idea básica es que nosotros querríamos tener una funnción matemática, llamemosla I, que nos dijera cuánta información contiene un evento, y queremos hacer esto -en principio- de la manera más sencilla posible. La manera en que comenzamos es poniendo ciertas restricciones “obvias” sobre la función I. Estas restricciones, que se pueden pensar como axiomas, no son sino traducciones a lenguaje matemático de ciertas intuiciones elementales que tenemos sobre qué quiere decir la información. Para empezar, asumimos que la información es una función exclusivamente de la probabilidad, pero hay otras dos cosas fundamentales que vamos a suponer. Por un lado, parece obvio asumir que si un evento A es más probable que B, entonces el hecho de que A ocurra aporta menos información que B (no me sorprenderé por cruzarme cada mañana con mi vecino, pero si un día al salir de mi portal me cruzo con un policía, me sorprenderé un poco y sacaré de ello alguna clase de información). Esto lo que escribimos diciendo que, si prob(A) > prob(B), entonces I(A) < I(B). Por otra parte, si A y B son dos sucesos independientes, es lógico asumir que la información que recibo cuando ocurren A y B a la vez es la suma de las informaciones. Por ejmplo, si A es “cae un meteorito en París” y B es “me toca la lotería”, la información que recibo cuando ambos ocurren es la suma de las informaciones. La probabilidad de dos sucesos independientes es simplemente el producto de las probabilidades; es decir, prob(A y B)=prob(A)prob(B), y estamos exigiendo que I(A y B)=I(A)+I(B). Si juntamos estas dos cosas, 1) la información decrece al aumentar la probabilidad y 2) La función información transforma productos en sumas, un teorema matemático permite demostrar que lo único que puede ser la información... ¡es menos el logaritmo de la probabilidad! Es decir, llegamos al resultado de que I(A)=-log(prob(A)). Por supuesto, sería posible poner muchas pegas a esta motivación: para empezar, es muy discutible que una codificación cuantitativa de la información necesariamente sea función exclusiva de la probabilidad y, además, suponer que siempre podemos asignar probabilidades a todos los eventos concebibles de manera significativa es algo filosóficamente problemático y se sale del marco de la teoría formal de las probabilidades. Pero partiendo del hecho de que queremos hacer una tal codificación cuantitativa (nos hace ilusión, oye), esto es una manera simple y eficaz de conseguir una que funciona bastante bien para muchas cosas (como Shannon comprobó) y que respeta ciertas intuciones que tenemos sobre lo que es la información. Ahora que tenemos nuestra función información, pensemos que tenemos una serie de n eventos, A1,A2,A3,....,An, que pueden ocurrir (esto puede ser lo que sea; resultados de la quiniela, el número de días que va a llover en junio en Singapur,...., lo que sea!). Cada uno de estos eventos tiene una probabilidad que denotaremos con la letra p y el correspondiente subíndice; es decir, p1=prob(A1), p2=prob(A2),...,pn=prob(An). La función información del j-ésimo evento, Aj, es entonces simplemente I(Aj)=-log pj. Bien, visto esto (ánimo, lo más difícil está ya hecho (-: ), la entropía que definió Shannon es simplemente el promedio de la función información. Es decir, la entropía, S, es simplemente la respuesta cuantitativa a la pregunta “Si puede ocurrir tal evento y tal otro, ¿cuánta información puedo esperar recibir en promedio?”. Matemáticamente esto entonces no es más que:
S= -p1*log(p1)-p2*log(p2)-...-pn*log(pn)
(el * denota multiplicación).
¡Y esto sin más es ya la entropía de Shannon!. Esta entropía no es matemáticamente lo mismo que la entropía estadística de Boltzmann, que da una medida de cuántos microestados tiene un sistema compatibles con un cierto macroestado descrito por diversas funciones de estado (en el caso más simple, la energía, pero pueden usarse otras). Sin embargo, es claro que existe una relación muy estrecha este ambas. En particular, si buscamos, en un sistema con una energía fija, que distribución de probabilidad da la máxima entropía, el cálculo de la entropía de Shannon coincide con el cálculo de la entropía de Boltzmann

[fin de la parte técnica]

Aunque no se hayan seguido todos los detalles técnicos de esta explicación, lo importante es mantener en mente que: 1) Hemos hecho una serie de asunciones sobre propiedades básicas que debe cumplir una función que codifique cuantitativamente el significado de lo que es “información”; y 2) Hemos derivado, usando tales asunciones y matemáticas elementales, la forma matemática precisa de nuestra función información. Si se quiere, se puede pensar en esto como un modelo matemático de lo que es la información. Este modelo es muy simple pero, sin embargo, resulta tremendamente útil. Cualquier persona es bienvenida a tratar de elaborar modelos más complejos de la información,... pero no será tarea fácil encontrar algo que siendo tan simple pueda ser tan universalmente aplicable.

Esta función S, el promedio de la información, está asociada a la distribución de probabilidad del espacio de eventos que estemos estudiando. Dadas las probabilidades, hay un camino directo para calcular S. Pero, ¿podemos hacer de alguna manera el camino inverso? ¿Qué cosas puedo deducir de las probabilidades de mi sistema de estudio si yo partiera de conocer la información promedio? Muy a menudo ocurre que uno tiene una estimación razonable de ciertas magnitudes, como la media, o la desviación de la media, pero no tiene ni idea de cómo es la ley probabilística subyacente. Una receta bien sencilla y en principio muy lógica para dar como candidata una cierta distribución de probabilides (aquellos números p1,p2,...) es maximizar la cantidad de información S. Es decir, si yo sé, por ejemplo, que la media del fenómeno que estudio es un cierto número, propondré como candidata a la distribución de probabilidad que modela mi fenómeno de estudio a la colección de números p1,p2,..., que hagan que S -la información- sea máxima respetando la restricción de que la media sea ese cierto número que ya conocía. Esta receta, que parece tremendamente simplista, es lo que se conoce como Principio de Máxima Entropía y es un algoritmo que permite motivar la aparición de prácticamente todas las distribuciones de probabilidad famosas y relevantes. Si uno quiere saber la probabilidad de encontrar a un gas en tal o cual configuración sabiendo tan sólo la energía promedio, la solución la ha de hallar maximizando la entropía (o información), S, dando así lugar a lo que se conoce como distribución de Boltzmann. Si uno quiere saber la distribución del tiempo de espera hasta que se funda una bombilla y sólo sabe la media, maximizar la entropía también da la solución (la distribución exponencial; la cual se puede derivar por métodos más elementales). La archiconocida distribución normal o campana de Gauss también emerge de forma natural al maximizar la entropía. Los salarios en una sociedad, el número de clientes que llegan a un servicio en una cierta franja horaria, las velocidades de los átomos en una molécula,...., a todos esos fenómenos les podemos asociar una distribución de probabilidad por el método de maximizar la función información/entropía. Por supuesto, es fácil imaginar que puede haber situaciones complicadas donde esto falle: en la física fuera del equilibrio, patrones ordenados, sistemas caóticos, orden emergente, etc, maximizar la entropía no da nada parecido a lo que se observa en la realidad. Sin embargo, es sorprendente que un procedimiento tan sencillo (para operar matemáticamente con él sólo se precisan rudimentos del llamado Cálculo de Variaciones) de resultados tan útiles en una gama tan amplia de problemas.
En mi opinión, es esta visión de la entropía como información y este Principio de Máxima Entropía lo que explica la ubicuidad de este concepto tan universal y unificador. Se trata, además, de la manera más pedagógica de explicar -con cierta profundidad- qué es la entropía. Al estudiar física estadística y termodinámica, los primeros encontronazos con la entropía transmiten la inquietud de estar tratando con un concepto misteriosísimo, repleto de multitud de formulaciones no trivialmente equivalentes, y cuya forma logarítmica resulta al principio todo un arcano. Una cita (que se encuentra en Wikipedia!) de Gibbs, uno de los fundadores de la física estadística, en su libro “Graphical Methods in Thermodynamics of Fluids”, expresa precisamente esta opinión:
Any method involving the notion of entropy, the very existence of which depends on the second law of thermodynamics, will doubtless seem to many far-fetched, and may repel beginners as obscure and difficult of comprehension."
[“Cualquier método en que aparezca la noción de entropía, cuya existencia depende del segundo principio de la termodinámica, parecerá sin duda enrevesado a mucha gente, y espantará a los principiantes al tratarse de algo oscuro y difícil de aprehender”]


Creo que este problema que explica Gibbs se arregla bastante si se motiva la entropía a través de la versión de la Teoría de la Información. El contacto con la física se recupera luego, al entender que maximizar esa función S es un método que nos da toda la información estadística de un sistema físico en equilibrio. Por su parte, la entropía de Boltzmann, como ya he comentado, mide el número de microestados accesibles a un sistema que está en un cierto macroestado. Se define a través de un logaritmo por la sencilla razón de que así conseguimos una magnitud aditiva (¡queremos que si juntamos dos sistemas independientes, eso que llamamos entropía sea la suma de las entropías de cada parte!)

En un artículo (cuyo nombre no recuerdo y ahora no lo encuentro..!) de los años sesenta, el matemático Jaynes, que trabajó mucho sobre la entropía, argumentaba que la entropía era en realidad un concepto antropomórfico. En efecto, al ser la entropía (de Gibbs-Jaynes-Shannon) un funcional sobre distribuciones de probabilidad que codifica la cantidad de información, lo más natural es pensar en la cantidad S como una herramienta construida por los humanos para ordenar nuestra experiencia del mundo, y no como un objeto que corresponde a alguna realidad extramental tangible. Si bien la entropía es extraña y enrevesada, como advertía Gibbs, eso a mí no me preocupa demasiado, puesto que se trata de un concepto auxiliar no relacionado con ninguna entidad material, sino meramente creado para procesar y organizar la información que se tiene al observar o estudiar un sistema. Muy distinto es, por ejemplo, el caso de la Temperatura, que sí que corresponde a algo que “está ahí fuera” (la energía cinética promedio de un cuerpo, al menos en el caso de equilibrio) y que, por ello mismo, resulta ser un concepto muchísimo más conflictivo y difícil. Entender qué es la temperatura es, por consiguiente, un problema mucho más difícil que requiere mayor sutileza.



Los nuevos resultados de la Física del No Equilibrio (que mencionaré más adelante) ofrecen las mejores versiones del Segundo Principio, pero la paradoja de Loschmidt había sido resuelta incluso mucho antes atendiendo a algo más básico y fundamental: ¿Qué elemento es el que rompe la simetría temporal en la Teoría Cinética de los Gases? Éste es el problema conceptual básico que parece tan difícil. Sin embargo, es posible que incluso Maxwell y Boltzmann ya supieran la solución a esta pregunta -si bien, hasta donde yo sé, parece que nunca respondieron satisfactoriamente-, puesto que fueron ellos los primeros en introducir y hacer uso de la llamada “Hipótesis del Caos Molecular”, que, gracias a los escritos de un físico posterior de principios del siglo XX, Paul Ehrenfest [ The Conceptual Foundations of the Statistical Approach in Mechanics ], es conocida como Stosszahlansatz (aparentemente el alemán tiene gancho para crear nombres tan carismáticos como Bremsstrahlung o éste otro). Esta hipótesis, fundamental para poder realizar los tratamientos matemáticos que Bolztmann y Maxwell hicieron de las mezclas gaseosas, establece que las velocidades de las partículas involucradas en una colisión no están correlacionadas entre sí; es decir, que a efectos de simular el sistema uno puede tomar las velocidades iniciales como números aleatorios, sin que lo que valgan esas velocidades para un cierto grupo de partículas tenga que influir en lo que valgan las velocidades para otro grupo. Esta simplificación rompe de manera crucial la simetría bajo inversión temporal, y lleva a todo tipo de consecuencias trascendentales, como el conocido Teorema H de Boltzmann, que da una desigualdad para la cantidad H que codifica el valor de la entropía de un sistema a lo largo del tiempo. Una manera sencilla de entender la ruptura de simetría es pensar en las condiciones iniciales. Cuando uno piensa simular un sistema “desde el principio”, las velocidades se toman al azar siguiendo ciertas distribuciones de probabilidad, pero se hace de forma que para cada partícula la velocidad es una simulación aleatoria independiente (es como si tiráramos un dado por cada componente de velocidad de cada partícula). Sin embargo, si ahora vemos una grabación de la evolución de un gas que se ha expandido hacia atrás (rebobinando), ¿cómo son las condiciones iniciales (que en realidad son las finales, pero que se transforman en las nuevas “iniciales” al ver la película hacia atrás) de las que parten las velocidades de las partículas? Bueno, lógicamente ahora no tiene sentido pensar en esas velocidades como variables independientes, sino que están sujetas a correlaciones horriblemente complicadas fruto de la evolución del gas a lo largo del tiempo. Así, esas condiciones finales (“iniciales” cuando empezamos a rebobinar) son unas muy concretas y muy distintas de unas condiciones iniciales típicas que encontraríamos simulando aleatoriamente cada velocidad de cada partícula por separado de forma independiente. Ese hecho supone una ruptura fundamental de la simetría bajo inversión temporal, y por sí solo da buena cuenta, al menos conceptualmente, de la paradoja de Loschmidt.

Así, aunque algunos han querido entender que la paradoja de Loschmidt no se puede resolver sin acudir a la Mecánica Cuántica, o que la ireversibilidad está ligada al Problema de la Medida y al colapso de la función de ondas, lo cierto es que tanto esta paradoja como la emergencia de la irreversibilidad son cosas completamente comprensibles en el contexto de la Física Clásica.

Aún habiendo entendido como matemáticamente es compatible la emergencia de la irreversibilidad en nuestros modelos de estudio de la naturaleza con las leyes fundamentales en que se basan esos modelos, la naturaleza del tiempo tiene otras características radicalmente sorprendentes de las que todavía no he hablado, y es por eso que me gustaría comentar brevemente lo que la Teoría de la Relatividad nos enseña a ese respecto.

Lo cierto es que creo que esto es muy importante porque no habido ninguna filosofía del tiempo que no sea superficial hasta el desarrolló de la Teoría de la Relatividad. Con lo de “superficial” no pretendo ser despreciativo, sino simplemente descriptivo. Con la poca comprensión matemática y física que había del tiempo antes del siglo XX, no había nada muy interesante que hacer con este tema, y me parece un error creer que es muy relevante o profundo lo que dijeron filósofos antiguos, medievales o modernos acerca del tiempo en el pasado, antes de la Relatividad. Por supuesto, podemos valorar sus aportaciones a un nivel histórico y evaluar su pensamiento en relación al contexto en que lo desarrollaron, pero de cara a comprender el tiempo son otras cosas a las que tenemos que atender. Por ejemplo, la Física de Aristóteles tiene un importantísimo valor cultural e histórico, pero a nivel científico está plagada de errores, de cosas que son simplemente falsas, y aunque, como digo, es una obra importante para el estudio de la cultura y el pensamiento, sería ridículo pretender que se trata de algo relevante para la comprensión de la naturaleza.
Hasta comenzado el siglo XX, el tiempo era concebido como algo absoluto, único. Había un presente, un pasado, un futuro. De hecho, la mayoría de la gente, a nivel intuitivo (y aunque no hayan pensado sobre ello), tienen estas concepciones. El debate sobre si el tiempo es lineal o cíclico, trascendente como puede ser, pierde importancia en la ciencia frente a estas otras ideas que la Relatividad demolió y demostró falsas. La constancia de la velocidad de la luz en todo sistema de referencia implica automáticamente la dilatación de los tiempos para un sistema en movimiento. Ese hecho, implícito en las ecuaciones del electromagnetismo, es en la actualidad comprobado rutinariamente con relojes de alta precisión. Si yo voy en tren y mi hermana se queda en casa, cuando pare habrá pasado menos tiempo para mí. Mi reloj habrá hecho tic menos veces. Gracias a que la velocidad de la luz es altísima comparada con las velocidades típicas de la experiencia humana, este hecho está muy lejos de ser intuitivo, ya que la diferencia se encuentra en una pequeñísima cifra decimal que, desde luego, el reloj de mi teléfono móvil es incapaz de detectar. Las masas tienen un efecto parecido, cosa que se entendió con la Teoría General de la Relatividad. Más cerca de la superficie de la tierra el tiempo transcurre más despacio que en una nube. Estos hechos fantásticos, objetivos y sorprendentes han aportado más a actualizar nuestra manera de entender el tiempo que todas las páginas infumables que produjo Heidegger. Más allá de eso, como explica Carlo Rovelli en su librito "El orden del tiempo", que recomiendo encarecidamente y que es una estupenda obra de divulgación científica, la noción de presente es imprecisa. No tiene sentido preguntarse qué está pasando "ahora" en Andrómeda. La noción del ahora depende de manera crucial del estado de movimiento del observador, y cualquier par de eventos que no estén conectados causalmente en el sentido de que no estén uno dentro del cono de luz del otro pueden ocurrir o bien en un orden o bien en el contrario depende del sistema de referencia que se elija. Creo que el hecho -bien conocido por los físicos pero increíblemente poco divulgado- de que el "ahora" es una noción sin valor absoluto y que no existe un "ahora" común válido para todo el universo es una de las conclusiones más sorprendentes de la ciencia, y cualquier filosofía sobre el tiempo que no la incorpore explícitamente está condenada a la superficialidad. La intuición que tenemos sobre que el "ahora" sí es algo preciso nace del hecho de que en la Tierra y a las velocidades a las que nos desplazamos los efectos relativistas son despreciables (para casi todo... ¡ojo! hay que tenerlos en cuenta para programar los GPS's, algo que sin duda habría emocionado a Einstein) y los desfases entre distintos "ahoras" están en el orden de unos pocos nanosegundos, lo cual es imperceptible para el cerebro humano.

El tiempo no es pues una simple estructura monolítica con una capa de presente y una de pasado y otra de futuro bien diferenciadas. La realidad del tiempo es algo mucho más rico y desafiante. Es por eso que creo la gramática de todos los lenguajes humanos es pobre para captar las complejas estratificaciones del tiempo, que, dice Octavio Paz, "en vivientes fragmentos divide al que fui del que seré".
Lo menciono porque el "Soy, fui, seré" es, por supuesto, suficiente para encapsular lo que es nuestra experiencia vital del tiempo, y no necesitamos más tiempos verbales para distinguir esos "vivientes fragmentos" en los que sin duda queda dividida nuestra vida. Pero al hablar de sucesos más allá de nuestra experiencia, de lo que acontece en general en la realidad, sin duda nuestros sistemas verbales, crecidos en el contexto de un mundo ajeno a la relatividad, están sin duda infra-preparados. Y es por eso que debemos ser especialmente cautelosos al describir la naturaleza del tiempo, pues está claro que ese trata de un campo donde la hipótesis de Sapir-Whorf sobre la influencia del lenguaje en el pensamiento resuena especialmente: nuestra manera de incluir el tiempo en nuestros idiomas lleva implícita una ontología concreta del mismo.

Por supuesto, no quiero dar la impresión de que entendemos de manera perfecta qué es el tiempo, en qué consiste el fluir del tiempo o qué es el pasado y el futuro. Nada más lejos de la realidad. Hemos aprendido muchísimas cosas, particularmente en los últimos doscientos años (¡y particularmente en los últimos cien!), pero aún el tiempo es la cosa más misteriosa y extraña que hay, y no me parece probable que deje de serlo por mucho “tiempo” (badabum, tsss). Me paro en un sitio silencioso sin hacer nada. No hay distracciones, trato de no pensar, pero hay algo que está pasando. El tiempo sigue transcurriendo. ¿Qué quiere decir eso? Recuerdo lo que hice ayer, pero no recuerdo lo que haré mañana. ¿Es extraño o natural? ¿Por qué existe el tiempo? ¿Existe acaso? ¿Cuál es la diferencia entre pasado y futuro? ¿Y qué es el presente? Plantear las preguntas correctas es el primer paso, pero siento que para ello, en lo concerniente al tiempo, los lenguajes humanos se quedan cortos. Bergson caracterizó el tiempo como "lo que no puede conceptualizarse". Pasado, presente y futuro son sólo una aproximación de primer orden a una realidad de complejas estratificaciones que dista mucho de la concepción absolutista del pensamiento newtoniano. El tiempo es pérdida, es olvido. Los recuerdos tienen un sabor doloroso a inmaterialidad. Olvidar detalles es hacer irreal algo. Pero el recuerdo lúcido puede ser peor, es como una fotografía vieja de personas muertas. ¿De qué manera es real lo que sucedió? Sólo creer en la noción de causa puede dar un sentido a esa pregunta. La causalidad es la memoria del mundo. ¿Pero y cuando ésta no se puede rastrear en el presente? Pienso en mi infancia como una realidad, pero la mayor parte de ella es una oscuridad de detalles olvidados e irrecuperables, que podrían haber sido de miles de formas distintas a la forma en que de hecho fueron. Borges se consolaba obligándose a una creencia metafísica:

"sé que en la eternidad perdura y arde
lo mucho y lo precioso que he perdido:
esa fragua, esa luna y esa tarde."

Pero no sabemos dónde está esa eternidad, y de esa fragua y esa luna y esa tarde hoy sólo nos queda ese poema.

Que el tiempo es enteramente subjetivo y no una realidad objetiva extramental e indepediente de la experiencia humana es una especulación fantasiosa muy agradable con la que muchos han jugado, desde Agustín de Hipona hasta Kant, sin que nunca nada de todo ello haya contribuido a aclarar qué es el tiempo o cómo surge en la experiencia. Creo que algo sólido que claramente podemos aprender de la Relatividad y la Termodinámica y la Física en general es que el tiempo es, fuera de toda duda, algo muy real y en absoluto subjetivo. O, mejor dicho, corresponde a algo muy real y en absoluto subjetivo: el cambio. El cambio existe de manera objetiva en las entidades materiales del mundo, y el tiempo es simplemente una manera ordenada de describir eso. Ocurre que, por las escalas de energía que típicamente experimentamos en nuestro día a día, nos encontramos en un límite (no relativista) en que nuestra experiencia de la totalidad de esos cambios que acontecen, de eso que llamamos tiempo, aparenta ser muy simple, engañosamente simple. La Relatividad muestra que la estructura relacional (entre sistemas de referencia) de los procesos de cambio es algo complejo y que no tiene sentido la noción de ahora, y que cada punto del espacio tiene un pasado distinto. Hay infinidad puntos (realmente eventos, siendo un poco más técnicos. Un evento es unas coordenadas espaciales y una temporal) del espacio-tiempo para los cuales la Segunda Guerra Mundial no está en su pasado, por ejemplo. Aunque todo esto pueda ser abstracto, es importante entender que nos enseña algo profundo e impresionante sobre la naturaleza de lo que hemos venido a llamar tiempo.

Volviendo al problema de la irreversibilidad, que macroscópicamente parece manifestar en nuestra narices el flujo del tiempo, uno de los desarrollos recientes más interesantes -empezando a mediados de los años noventa- sobre entropía en física fuera del equilibrio es una familia de teoremas, llamados teoremas de fluctuación, que cuantifican de manera precisa cómo de probable es ver fluctuaciones en las que se observa decrecimiento de la entropía. El Teorema de Fluctuación de Evans-Searles (así llamado por sus autores, cuyo artículo pionero en 1994 abrió todo un nuevo tema de investigación en la Física del No Equilibrio), viene a decir que observar en un sistema una trayectoria hacia delante en el tiempo donde se está generando entropía (proceso irreversible) es exponencialmente más probable que observar la trayectoria “revertida” en el tiempo en que el sistema está perdiendo entropía (¡por lo que, al mirarlo, podría parecer que el sistema está yendo hacia atrás en el tiempo!). Aquí el “exponencialmente” no está usado, como muchas veces en el habla coloquial, como sinónimo del averbio “mucho”, sino que tiene un sentido cuantitativo preciso. La forma matemática del Teorema de Evans y Searles dice que, en efecto, ambas probabilidades están relacionadas por una función exponencial. Además, esa exponencial será tanto más grande cuanto más grande sea el tamaño de la fluctuación (la cantidad de entropía ganada o perdida) y la duración del proceso. En conclusión, los Teoremas de Fluctuación no sólo logran formular de una manera mucho más completa el Segundo Principio de la Termodinámica, sino que además logran dar una solución satisfactoria a la paradoja de Lochsmidt con precisión cuantitativa: las trajectorias “revertidas en el tiempo” pueden ocurrir perfectamente, pero son muy improbables y la mayor parte del tiempo no se dan. Estos “muy improbable” y “la mayor parte del tiempo”, como acabamos de ver, reciben una cuantificación precisa en el contexto de estos nuevos Teoremas de Fluctuación, de modo que no son simplemente cosas conceptuales vagas.

Comento como curiosidad que, en lo que respecta a violaciones de la Segunda Ley, hace muy poco (en noviembre de 2017) se ha dado a conocer un trabajo (“Reversing the thermodynamic arrow of time using quantum correlations ”) en el se logra preparar un sistema físico en el que el calor fluye espontáneamente de la parte fría a la parte caliente. Cuando esto ocurre se dice que el sistema tiene temperatura negativa, algo que se puede lograr preparando con extremo cuidado las correlaciones con las que se parte del estado inicial. Por raro que parezca, ¿por qué no? Esto no viola ninguna ley fundamental, no contradice las ecuaciones básicas de la cuántica, o las leyes clásicas del movimiento, ni tampoco la conservación de la energía (que es el Primer Principio de la Termodinámica). Lo que ocurre es que la cantidad de condiciones iniciales que pueden llevar a una tal situación (“temperatura negativa”) es despreciable frente al total de posibles condiciones iniciales. Sin embargo, con técnicas experimentales muy precisas, Resonancia Magnética Nuclear y Tomografía Cuántica (Quantum State Tomography), es posible lograr unas de esas extremadamente raras condiciones iniciales, que son las que uno encontraría si “viese hacia atrás” la película de la evolución de ese sistema en una situación típica. El sistema en que se observa esta transferencia de calor de la parte fría a la caliente es diminuta: un par de núcleos atómicos en una molécula pequeña. Así, en este experimento lo que se logra es algo así a un análogo microscópico del fenómeno de ver unos trozos de cristal en el suelo recomponerse hasta formar un vaso que salta de vuelta hasta la mesa desde la que se cayó. En la película 'Las Vidas Posibles de Mr. Nobody', donde se juega mucho con la idea del tiempo, se nos muestran imágenes como ésta: el humo volviendo al cigarro o la salsa de tomate separándose de la comida en el plato. No son fenómenos imposibles, simplemente extremadamente improbables, y esto es un enunciado tan fuerte como la imposibilidad. En el mundo macroscópico tenemos la emergencia de la irreversibilidad como un fenómeno estadístico esencial y este tipo de fluctuaciones 'a lo Mr. Nobody' se hacen monstruosamente improbables (¡Los Teoremas de Fluctuación de Evans y Searles cuantifican cuánto de improbables!), pero en el mundo microscópico es posible llegar a preparar sistemas donde se exhibe este sorprendente comportamiento en que parece que las cosas estányendo hacia atrás en el tiempo. En algunos medios españoles se hicieron eco de este artículo con titulares como “físicos logran que el tiempo fluya hacia atrás”, o cosas similares, pero el propio título del artículo aclara que lo que se revierte es la flecha termodinámica del tiempo, no el tiempo en sí -sea lo que sea eso-, lo cual, sin duda, sería algo mucho más extraño, incomprensible y sonado.

1"You should call it entropy, for two reasons. In the first place your uncertainty function has been used in statistical mechanics under that name, so it already has a name. In the second place, and more important, nobody knows what entropy really is, so in a debate you will always have the advantage." (Me encanta esta anécdota =) )

viernes, 15 de junio de 2018

El secreto de los emperadores: De Bizancio a Juego de Tronos

 En la primavera del año 674, una gran flota árabe del nuevo califato Omeya se adentraba en el Mar de Marmara hacia la capital del Imperio Bizantino (por entonces el Imperio Romano o de los Romanos, Imperium Romanorum ), Constantinopla. Desgastado por guerras contra eslavos, búlgaros, los ya caídos sasánidas, la nueva amenaza lombarda, y más recientemente por los árabes, el Imperio había tenido un respiro durante las guerras civiles musulmanas, pero Muawiya, primer califa de los Omeya, tras erigirse vencedor de éstas lanzó de inmediato una serie de ataques a gran escala contra Bizancio. Según cuenta Teófanes el Confesor, historiador que escribía aproximadamente un siglo después de los hechos, el asedio árabe a Constantinopla se extendió durante cuatro años en que los ejércitos omeyas establecieron una base permanente en Tracia y otros puntos costeros del Mar de Marmara. Tras derrocar a los sasánidas, los ejércitos árabes habían continuado su imparable expansión en busca de nuevas tierras, habiendo ya tomado Siria, Palestina y Egipto, y Constantinopla era el gran tapón cerrando una de las vías más importantes hacia el Occidente, por lo que la caída de ésta (que habría traído sin duda la caída de todo el Imperio Bizantino) habría sido absolutamente clave para el progreso y la riqueza de la nueva religión islámica.

Bizancio había perdido mucho de su esplendor territorial y del prestigio conferido por las conquistas de Justiniano, por lo que es perfectamente concebible que el Imperio hubiese colapsado y llegado a su fin en ese punto de la historia. 
El Emperador en el año 674, Constantino IV, se enfrentaba a esta gran crisis sin poder atender simultáneamente el asedio de los eslavos a Tesalonika, las guerras contra los búlgaros y los conflictos con el califato. 

La manera en que los bizantinos lograron ganar esta guerra y destrozar la flota omeya fue mediante un invento, una nueva arma cuyo diseño y funcionamiento detallado aún se desconocen a día de hoy: el llamado Fuego Griego. Funcionando a modo de un moderno lanzallamas moderno, este arma se implementaba en sifones portados en barcos de la flota bizantina y se lanzaba como sustancia líquida contra sus objetivos, produciendo grandes llamas que flotaban en el agua sin extinguirse.

El manuscrito Madrid Skylitzes, así llamado por el nombre del historiador que lo compuso en el siglo XII y por encontrarse en la Biblioteca Nacional de España, en Madrid, detalla el uso del fuego griego en diversas batallas e incluye famosas ilustraciones, como la de arriba, en que se puede ver a un navío bizantino incendiando a una embarcación de tropas eslavas.

Tras el asedio a Constantinopla, en el que la nueva arma fue absolutamente crucial para salvar la ciudad, los bizantinos emplearon extensivamente el fuego griego en multitud de conflictos. Un nuevo asedio árabe treinta años después (cuando el califato se había recuperado de su profunda derrota en el año 680) fue repelido gracias, de nuevo, al fuego griego. Asimismo, el arma fue usada, tanto en forma de sifones como en forma de granadas, en las duras guerras contra los búlgaros del siglo X , en la rebelión de los eslavos en el siglo IX, y en diversidad de conflictos civiles que se sucedieron a lo largo de los siglos.
Ilustraciones antiguas confirman que, en efecto, los soldados bizantinos disponían de "sifones de mano" para lanzar su fuego líquido contra los enemigos.
                                    El asalto a una torre mediante una escalera y un sifón de mano (la imagen de arriba es un un zoom de ésta. He extraído estas imágenes de Wikipedia y pertenecen a tratados militares bizantinos de Hero de Bizancio)

Aunque armas incendiarias ya habían sido utilizadas con anterioridad tanto por persas como por romanos, por ejemplo incorporando sustancias inflamables a flechas y cosas del estilo, nunca en la historia occidental había un ejército incorporado de forma tan masiva armas de fuego con un grado de sofisticación técnica tan elevado, y no fue hasta la invasión mongola del Siglo XIII que se vió en Europa algo parecido a una escala tan grande. 

                                                               (Granadas de mano de Fuego Griego halladas en trabajos arqueológicos)


Es fácil imaginar -como es el caso- que la receta para la fabricación del Fuego Griego era un importantísimo secreto de estado guardado con especial celo. Tal era el secretismo que existía respecto a ello, que a día de hoy se desconocen los detalles de cómo se fabricaba, y el tal secreto se perdió posiblemente durante la decadencia del Imperio Bizantino, en algún momento durante o después de la Dinastía de los Comneno. El Emperador macedonio Constantino Porfirogénito, en su obra De Administrando Imperio, afirma que el secreto del Fuego fue traído por un ángel a Constantino el Grande, Primer Emperador cristiano, que le ordenó fabricarlo exclusivamente en la ciudad imperial y que cierto oficial que trató de vender el secreto a los enemigos fue matado por una llama caída del cielo al ir a entrar a una iglesia. 

Más menciones importantes al fuego griego se encuentran por ejemplo en la Alexiada, un libro crucial de Historia Bizantina escrito en el siglo XI por Ana Comneno (junto a Irene de Atenas, quizá uno de los personajes femeninos del Imperio Bizantino más apasionantes de los que la historia ha dejado un rastro detallado), en el que se relatan las guerras de su padre, el Emperador Alejo, contra los cruzados, los normandos, los emergentes selyúcidas y otros pueblos. 
 "Puesto que el Emperador Alejo sabía de lo hábiles que eran los pisanos en mar y temía una batalla con ello, mando colocar en la proa de cada barco una cabeza metálica de león u otro animal terrestre con las fauces abiertas, logrando así que adquirieran un aspecto terrible. El fuego que había de dirigirse contra los enemigos mediante tubos se hacía pasar por las bocas abiertas de las bestias, y así parecía que éstas estaban vomitando fuego"
 Una receta parcial dada por la autora en el mismo libro, que se sabe que no es precisa del todo (¿querría ocultar el secreto en su tratado, o ni ella misma tendría acceso al mismo?) dice así:
"El fuego se hace así: Se obtiene resina de los pinos y de ciertas hojas perennes inflamables. Esto se  frota con azufre y se deposita en tubos vegetales, y los hombres lo soplan de modo violento y continuado, logrando así contacto con el fuego en la punta, lo que produce la llama que cae como un remolino furioso sobre las caras de los enemigos"

Entre los ingredientes que se juzgan probables están la cal (que se ha usado desde la antiguedad como un aglomerante fundamental en la construcción), el salitre (nitrato de potasio; obtenido de deshechos vegetales y animales y que explicaría el fenómeno de flotación en el agua), el fosfuro de calcio (que se puede conseguir hirviendo restos óseos y que es tóxico e inflamable) y el petróleo, al que los bizantinos tenían acceso mediante los pozos naturales en torno al Mar Negro y que le haría un "pariente" al moderno Napalm (muy utizado por el ejército estadounidense durante la Segunda Guerra Mundial y las Guerras de Corea y Vietnam). 

Asimismo, los particulares del mecanismo por el que se lanzaba el Fuego Griego contra los enemigos tampoco está del todo aclarado. Se tienen relatos de testigos que lo vieron en acción, tanto de bizantinos como de extranjeros, como es el caso de Ingvar el Viajero, y se sabe con certeza del uso de proyectores tubulares, como el descrito por Ana Comneno. 
Algunos diseños experimentales modernos han tratado de reproducir las armas bizantinas, y aunque no podemos saber con certeza hasta que punto las reconstrucciones modernas se parecen a las clásicas, se han fabricado armas que son, al menos, versiones plausibles de lo que fue el Fuego Griego (La imagen de arriba corresponde a un diseño de John Haldon y Maurice Byrne, del que podéis encontrar más información en internet).

A lo largo de las décadas, el Fuego Griego fue mejorado y novedades técnicas fueron introducidas, siendo una de las más notables los ya mencionados sifones de mano (cheiroshipones) inventados por el Emperador León VI (llamado "El Sabio") en el siglo IX, y que fueron empleados contra torres de asedio y en batallas terrestres junto a las granadas.



El declive de Bizancio de finales del siglo XII se consumó con la toma y saqueo de Constantinopla por parte de los Cruzados en el 1204, como parte de la Cuarta Cruzada. Después de tal debacle, el Imperio Bizantino se desintegró y nunca se recuperó, a pesar de que la capital imperial fue recuperada por los Paleólogo a finales del mismo siglo. La ciudad cayó a los Otomanos finalmente en el 1453, y nunca más se volvió a ver al Fuego Griego en acción, cuyo secreto con toda seguridad se había perdido tiempo atrás. No obstante, los ejércitos mongoles que entraron en Europa, arrasando Hungría, Bohemia y otras regiones durante el siglo XIII, trajeron consigo la tecnología de la pólvora que había importado de los chinos, y con ello las armas de fuego comenzaron a extenderse y a popularizarse entre los ejércitos europeos.


   (Miniatura del siglo XV mostrando la toma de Constantinopla del 1204)


De la gran cantidad de influencias culturales y repercusiones que ha tenido en Occidente la historia del Fuego Griego, una de las más populares a día de hoy es, sin duda, el Fuego Valyrio (Wildfire) de Juego de Tronos, que es claramente una referencia. El Fuego Valyrio es un secreto de estado, algo oculto y misterioso, arde en el agua y es el responsable de repeler de manera decisiva el asedio del ejército de Stannis Baratheon a Desembarco del Rey en la Batalla de Aguasnegras...

jueves, 1 de marzo de 2018

Sophie Germain

Durante las Guerras Napoleónicas, soldados franceses tomaron la ciudad de Brauschweig, donde vivía y trabajaba Carl Friedrich Gauss, uno de los mayores genios matemáticos de todos los tiempos. Preocupada por el posible destino que pudiera aguardarle, Sophie Germain -francesa- escribió a un general amigo de su familia para que se encargara personalmente de asegurar que se respetara la vida de Gauss. Germain conocía en detalle las "Disquisitiones Arithmeticae" de Gauss, de casi su misma edad, y ambos se habían carteado durante años intercambiando ideas sobre teoría de números. Ella, sin embargo, usaba el pseudónimo "M. LeBlanc" , ya que nadie habría tomado en serio que una mujer tratara de hacer matemáticas en aquella época. A pesar de sus trabajos originales sobre el Último Teorema de Fermat y sus descubrimientos pioneros en la Teoría de la Elasticidad, nunca se le concedió una posición académica. Incluso su propia familia reprobaba su vocación científica, y a mí me gusta imaginar a una Sophie adolescente leyendo a escondidas a Euler y a Laplace a la luz de un candil bajo las sábanas. Pero, cuando a raíz de la invasión de Brauschweig, Gauss supo a través del mencionado general de la existencia de Sophie, descubriendo así accidentalmente que Monsieur LeBlanc era en realidad Madame Germain, le dirigió esta bonita carta, que si bien es poca y pobre recompensa para la injustamente ignorada genialidad de Germain, es al menos un emotivo y muy especial momento de la historia de las matemáticas que merece ser recordado:
"But how can I describe my astonishment and admiration on seeing my esteemed correspondent Monsieur LeBlanc metamorphosed into this celebrated person, yielding a copy so brilliant it is hard to believe? The taste for the abstract sciences in general and, above all, for the mysteries of numbers, is very rare: this is not surprising, since the charms of this sublime science in all their beauty reveal themselves only to those who have the courage to fathom them. But when a woman, because of her sex, our customs and prejudices, encounters infinitely more obstacles than men, in familiarizing herself with their knotty problems, yet overcomes these fetters and penetrates that which is most hidden, she doubtless has the most noble courage, extraordinary talent, and superior genius. Nothing could prove to me in a more flattering and less equivocal way that the attractions of that science, which have added so much joy to my life, are not chimerical, than the favor with which you have honored it.
[...]
The scientific notes with which your letters are so richly filled have given me a thousand pleasures. I have studied them with attention and I admire the ease with which you penetrate all branches of arithmetic, and the wisdom with which you generalize and perfect."

domingo, 8 de octubre de 2017

La estética matemática del ajedrez

"Existencia y unicidad" es una pareja de términos clave para entender en qué consiste el componente estético de las matemáticas, al igual que conceptos como "simetría" o "simplicidad", que están -quizá- mucho más promocionados (Estoy pensando en lo que se puede leer en los libros de Marcus du Sautoy o Brian Greene, por ejemplo). Recuerdo que había varios chistes que se metían con esa idea de que en las matemáticas uno solía podía probar en efecto la existencia de una solución y, con suerte, su unicidad (es decir, el hecho de que no podía existir ninguna otra solución). Por ejemplo, está ese típico de un matemático que se pierde en un bosque y después de horas pensando exclama "¡oh, hay solución... y además es única!" y ese tipo de cosas. Esos chistes, claro, supongo que los contábamos sobre todo en las clases de física (qué cosas, oye), donde tener una descripción concreta de la solución es que lo que te da de comer. Hasta en xkcd hay una viñeta aprovechando el tema, cómo no....



Más allá de la broma, está el hecho de que muchas veces en matemáticas se lidian con problemas muy complejos con unas exigencias de rigor muy altas y, desde ese punto de vista, probar la existencia y la unicidad es casi la totalidad de lo que puedes hacer, si es que se puede hacer (y será considerado, por supuesto, como "la solución al problema"). 

Bueno, más allá de todo esto, que comento así superficialmente y que no tiene mucho más (salvo que se quisiera hacer un estudio detallado sobre la estética de las matemáticas, en cuyo caso me parece algo esencial y que hay que entender con detalle; guiño, guiño, ¿por qué no hay alguien haciendo esto?), en este pequeño escrito completamente intrascendente para cualquier aspecto de vuestra vida y desentendido de cualquier problema de la realidad (y mira, qué descanso no tener que hablar de la realidad, en verdad), quería hablaros de porqué todo esto de la "existencia y la unicidad" es la clave que define, para mí, qué es la elegancia y la belleza en ajedrez. Y, en concreto, en los problemas de ajedrez. 
[Nota: ¿Por qué me pongo a escribir sobre esta cosa? ¿Qué me pasa en el cerebro? Ayuda, esto no es una nota, os suplico ayuda]

Desde pequeño, el ajedrez ha sido una de mis aficiones favoritas. Desde que mi abuelo me enseñara, al estilo Capablanca, a manejar las posiciones con pocas piezas y los finales más sencillos, he jugado partidas, estudiado aperturas, seguido torneos,....   Una parte del ajedrez que, aunque siempre he tenido presente, nunca había valorado tanto como hasta ahora es el curioso mundo de los problemas y composiciones. Es muy típico, sobre todo cuando estás aprendiendo cosas básicas de táctica y tal, que te den las típicas baterías de problemas de "mate en 2", "mate en 3", etcétera. Típicamente son posiciones de apariencia realista, que perfectamente podrían darse en una partida de verdad. Pero lo que realmente es otro mundo es toda esa colección inmensa de posiciones surrealistas y fantasiosas donde usualmente la ventaja material es aplastantemente decisiva y lo que se nos pide es (¡qué irritación!) la cursilería de dar un mate en tres ("por dios, he tardado treinta segundo en encontrar un mate en cuatro, ¿de verdad quieres que siga otros diez minutos buscando tu mate en tres?"). Pues bien, lo que quiero contar es que son precisamente este tipo de problemas, las composiciones ajedrecísticas, las que poseen un tipo de belleza más sutil, profunda y matemática ("esa belleza fría y austera...") que cualquier otra parte del ajedrez. La clave de este tipo de problemas no es la tontería de dar un mate en tres en lugar de en cuatro, "porque en una partida de verdad me valdría dar el de cuatro". No. La clave está en que este tipo de composiciones, muy ingeniosas siempre, presentan posiciones donde existe una única solución como la que se pide (igual hay muchos mates en cuatro, ¡pero sólo hay UN mate en tres!) y en donde todas las piezas y sus ubicaciones son necesarias y suficientes para desarrollar la idea del problema. Ésta es la esencia de la belleza en una composición ajedrecística. Veámoslo con un ejemplo, creado por el alemán Hoffmann en 1887 y que es el primer problema que os encontraréis si abrís Problemas para gente sin problemas, que es un librito pequeño y maravilloso que recomiendo muchísimo a cualquiera que le guste el ajedrez.:





En esta posición, las blancas juegan y dan mate en tres jugadas. Sí, lo sé. Cualquiera con un entrenamiento básico sabe que coronando Dama en c8, e8 o g8 se puede ganar fácilmente en pocas jugadas. Pero ésa no es la cuestión. La cuestión es que, como ya os he anticipado, sólo hay una manera de ganar en exactamente tres jugadas y, sorpresa sorpresa, ¡esa manera no involucra coronar una Dama en ningún lado! La sorpresa, ay. Otro elemento clave de la experiencia estética que es tan fundamental en el ajedrez. Es muy típico lo de explotar los temas de coronación de piezas menores, porque resulta fácilmente espectacular. La primera jugada de las blancas en este problema [SPOILERS AHEAD] es un alarde de elegancia que explota al máximo la simetría del tablero:

1. e8=A!!  

Bien, primer punto, coronación en Alfil. ¿Qué contestan las negras? Digamos que capturan en f6

1...Rxf6 (la captura en d6 lleva a una solución simétrica, como podréis comprobar)

¿Y qué hacen las blancas a continuación? ¡Ojito con esa mano que se va a coronar Dama!  El ahogado (dejar al enemigo sin movimientos legales, produciendo así las tablas, es otro elemento con el que se juega muchísimo en las composiciones) le daría un buen respiro al rey negro.... Sí, por supuesto. Lo que hay que jugar es....

2.g8=T!!





La cosa está ya decidida. Es fácil ver cómo ahora la única posibilidad de las negras es 2... Re6 a lo que sigue 3.Tg6++, ¡toma ya!  Ninguna otra secuencia lleva al mate en tres (está, por supuesto, la opción simétrica si el negro capturara en d6, pero la unicidad se da en el sentido de que las blancas sólo tienen una opción a cada paso).

Se puede notar, además, cómo otra característica de este problema es que absolutamente todas las piezas de este problema juegan un papel esencial, necesario y suficiente. Hasta la posición del rey blanco es fundamental. ¿No es una pasada de elegancia? Además, este problema tiene algo más que por supuesto llama la atención: la simetría. En fin, un 10 para Hoffmann. Éste problema me encanta y pasó un tiempo después de resolverlo, cuando lo vi por primera vez, hasta que me di cuenta de por qué me gusta tanto: ¡su belleza es completamente matemática!  La experiencia estética es muy similar a la que uno puede tener con un teorema bonito e interesante.

En definitiva, me he tirado el pisto y he pensando que las siguientes reglas definen lo que para mí es una buena composición de ajedrez (en el sentido de que posean una belleza lo más matemática posible):

-La solución debe ser única (en el sentido de que la secuencia de jugadas de las blancas debe ser una secuencia de únicas)

-Cada una de las piezas en el tablero y su ubicación, ya sea ayudando al mate u obstaculizándolo (ojo, ambas cosas pueden ser hechas por piezas de cualquiera de los dos bandos), debe ser necesaria para el tema de la composición.

-La secuencia tiene que incluir el elemento sorpresa, que puede venir por coronaciones de piezas menores, rupturas de simetrías, desplazamientos de larga distancia (los típicos barridos de larga distancia con la dama para irse a una posición insulsa) o movimientos aparentemente pasivos.

-Tiene que haber "trampas". Es decir, esos momentos de "¡Ah, ya..! ah, no". El problema es tanto más bonito cuantas más ideas haya que parezcan funcionar, pero que realmente fracasen.

El libro de René Mayer que he comentado -lo podéis encontrar en Madrid en La Casa del Ajedrez, por ejemplo- es uno de los mejores regalos que creo que se le puede hacer a alguien que le guste el ajedrez. Ejemplos como el del diagrama de arriba hay a centenares, y en concreto en este libro hay 192 composiciones (algunas mejores que otras, pero todas muy divertidas y prácticamente todas con el estilo estético de la que hemos comentado) más luego una colección de problemas lógicos relacionados con el ajedrez que también son muy divertidos. Son esos primeros 192 problemas, más muchos más que se pueden encontrar fácilmente en Internet, en los que me baso para decir NO ya que las reglas que he escrito arriba son las que debéis seguir para componer un buen problema de ajedrez (aunque realmente así lo creo), no, SINO que son esas reglas las que, de manera inconsciente, se han aceptado por la comunidad ajedrecística como los aspectos abstractos que hacen que un problema sea bonito y admirable. Es decir, de alguna manera con esas reglas no estoy tratando de dar directrices a nadie, sino que he intentado destilar cuáles son las ideas y motivos que hacen que los ajedrecistas disfruten y valoren una composición concreta. Y, no muy sorprendentemente,  esas ideas y motivos son genuinamente matemáticas.

Ojo. Lo que he dicho se refiere a las composiciones más clásicas de ajedrez, las de "mate en N" con pocas piezas y tal. Hay toda una familia de tipos de problemas, más surrealistas aún, en que se preguntan cosas como "¿cómo se pudo llegar a esta posición?" o "¿cómo no dar mate?". Algunas composiciones son casi un chiste, como el "Excelsior" de Sam Loyd, que es el más genial problemista de toda la historia, porque conseguía crear problemas monstruosamente originales, divertidos y difíciles saltándose a la torera cuando le venía en gana las reglas que yo he dictado -que si bien nadie enunció, creo que todo el mundo sabía que había de respetar, al menos a un nivel inconsciente-.  Pero bueno, yo estoy contando algo más bien clasiquete, que se aplica a más de tres cuartas partes de las composiciones de ajedrez que existen (en mi opinión), así que no me mareéis la perdiz con Sam Loyd y compañía, que sería un poco como refutar la Poética de Aristóteles con un vídeo de los Monty Python (salvando las distancias: Ya sé que Aristóteles es mucho más complejo que esta chorrada que me he montado, aunque la verdad es que no jugaba tan bien al ajedrez)

Para rematar, os dejo otro problema, de nada menos que Anderssen (uno de los grandes ajedrecistas del periodo romántico; qué hacéis viendo mierdas ultra-computacionales de Kramnik, venga a ver partidas de Morphy y Anderssen) que conocí hace poco y que me encantó. Blancas juegan y dan mate en cinco jugadas. Este problema carece de ese elemento estético (que por regla general yo diría que es MUY importante) de que todas las piezas sean estrictamente necesarias y suficientes. No obstante, tiene algo muy bonito: Aparte de tener, por supuesto, una solución única, la posición es realista y de no encontrar la secuencia ganadora, la victoria sería para las negras. Es una composición anómala para ese canon de belleza que con tanto morro estoy definiendo aquí para los problemas de ajedrez, así que cuando lo vi lo desprecié como algo que "bah, no es tan matemático", pero según fui pensando en él me fue gustando más por lo que ya he dicho. Os lo dejo (sin solución), para que no penséis que soy inflexible y un hooligan de mi propia teoría estética (-:




A disfrutarlo.