Elaborado por Materia para OpenMind Recomendado por Materia
4
Inicio ¿Qué es la entropía? más allá del desorden
21 marzo 2023

¿Qué es la entropía? más allá del desorden

Tiempo estimado de lectura Tiempo 4 de lectura

Hay ciertas palabras capaces de adornar cualquier discurso o cita. “Entropía” es una de ellas. La encontramos en esas frases ininteligibles de algún famoso gurú espiritual, o incluso en la autoayuda o el coaching. Y naturalmente, todos sabemos lo que significa entropía: desorden. Si no ordenamos la casa, nos devora la entropía, decimos. Salvo que, en realidad, no es así: los físicos se desgañitan explicando que no, que entropía no significa desorden. Y sin embargo, con este sentido aproximado ha entrado a formar parte de un vocabulario que ya es casi popular. Pero ¿qué significa realmente la entropía?

El austriaco Ludwig Boltzmann introdujo la actual formulación de la entropía, dándole un sentido estadístico entendido como la distribución de probabilidad entre los diferentes microestados posibles. Crédito: Alamy Stock Photo

Cuando en 1865 el físico prusiano Rudolf Clausius definió la entropía, la idea del desorden estaba lejos de aparecer por ninguna parte. Clausius buscaba explicar matemáticamente el funcionamiento de la energía en la máquina de Carnot, un modelo optimizado de motor térmico —en el que se basó el motor diésel original— propuesto cuatro décadas antes por el francés Sadi Carnot. Para expresar el calor perdido no aprovechable definió la entropía —etimológicamente, una transformación del contenido de energía—, que mide cómo de forma espontánea un cuerpo caliente cede calor a otro frío mientras el sistema tiende al equilibrio, a menos que se interfiera para impedirlo. Y es por ello que “la entropía en sentido termodinámico es una energía dividida por una temperatura”, resume a OpenMind el químico-físico Emil Roduner, profesor emérito de la Universidad de Stuttgart (Alemania).

Este comportamiento espontáneo de un sistema es el fundamento básico de la segunda ley de la termodinámica, tal como fue intuido por Clausius años antes de su definición de la entropía. Al acuñar el término, el físico terminaba su trabajo resumiendo de este modo las dos primeras leyes de la termodinámica: “La energía del universo es constante”, y “La entropía del universo tiende al máximo”. Pero el término elegido por Clausius no ha facilitado la comprensión del concepto; según escribiría en 1968 el físico y Nobel Leon Cooper, al elegir el término entropía “en lugar de extraer una expresión del lenguaje común (digamos, calor perdido), [Clausius] logró acuñar una palabra que significaba lo mismo para todo el mundo: nada”. En 1904 el matemático especializado en termodinámica George H. Bryan escribía en Nature que la entropía es “el más difícil de todos los conceptos físicos”.

La formulación de la entropía

Años después de la definición de Clausius, el austriaco Ludwig Boltzmann introdujo la actual formulación de la entropía, dándole un sentido estadístico que relaciona los microestados de la materia (átomos, moléculas) con el macroestado (observable) del sistema. La definición de Boltzmann se refiere a la medida estadística del desorden, entendido como la distribución de probabilidad entre los diferentes microestados posibles. “Desorden es técnicamente incorrecto”, dice a OpenMind el físico teórico Peter Watson, profesor emérito de la Universidad Carleton (Canadá); “pero la idea es correcta, y si lo reemplazas por probabilidad, no tengo ningún problema”, añade.

Dan Styer explica la entropía con la analogía del aliño, que tiene separadas sus capas de aceite y vinagre, muy ordenadas, y sin embargo están en equilibrio, con máxima entropía. Crédito: Lisa Top/Getty Images

Watson pone un ejemplo: en una habitación hay seis átomos de gas. Que los seis estén en el mismo lado es improbable, una situación de baja entropía; lo más probable es una distribución de tres a cada lado. Esta tendencia al equilibrio se relaciona con la flecha del tiempo, un concepto ligado a la entropía, ya que trata de procesos irreversibles que solo se mueven en una dirección temporal. Este es uno de los motivos, según Watson, por los que probablemente no podamos viajar atrás en el tiempo, ya que esto violaría la segunda ley de la termodinámica, el aumento de la entropía.

El físico teórico Dan Styer, del Oberlin College (Ohio, EEUU), cita otra analogía que ayuda a desmontar la idea del desorden: un bote de vinagreta italiana tiene separadas sus capas de aceite y vinagre, muy ordenadas, y sin embargo está en equilibrio térmico, con máxima entropía. Styer prefiere otra palabra para explicar la entropía: libertad. Un club (macroestado) con normas más permisivas que otro permite a sus miembros (microestados) una mayor variedad de opciones. “Si hay más microestados correspondientes al macroestado, el macroestado tiene una mayor entropía”, resume a OpenMind. “Así que el club que da a sus miembros más libertad es análogo a un macroestado con entropía más alta”. Los microestados, aclara Styer, no tienen entropía, solo los macroestados.

La medida de la incertidumbre

Así, la idea del desorden es engañosa, salvo en los casos en que coincide con el significado real de la entropía, como en el caso de los gases, su campo original. Y según Roduner, también en otros ejemplos como la transición de un sólido a líquido y gas, o cuando vertemos una gota de tinta en un vaso de agua. Pero “la naturaleza es mucho más compleja”, advierte. “Muchas cosas parecen ocurrir espontáneamente, pero en la dirección equivocada”. La formación de un copo de nieve o de cualquier clase de materia viva son fenómenos que parecen ir en contra de la espontaneidad de los procesos naturales que conllevan un aumento de entropía.

BBVA-OpenMind-Yanes-La entropia no es desorden_3 La formación de un copo de nieve, por ejemplo, es un fenómeno que parece ir en contra de la espontaneidad de los procesos naturales que conllevan un aumento de entropía. Crédito: Martin Siepmann/Westend/Getty images
La formación de un copo de nieve, por ejemplo, es un fenómeno que parece ir en contra de la espontaneidad de los procesos naturales que conllevan un aumento de entropía. Crédito: Martin Siepmann/Westend/Getty images

¿Cómo es esto posible? “Este es uno de los malentendidos más comunes de la segunda ley de la termodinámica”, señala Roduner. “Aquí no tenemos un sistema aislado; tenemos un sistema de interés, y su entorno”. En estos casos no hay un equilibrio, sino un gradiente que guía la dirección del proceso; la entropía de un sistema puede disminuir espontáneamente si al mismo tiempo la de su entorno aumenta en mayor grado. Comprender esta idea fue lo que en la década de 1960 llevó al químico belga de origen ruso Ilya Prigogine a explicar cómo era termodinámicamente posible que la vida hubiera surgido a partir de sus componentes elementales, lo que a su vez fue una gran influencia en el desarrollo de la teoría del caos.

Esta aplicación de la entropía a la biología es un ejemplo de cómo el concepto se ha extendido a otros ámbitos. En 1948 el matemático e ingeniero Claude Shannon, considerado el padre de la teoría de la información, aplicó la idea de la entropía a la pérdida de información en las telecomunicaciones. Según apunta a OpenMind el físico Kevin Knuth, de la Universidad de Albany y director de la revista científica Entropy, en este sentido “la entropía es una medida de la incertidumbre y, como tal, tiene amplia aplicación a cualquier problema en el que uno está haciendo inferencias”. En 1957 el físico Edwin Jaynes aplicó de vuelta a la termodinámica el concepto de entropía introducido por Shannon para la información. “Es por esto que se confunde con el desorden, porque un sistema desordenado resulta en una gran incertidumbre”, dice Knuth; “pero el concepto principal es la incertidumbre, no el desorden”.

BBVA-OpenMind-Yanes-La entropia no es desorden_4 La entropía, señala Kevin Knuth, es una medida de la incertidumbre, por eso se confunde con el desorden, porque un sistema desordenado resulta en una gran incertidumbre. Crédito: Aaron Amat/Getty Images
La entropía, señala Kevin Knuth, es una medida de la incertidumbre, por eso se confunde con el desorden, porque un sistema desordenado resulta en una gran incertidumbre. Crédito: Aaron Amat/Getty Images

Y es un concepto tan importante, subraya Watson, como expresaban las palabras del dramaturgo inglés Tom Stoppard, en su obra de 1993, Arcadia: “El calor va al frío. Es una calle de un solo sentido. Tu té acabará a temperatura ambiente. Lo que le sucede a tu té le está ocurriendo a todo en todas partes. El sol y las estrellas. Tardará un tiempo, pero todos acabaremos a temperatura ambiente”.

Javier Yanes

@yanes68

 

Comentarios sobre esta publicación

El nombre no debe estar vacío
Escribe un comentario aquí…* (Máximo de 500 palabras)
El comentario no puede estar vacío
*Tu comentario será revisado antes de ser publicado
La comprobación captcha debe estar aprobada