¿Qué es la entropía?

La entropía es una magnitud termodinámica que mide el grado de probabilidad en la configuración de un sistema. A pesar de que se hable de que mide el desorden, esto no es exactamente cierto.

Entropía

Todo en el Universo, desde la formación de las estrellas hasta el funcionamiento de un ordenador, puede explicarse mediante la aplicación de leyes físicas. Es decir, ecuaciones que relacionan fenómenos naturales entre sí para encontrar la explicación lógica a lo que sucede en la naturaleza.

Y en lo que a leyes físicas se refiere, las de la termodinámica tienen un peso muy importante. Y es que esta rama de la Física estudia los fenómenos que tienen lugar en los cuerpos afectados por los intercambios de temperatura y por el flujo de energía entre ambos. Puede sonar muy complejo, pero, por ejemplo, un gas expandiéndose en un recipiente está sujeto a estas mismas leyes.

Pero surgió una pregunta: ¿por qué el gas ocupa todo el volumen de un recipiente si, según las leyes termodinámicas, no tendría por qué hacerlo? Aquí entra en juego un concepto que, pese a ser conocido por todos, es comprendido verdaderamente por muy pocos: la entropía.

Seguramente, has escuchado que es una magnitud termodinámica que mide el grado de desorden de un sistema y que siempre aumenta, por lo que todo en el Universo tiende al desorden. Pero esto no es exactamente cierto. En el artículo de hoy entenderás por fin qué es exactamente la entropía y te darás cuenta de que, en realidad, es mero sentido común.

¿Qué nos dice la segunda ley de la termodinámica?

No podemos aventurarnos a definir algo tan complejo como la entropía sin asentar antes unas bases. Debemos comprender qué es la termodinámica y, en especial, los cimientos de su segunda ley, que es donde entra en juego la entropía que nos reúne hoy aquí.

La termodinámica es, a grandes rasgos, la disciplina física que estudia las propiedades macroscópicas de la materia que está afectada por los fenómenos vinculados con el calor. Dicho de otra manera, es la rama Física cuyo origen se sitúa en el siglo XVII y que analiza cómo la temperatura determina la circulación de la energía y cómo esta, a su vez, induce el movimiento de las partículas.

Por lo tanto, mantiene su foco de atención en la energía calorífica, pues esta puede desencadenar todos los fenómenos que suceden a nuestro alrededor. Y es que las distintas formas de energía están estrechamente relacionadas. Pero lo importante hoy es que sus bases se encuentran en los cuatro principios o leyes de la termodinámica.

La ley “cero” es la del principio de equilibrio térmico (tan sencillo como que si A y B están a la misma temperatura y B y C están a la misma, entonces A y C tienen la misma temperatura). La primera ley es la de la conservación de la energía. Conocida por todos, este principio postula que la energía ni se crea ni se destruye. Solo puede transformarse o transferirse de un objeto a otro. Tenemos también la tercera ley, que nos dice que al llegar al cero absoluto de temperatura (-273,15 °C), cualquier proceso físico y energético se detiene. Pero, ¿y la segunda?

La segunda ley de la termodinámica es la del principio de la entropía. Esta ley nos dice que la cantidad de entropía en el Universo tiende a incrementarse con el tiempo. El aumento del desorden (aunque veremos que no es exactamente esto) es totalmente inevitable, pues los físicos se dieron cuenta de que el Cosmos está “dominado” por algo que no sabían qué era pero que hacía que todo tendiera al desorden.

Por mucho que intentaban encontrarla, eran incapaces de dar con la “fuerza” responsable de la entropía. ¿Qué era lo que impulsaba a este desorden? Bueno, la respuesta llegó a mediados del siglo XX y fue una verdadera sorpresa. Y es que quizás, la entropía es simplemente el sentido común aplicado al Universo. Y ahora entenderemos qué queremos decir con esto.

Segunda ley termodinámica

¿Qué es exactamente la entropía?

Si vienes en búsqueda de una definición, te la vamos a dar. Pero no esperes que sea sencilla. De hecho, ni siquiera podemos darte una 100% clara. Y es que al no ser una fuerza en el sentido estricto de la palabra, es complicado decir exactamente qué es la entropía.

Ahora bien, lo que sí que podemos decirte es qué no es: la entropía no es una magnitud que mide el grado de desorden de un sistema. Es curioso que, de todas las definiciones posibles, sea esta, la menos acertada, la que más ha calado en el pensamiento colectivo.

Pero, ¿qué es entonces la entropía? La entropía puede definirse como una magnitud termodinámica que mide el número de microestados equivalentes para un mismo macroestado de un sistema. ¿No te gusta esta definición porque no se entiende nada? No pasa nada. Hay otra.

La entropía también puede definirse como una magnitud termodinámica que mide el modo en el que un sistema aislado evoluciona hacia el estado estadísticamente más probable, con la combinatoria más favorable. ¿Tampoco? No pasa nada. Hay otra.

La entropía también puede definirse como una magnitud termodinámica que mide el grado en el que un sistema aislado evoluciona hacia un estado de mayor información perdida. ¿Tampoco? Bueno, pues se acaban las opciones.

Como mucho podemos decirte que la entropía, simbolizada como S, es el resultado del producto entre la constante de Boltzmann (k) y el logaritmo de W, que hace referencia al número de microestados que tienen la misma probabilidad de ocurrencia.

Sigue sin entenderse nada, ¿verdad? No pasa nada. Ahora entenderemos la entropía de una forma mucho más sencilla, con metáforas. Por ahora, quédate con esto: la entropía es una consecuencia de la probabilidad aplicada a la termodinámica. Aquello que sea más probable que suceda, sucederá. En lo que a combinatoria se refiere, la entropía hace que, por simple estadística, el Universo tienda al desorden. Bueno, más que al desorden, a lo más posible. Y como lo más posible suele coincidir con lo más desordenado, de ahí viene su incorrecta definición.

Qué es entropía

Ahora sí que entenderás la entropía: probabilidad y desorden

Imagina que voy a tirar un solo dado y te pregunto cuál crees que es el número que va a salir. A no ser que seas vidente, deberías decirme que todos tienen la misma probabilidad de salir. Es decir, una entre seis. Ahora bien, si tiro dos dados a la vez y te pregunto cuál crees que es la suma que saldrá, las cosas se ponen un poco más complicadas, ¿verdad?

Tus opciones van desde el 2 (en caso de que en un dado salga 1 y en el otro también) hasta el 12 (en caso de que en un dado salga 6 y en el otro también). ¿Qué me dirías? Que te deje en paz, ¿verdad? Respetable, pero estate atento a lo que te voy a decir.

Si piensas que todas las sumas tienen la misma probabilidad de aparecer, es comprensible, pero estás un poco equivocado. Pensemos en términos estadísticos. ¿De cuántas maneras puede conseguirse la suma 2? Solo de una manera: 1 + 1. ¿Y la suma 3? Ojo, de dos maneras: 1 + 2 y 2 +1. ¿Y la suma 4? Cuidado, de tres maneras: 1 + 3, 3 + 1 o 2 + 2. ¿Y la suma 12? De nuevo, de una sola manera: 6 + 6.

¿Ves por dónde van los tiros? Ahora tienes que hacer un acto de fe y creerme cuando te digo que es la suma 7 la que puede obtenerse con más combinaciones. Por lo tanto, si fueras un genio de las matemáticas tendrías que haberme dicho que me saldría la suma 7.

Estadísticamente hablando, las probabilidades hubieran estado de tu parte. Lo más probable que salga es, sin duda, la suma 7, pues es la que puede obtenerse de más formas diferentes. A mayor número de combinaciones posibles para un resultado, más probable es que obtengas ese resultado en cuestión.

Pero, ¿qué tienen que ver los dados con la entropía? Básicamente, todo. Y es el que el Universo se rige por este mismo principio que, pese a haber trivializado con él hablando de apuestas con dados, es muy serio: el estado inespecífico (en nuestro caso, la suma 7) que observaremos con mayor probabilidad a nivel macroscópico es aquel que cuenta con un mayor número de estados específicos (todas las combinaciones de dados que dan la suma 7).

Y es que si extrapolamos esto no con dos dados, sino con millones de millones de millones de átomos y moléculas, ¿con qué nos encontramos? Con que hay un estado inespecífico que engloba prácticamente todos los estados específicos. En otras palabras, hay trillones de combinaciones que dan lugar a ese estado inespecífico pero muy pocas que dan lugar a otros estados distintos.

Y esto se relaciona directamente con la entropía. La entropía no es ninguna fuerza ni ley física, simplemente es una consecuencia de dos factores que se dan en el Universo: muchísimas partículas formando un mismo sistema y aleatoriedad dentro del mismo.

Esto hace que, por simple estadística, el sistema evolucione hacia el estado más probable. En otras palabras, evoluciona hacia aquel estado que surge tras la combinatoria más posible, pues hay muchísimas confirmaciones que producen ese estado.

Que un gas ocupe todo el recipiente en el que se encuentra, aumentando su desorden, es consecuencia de que haya una fuerza que específicamente lo conduzca a hacerlo, ¿o esto simplemente deriva de que hay millones de millones de conformaciones de las moléculas del gas que llevan a que, a nivel macroscópico, veamos el gas ocupando todo el recipiente, mientras que la conformación que hace que se encuentre solo en una esquina es increíblemente poco probable?

Pues la entropía nos dice esto último. El desorden en el Universo no se da porque haya una fuerza que haga que todo tienda al desorden, sino porque a nivel estadístico, lo que nosotros entendemos como desorden es mucho más probable que el orden. ¿Cuántas conformaciones pueden hacer que unas moléculas estén perfectamente ordenadas en un sistema? Muy pocas. Poquísimas. ¿Y cuántas conformaciones pueden hacer que unas moléculas estén desordenadas? Muchas. Muchísimas. Casi infinitas.

Por lo tanto, ni en toda la edad del Universo ha habido el tiempo suficiente como para que las probabilidades hagan que un sistema tienda al orden. El orden molecular es tan increíblemente improbable que, técnicamente, es imposible.

De ahí que se diga que la entropía haga incrementar el desorden del Universo. Pero esto no es cierto. La entropía no es ninguna fuerza, sino una consecuencia de que los macroestados que osbervamos a nivel macroscópico sean el resultado de la suma de unos microestados más probables. Lo que sea estadísticamente más posible es lo que sucederá. Y a nivel molecular, el desorden es infinitamente más probable que el orden. La entropía es, si lo pensamos, sentido común.

Entropía desorden
El desorden es un conjunto de conformaciones más probable que el orden, pues este responde a muy pocas combinaciones. De aquí que el Universo tienda al desorden.
Comparte:
¿Te ha gustado?
MédicoPlus Logo
MédicoPlus te acerca al mundo de la medicina. Rigor científico y médico en cada artículo. Contacta con tu médico y mejora tu salud en tu portal especializado de confianza.
  • Estilonext
  • azsalud

Suscríbete a
nuestra newsletter

Cada semana te enviamos tips de salud,
nutrición, noticias y más.

Puedes darte de baja cuando quieras.

© Copyright 2024 MédicoPlus. Todos los derechos reservados.Aviso legal,política de privacidad,cookies