Entropía

1 Primera  Fuente
En termodinámica, la entropía (simbolizada como S) es una magnitud física que, mediante cálculo, permite determinar la parte de la energía que no puede utilizarse para producir trabajo. Es una función de estado de carácter extensivo y su valor, en un sistema aislado, crece en el transcurso de un proceso que se dé de forma natural. La entropía describe lo irreversible de los sistemas termodinámicos. La palabra entropía procede del griego (ἐντροπία) y significa evolución o transformación. Fue Rudolf Clausius quien le dio nombre y la desarrolló durante la década de 1850;1 2 y Ludwig Boltzmann, quien encontró en 1877 la manera de expresar matemáticamente este concepto, desde el punto de vista de la probabilidad.
 
Tomado de: es.wikipedia.org/wiki/Entrop%C3%ADa Año 2015 
 
2 Primera  Fuente
Medida del desorden molecular de una materia o sustancia:
 
 
3 Primera  Fuente
El segundo principio de la termodinámica establece el crecimiento de la entropía, es decir, la máxima probabilidad de los sistemas es su progresiva desorganización y, finalmente, su homogeneización con el ambiente. Los sistemas cerrados están irremediablemente condenados a la desorganización. No obstante hay sistemas que, al menos temporalmente, revierten esta tendencia al aumentar sus estados de organización (negentropía, información).
 
 
Aporte Personal:
la entropia seria casi similar al significado de caos, porque se refiere a un desorden aplicado a cualquier cosa, ya sea una organizacion o cuando tu estas enfermos tu sistema esta en entropia.