SlideShare una empresa de Scribd logo
1 de 15
Alumno: Bill antony Zabala Paima
Entropía
La entropía es una magnitud física que, mediante cálculo, permite
determinar la parte de la energía que no puede utilizarse para
producir trabajo. Es una función de estado función de estado de
carácter extensivo y su valor, en un sistema aislado, crece en el
transcurso de un proceso que se dé de forma natural. La entropía
describe lo irreversible de los sistemas termodinámicos. La palabra
entropía procede del griego (ἐντροπία) y significa evolución o
transformación.
Esta idea de desorden termodinámico fue plasmada mediante
una función ideada por Rudolf Clausius a partir de un proceso cíclico
reversible. En todo proceso reversible la integral curvilínea de sólo
depende de los estados inicial y final, con independencia del camino
seguido (δQ es la cantidad de calor absorbida en el proceso en
cuestión y Tes la temperatura absoluta). Por tanto, ha de existir
una función del estado del sistema, S=f(P,V,T),
denominada entropía, cuya variación en un proceso reversible entre
los estados 1 y 2 es:
Ecuaciones
.
Téngase en cuenta que, como el calor no es una función de estado,
se usa δQ, en lugar de dQ.
La entropía física, en su forma clásica, está definida por la ecuación
siguiente:
o, más simplemente, cuando no se produce variación de temperatura
(proceso isotérmico):
donde S es la entropía, la cantidad de calor intercambiado entre el
sistema y el entorno y T la temperatura absoluta en kelvin.
Unidades: S=[cal/K]
Los números 1 y 2 se refieren a los estados iniciales y finales de un
sistema termodinámico
El significado de esta ecuación es el siguiente:
Las unidades de la entropía, en el Sistema Internacional, son el J/K
(o Clausius), definido como la variación de entropía que experimenta
un sistema cuando absorbe el calor de 1 julio (unidad) a la
temperatura de 1 kelvin.
Siendo el sumatorio de las i fuentes de calor de las que recibe o
transfiere calor el sistema y la temperatura de las fuentes. No
obstante, sumando un término positivo al segundo miembro,
podemos transformar de nuevo la expresión en una ecuación:
Significado
Cuando un sistema termodinámico pasa, en un proceso reversible e isotérmico, del
estado 1 al estado 2, el cambio en su entropía es igual a la cantidad de calor
intercambiado entre el sistema y el medio dividido por su temperatura absoluta.
Solo se pueden calcular variaciones de entropía. Para
calcular la entropía de un sistema, es necesario fijar la
entropía del mismo en un estado determinado. La tercera ley
de la termodinámica fija un estado estándar: para sistemas
químicamente puros, sin defectos estructurales en la red
cristalina, de densidad finita, la entropía es nula en el cero
absoluto
Esta magnitud permite definir la segunda ley de la
termodinámica, de la cual se deduce que un proceso tiende a
darse de forma espontánea en un cierto sentido solamente.
Por ejemplo: un vaso de agua no empieza a hervir por un
extremo y a congelarse por el otro de forma espontánea, aún
cuando siga cumpliéndose la condición de conservación de
la energía del sistema (la primera ley de la termodinámica).
Cero absoluto
La entropía global del sistema es la entropía del sistema
considerado más la entropía de los alrededores. También se
puede decir que la variación de entropía del universo, para un
proceso dado, es igual a su variación en el sistema más la de
los alrededores:
Si se trata de un proceso reversible, ΔS (universo) es cero, pues
el calor que el sistema absorbe o desprende es igual al trabajo
realizado. Pero esto es una situación ideal, ya que para que
esto ocurra los procesos han de ser extraordinariamente lentos,
y esta circunstancia no se da en la naturaleza. Por ejemplo, en
la expansión isotérmica (proceso isotérmico) de un gas,
considerando el proceso como reversible, todo el calor
absorbido del medio se transforma en trabajo y Q= -W. Pero en
la práctica real el trabajo es menor, ya que hay pérdidas por
rozamientos, por lo tanto, los procesos son irreversibles.
Entropía y reversibilidad
En los años 1890 - 1900 el físico austríaco Ludwig Boltzmann y otros
desarrollaron las ideas de lo que hoy se conoce como mecánica
estadística, teoría profundamente influenciada por el concepto de
entropía. Una de las teorías termodinámicas estadísticas (la teoría de
Maxwell-Boltzmann) establece la siguiente relación entre la entropía y la
probabilidad termodinámica:
donde S es la entropía, k la constante de Boltzmann y Ω el número de
microestados posibles para el sistema (ln es la función logaritmo
neperiano). La ecuación asume que todos los microestados tienen la
misma probabilidad de aparecer.
La ecuación se encuentra grabada sobre la lápida de la tumba de
Ludwig Boltzmann en el Zentralfriedhof (el cementerio central) de Viena.
Boltzmann se suicidó en 1906, profundamente deprimido, quizá por la
poca aceptación de sus teorías en el mundo académico de la época.
Interpretación estadística de la
entropía
Coloquialmente, suele considerarse que la entropía es el desorden
de un sistema, es decir, su grado de homogeneidad. Un ejemplo
doméstico sería el de lanzar un vaso de cristal al suelo: tenderá a
romperse y a esparcirse, mientras que jamás será posible que,
lanzando trozos de cristal, se construya un vaso por sí solo. Otro
ejemplo doméstico: imagínense dos envases de un litro de
capacidad que contienen, respectivamente, pintura blanca y pintura
negra; con una cucharita, se toma pintura blanca, se vierte en el
recipiente de pintura negra y se mezcla; luego se toma pintura negra
con la misma cucharita, se vierte en el recipiente de pintura blanca y
se mezclan; el proceso se repita hasta que se obtienen dos litros de
pintura gris, que no podrán reconvertirse en un litro de pintura blanca
y otro de pintura negra; la entropía del conjunto ha ido en aumento
hasta llegar a un máximo cuando los colores de ambos recipientes
son sensiblemente iguales (sistema homogéneo).
Entropía y desorden
A pesar de la identificación entre la entropía y el desorden, hay muchas
transiciones de fase en la que emerge una fase ordenada y al mismo tiempo, la
entropía aumenta. En este artículo se muestra que esta paradoja se resuelve
haciendo una interpretación literal de la famosa ecuación de Boltzmann S = k
log W. Podemos verlo en la segregación de una mezcla tipo coloide, por
ejemplo cuando el agua y aceite tienden a separarse. También en la
cristalización de esferas duras: cuando agitamos naranjas en un cesto, éstas se
ordenan de forma espontánea. De estos casos se deduce el concepto de fuerza
entrópica o interacción, muy útil en la ciencia de polímeros o ciencia coloidal.
Relación de la entropía con la teoría de la
información
Recientes estudios han podido establecer una relación entre la entropía física y la
entropía de la teoría de la información gracias a la revisión de la física de los
agujeros negros. Según la nueva teoría de Jacob D. Bekenstein el bit de
información sería equivalente a una superficie de valor 1/4 del área de Planck. De
hecho, en presencia de agujeros negros la segunda ley de la termodinámica sólo
puede cumplirse si se introduce la entropía generalizada o suma de la entropía
convencional (Sconv) más un factor dependiente del área total (A) de agujeros
negros existente en el universo, del siguiente modo:
Entropía como creadora de orden
La neguentropía o negantropía, también llamada entropía negativa o
sintropía, de un sistema vivo, es la entropía que el sistema exporta
para mantener su entropía baja; se encuentra en la intersección de la
entropía y la vida. Para compensar el proceso de degradación
sistémica a lo largo del tiempo, algunos sistemas abiertos consiguen
compensar su entropía natural con aportaciones de subsistemas con
los que se relacionan. Si en un sistema cerrado el proceso entrópico
no puede detenerse por sí solo, en un sistema abierto, la neguentropía
sería una resistencia sustentada en subsistemas vinculados que
reequilibran el sistema entrópico.
Neguentropía
El concepto de “entropía negativa” fue introducido por Erwin Schrödinger
(físico teórico, y uno de los padres de la mecánica cuántica) en su libro de
ciencia popular what is life?, publicado en 1943. Más tarde, Léon Brillouin
cambió la palabra por "neguentropía", para expresarla en una forma mucho
más “positiva”, diciendo que un sistema vivo importa neguentropía y la
almacena.
En el año 2009, Mahulikar & Herwig redefinieron la neguentropía de un
sub-sistema ordenado dinámicamente como el déficit de entropía
relacionado al caos que rodea al sub-sistema ordenado. De esta forma, las
unidades de la neguentropía son [J/kg-K] cuando se define con base en la
entropía por unidad de masa, mientras que cuando se define con base en
la entropía por unidad de energía las unidades son [K-1]. Esta definición ha
habilitado:
1. Representaciones termodinámicas a escala invariante de la existencia de
un orden dinámico,
2. pensamiento de principios físicos exclusivamente para la existencia de un
orden dinámico y evolución, y
3. la interpretación matemática de la neguentropía de Schrödinger.
Concepto de entropía negativa
Así como la entropía establece que la energía y cualquiera de sus formas de
manifestarse (ya sea en forma de materia, de plasma o radiación) tiende a
buscar un estado de equilibrio inexpresivo continuo, la neguentropía define la
energía como una serie de causas y efectos armónicamente acomodadas en las
que la suma total de los efectos armónicos dan como resultado un acople de
mayor magnitud que el original, siendo una forma de resonancia que da como
resultado paquetes de energía perfectamente utilizables por cualquier sistema
perceptor de sus efectos.
Teoría de la información
En la teoría de la información y la estadística, la neguentropía se usa como
medida de distancia de normalidad. Si se considera una señal con una cierta
distribución, y la señal es gausiana, ésta tendrá una distribución normal. La
neguentropía es siempre positiva, invariante a cambios de coordenadas
lineales, y se desvanece si y sólo si la señal es gausiana.
La neguentropía se define por:
Donde S(Φχ) es el diferencial de entropía de la densidad gausiana con la
misma media y varianza, mientras que pχ y S(pχ) es la entropía diferencial
de pχ:
Contrastes
Existe una magnitud física estrechamente vinculada a la energía
libre (entalpia libre), con una unidad de entropía isomórfica a la
neguentropía, conocida en estadística y en teoría de la información.
En 1873 Willard Gibbs creó un diagrama ilustrando del concepto de
energía libre correspondiente a entalpia libre. En el diagrama se
puede ver la cantidad llamada capacidad de la entropía. Dicha
cantidad es la entropía que se puede incrementar sin cambiar la
energía interna o aumentar el volumen. En otras palabras, se trata
de una diferencia entre el máximo posible, en condiciones de
asumir, la entropía y la entropía real.
Donde:
J - (“Capacidad para entropía” de Gibbs)
Phi – Potencial de Massieu
Z - Función de partición
k - Constante de Boltzman
Correlación entre neguentropía
estadística y energía libre de Gibbs
En 1988, basándose en la definición de entropía estadística de Shannon,
Mario Ludovico dio una definición formal al término sintropía, como una
medida del grado de organización interna de cualquier sistema formado
por componentes que interactúan entre sí. De acuerdo a esta definición,
la sintropía es una cantidad complementaria a la entropía.
La organización como sistema (abierto) esta constituido por los
elementos básicos de este (entradas, medio, salidas y
retroalimentación) y es en las entradas donde la información juega un
papel clave como medio regulador, medio neguentrópico, ya que a
través de ella se puede disminuir la cantidad de incertidumbre
(entropía). Se puede considerar a la información como elemento
generador de orden y como herramienta fundamental para la toma de
decisiones en la organización o en cualquier sistema en el que se
presenten situaciones de elección con múltiples alternativas.
En la gestión de riesgos, neguentropía es la fuerza que tiene por objeto
lograr un comportamiento organizacional eficaz y conducir a un estado
estacionario predecible.
Teoría de la organización

Más contenido relacionado

La actualidad más candente

Termodinámica unidad 3
Termodinámica unidad 3 Termodinámica unidad 3
Termodinámica unidad 3 a1237g
 
Primera ley de la termodinámica para sistemas cerrados UC
Primera ley de la termodinámica para sistemas cerrados UCPrimera ley de la termodinámica para sistemas cerrados UC
Primera ley de la termodinámica para sistemas cerrados UCRonald Alexander Medina Pinto
 
Conceptos Básicos De TermodináMica
Conceptos Básicos De TermodináMicaConceptos Básicos De TermodináMica
Conceptos Básicos De TermodináMicaGoogle
 
procesos adiabáticos, isotérmicos e isobáricos.
procesos adiabáticos, isotérmicos e isobáricos. procesos adiabáticos, isotérmicos e isobáricos.
procesos adiabáticos, isotérmicos e isobáricos. Carlos Ceniceros Gonzalez
 
Problemas resueltos termodinmica
Problemas resueltos termodinmicaProblemas resueltos termodinmica
Problemas resueltos termodinmicachocolatin
 
Clase no 3 termodinamica básica
Clase no 3 termodinamica básicaClase no 3 termodinamica básica
Clase no 3 termodinamica básicaAlex Pitti Zuleta
 
Ingenieria Quimica Tema: 2 Balance de Materia y Energia en Mezclado y Evapora...
Ingenieria Quimica Tema: 2 Balance de Materia y Energia en Mezclado y Evapora...Ingenieria Quimica Tema: 2 Balance de Materia y Energia en Mezclado y Evapora...
Ingenieria Quimica Tema: 2 Balance de Materia y Energia en Mezclado y Evapora...yusmely_zavala
 
Convección: Principios Básicos
Convección: Principios BásicosConvección: Principios Básicos
Convección: Principios BásicosEdisson Paguatian
 
Introducción a la Termodinamica
Introducción a la TermodinamicaIntroducción a la Termodinamica
Introducción a la TermodinamicaPablo Gandarilla C.
 
Tercera ley de la termodinamica
Tercera   ley de la termodinamicaTercera   ley de la termodinamica
Tercera ley de la termodinamicaRamon Lop-Mi
 
Tema 1 (conceptos básicos de la termodinámica.)
Tema 1 (conceptos básicos de la termodinámica.)Tema 1 (conceptos básicos de la termodinámica.)
Tema 1 (conceptos básicos de la termodinámica.)Christian Arias Vega
 

La actualidad más candente (20)

Ecuaciones de estado
Ecuaciones de estadoEcuaciones de estado
Ecuaciones de estado
 
Termodinámica unidad 3
Termodinámica unidad 3 Termodinámica unidad 3
Termodinámica unidad 3
 
Entropia (Fisica-Termodinamica)
Entropia (Fisica-Termodinamica)Entropia (Fisica-Termodinamica)
Entropia (Fisica-Termodinamica)
 
Segunda ley de la termodinamica
Segunda ley de la termodinamicaSegunda ley de la termodinamica
Segunda ley de la termodinamica
 
Leyes de la termodinámica
Leyes de la termodinámicaLeyes de la termodinámica
Leyes de la termodinámica
 
Primera ley de la termodinámica para sistemas cerrados UC
Primera ley de la termodinámica para sistemas cerrados UCPrimera ley de la termodinámica para sistemas cerrados UC
Primera ley de la termodinámica para sistemas cerrados UC
 
Conceptos Básicos De TermodináMica
Conceptos Básicos De TermodináMicaConceptos Básicos De TermodináMica
Conceptos Básicos De TermodináMica
 
procesos adiabáticos, isotérmicos e isobáricos.
procesos adiabáticos, isotérmicos e isobáricos. procesos adiabáticos, isotérmicos e isobáricos.
procesos adiabáticos, isotérmicos e isobáricos.
 
Joule thomson
Joule thomsonJoule thomson
Joule thomson
 
Entalpia
EntalpiaEntalpia
Entalpia
 
Problemas resueltos termodinmica
Problemas resueltos termodinmicaProblemas resueltos termodinmica
Problemas resueltos termodinmica
 
Entropia y entalpia_TERMODINAMICA
Entropia y entalpia_TERMODINAMICAEntropia y entalpia_TERMODINAMICA
Entropia y entalpia_TERMODINAMICA
 
Entropia
EntropiaEntropia
Entropia
 
Clase no 3 termodinamica básica
Clase no 3 termodinamica básicaClase no 3 termodinamica básica
Clase no 3 termodinamica básica
 
Entropía
EntropíaEntropía
Entropía
 
Ingenieria Quimica Tema: 2 Balance de Materia y Energia en Mezclado y Evapora...
Ingenieria Quimica Tema: 2 Balance de Materia y Energia en Mezclado y Evapora...Ingenieria Quimica Tema: 2 Balance de Materia y Energia en Mezclado y Evapora...
Ingenieria Quimica Tema: 2 Balance de Materia y Energia en Mezclado y Evapora...
 
Convección: Principios Básicos
Convección: Principios BásicosConvección: Principios Básicos
Convección: Principios Básicos
 
Introducción a la Termodinamica
Introducción a la TermodinamicaIntroducción a la Termodinamica
Introducción a la Termodinamica
 
Tercera ley de la termodinamica
Tercera   ley de la termodinamicaTercera   ley de la termodinamica
Tercera ley de la termodinamica
 
Tema 1 (conceptos básicos de la termodinámica.)
Tema 1 (conceptos básicos de la termodinámica.)Tema 1 (conceptos básicos de la termodinámica.)
Tema 1 (conceptos básicos de la termodinámica.)
 

Destacado

Conservación de energía, entropía y número de
Conservación de energía, entropía y número deConservación de energía, entropía y número de
Conservación de energía, entropía y número deroro270510
 
2q_u8d1
2q_u8d12q_u8d1
2q_u8d12qblog
 
Entropia y entalpia
Entropia y entalpiaEntropia y entalpia
Entropia y entalpiacharlote1829
 
01 teoría de la comunicación (john fiske) op
01 teoría de la comunicación (john fiske) op01 teoría de la comunicación (john fiske) op
01 teoría de la comunicación (john fiske) opÓscar Pech Lara
 

Destacado (7)

Conservación de energía, entropía y número de
Conservación de energía, entropía y número deConservación de energía, entropía y número de
Conservación de energía, entropía y número de
 
2q_u8d1
2q_u8d12q_u8d1
2q_u8d1
 
Física. Tema 10
Física. Tema 10Física. Tema 10
Física. Tema 10
 
Atex
AtexAtex
Atex
 
Entropia y entalpia
Entropia y entalpiaEntropia y entalpia
Entropia y entalpia
 
ENTALPIA
ENTALPIAENTALPIA
ENTALPIA
 
01 teoría de la comunicación (john fiske) op
01 teoría de la comunicación (john fiske) op01 teoría de la comunicación (john fiske) op
01 teoría de la comunicación (john fiske) op
 

Similar a Entropía

Similar a Entropía (20)

EntropíA
EntropíAEntropíA
EntropíA
 
Entropia
EntropiaEntropia
Entropia
 
Kevin sanches presentacion termodinamica
Kevin sanches presentacion termodinamicaKevin sanches presentacion termodinamica
Kevin sanches presentacion termodinamica
 
ENTROPIA
ENTROPIAENTROPIA
ENTROPIA
 
Enunciados De Entropia
Enunciados De EntropiaEnunciados De Entropia
Enunciados De Entropia
 
Entropia y neguentropia
Entropia y neguentropiaEntropia y neguentropia
Entropia y neguentropia
 
Termodinamica presentacion
Termodinamica presentacionTermodinamica presentacion
Termodinamica presentacion
 
Entropia
EntropiaEntropia
Entropia
 
termodinamica
termodinamicatermodinamica
termodinamica
 
Respuestassss
RespuestassssRespuestassss
Respuestassss
 
Termodinamica prueba
Termodinamica pruebaTermodinamica prueba
Termodinamica prueba
 
Termodinamica
TermodinamicaTermodinamica
Termodinamica
 
Entalpía
EntalpíaEntalpía
Entalpía
 
Termodinamica
TermodinamicaTermodinamica
Termodinamica
 
termodinamica
termodinamicatermodinamica
termodinamica
 
Sistema termodinamico
Sistema termodinamicoSistema termodinamico
Sistema termodinamico
 
termodinamica
termodinamicatermodinamica
termodinamica
 
Termodinamica
TermodinamicaTermodinamica
Termodinamica
 
Cuestionario de termoquímica (1)(1)
Cuestionario de termoquímica (1)(1)Cuestionario de termoquímica (1)(1)
Cuestionario de termoquímica (1)(1)
 
TEMAS SELECTOS DE FÍSICA
TEMAS SELECTOS DE FÍSICA TEMAS SELECTOS DE FÍSICA
TEMAS SELECTOS DE FÍSICA
 

Último

Patologia General DRA Tiñini Banknco.pdf
Patologia General DRA Tiñini Banknco.pdfPatologia General DRA Tiñini Banknco.pdf
Patologia General DRA Tiñini Banknco.pdfNATHALIENATIUSHKAESP
 
MODERNISMO VS POSMODERNISMO CUADRO SINOPTICO
MODERNISMO VS POSMODERNISMO CUADRO SINOPTICOMODERNISMO VS POSMODERNISMO CUADRO SINOPTICO
MODERNISMO VS POSMODERNISMO CUADRO SINOPTICOIreneGonzalez603427
 
1. PRESENTACION COSMOBIOLOGIA.pdf ler el texto
1. PRESENTACION COSMOBIOLOGIA.pdf  ler el texto1. PRESENTACION COSMOBIOLOGIA.pdf  ler el texto
1. PRESENTACION COSMOBIOLOGIA.pdf ler el textoangelcajo31
 
Uñas en Gel emprendedores CURSO-DE-UNAS-ACRILICAS.pdf
Uñas en Gel emprendedores CURSO-DE-UNAS-ACRILICAS.pdfUñas en Gel emprendedores CURSO-DE-UNAS-ACRILICAS.pdf
Uñas en Gel emprendedores CURSO-DE-UNAS-ACRILICAS.pdfCinthiaRivera31
 
DIARIO EL PERUANO 19-06-202hhhhhhhh3.pdf
DIARIO EL PERUANO 19-06-202hhhhhhhh3.pdfDIARIO EL PERUANO 19-06-202hhhhhhhh3.pdf
DIARIO EL PERUANO 19-06-202hhhhhhhh3.pdfhugorebaza00
 
CONTRATO DE TRABAJO, remuneraciones y otros datos
CONTRATO DE TRABAJO, remuneraciones y otros datosCONTRATO DE TRABAJO, remuneraciones y otros datos
CONTRATO DE TRABAJO, remuneraciones y otros datosJENNIFERBERARDI1
 
FASES DE LA CONSULTORÍA- parte 1aa.pptx
FASES DE LA CONSULTORÍA- parte 1aa.pptxFASES DE LA CONSULTORÍA- parte 1aa.pptx
FASES DE LA CONSULTORÍA- parte 1aa.pptx10ColungaFloresJosSa
 
¡Explora el boletín del 29 abril de 2024!
¡Explora el boletín del 29 abril de 2024!¡Explora el boletín del 29 abril de 2024!
¡Explora el boletín del 29 abril de 2024!Yes Europa
 
-PEIC-NUEVO de plantel educativo Venezuela
-PEIC-NUEVO de plantel educativo Venezuela-PEIC-NUEVO de plantel educativo Venezuela
-PEIC-NUEVO de plantel educativo VenezuelaJESUS341998
 

Último (9)

Patologia General DRA Tiñini Banknco.pdf
Patologia General DRA Tiñini Banknco.pdfPatologia General DRA Tiñini Banknco.pdf
Patologia General DRA Tiñini Banknco.pdf
 
MODERNISMO VS POSMODERNISMO CUADRO SINOPTICO
MODERNISMO VS POSMODERNISMO CUADRO SINOPTICOMODERNISMO VS POSMODERNISMO CUADRO SINOPTICO
MODERNISMO VS POSMODERNISMO CUADRO SINOPTICO
 
1. PRESENTACION COSMOBIOLOGIA.pdf ler el texto
1. PRESENTACION COSMOBIOLOGIA.pdf  ler el texto1. PRESENTACION COSMOBIOLOGIA.pdf  ler el texto
1. PRESENTACION COSMOBIOLOGIA.pdf ler el texto
 
Uñas en Gel emprendedores CURSO-DE-UNAS-ACRILICAS.pdf
Uñas en Gel emprendedores CURSO-DE-UNAS-ACRILICAS.pdfUñas en Gel emprendedores CURSO-DE-UNAS-ACRILICAS.pdf
Uñas en Gel emprendedores CURSO-DE-UNAS-ACRILICAS.pdf
 
DIARIO EL PERUANO 19-06-202hhhhhhhh3.pdf
DIARIO EL PERUANO 19-06-202hhhhhhhh3.pdfDIARIO EL PERUANO 19-06-202hhhhhhhh3.pdf
DIARIO EL PERUANO 19-06-202hhhhhhhh3.pdf
 
CONTRATO DE TRABAJO, remuneraciones y otros datos
CONTRATO DE TRABAJO, remuneraciones y otros datosCONTRATO DE TRABAJO, remuneraciones y otros datos
CONTRATO DE TRABAJO, remuneraciones y otros datos
 
FASES DE LA CONSULTORÍA- parte 1aa.pptx
FASES DE LA CONSULTORÍA- parte 1aa.pptxFASES DE LA CONSULTORÍA- parte 1aa.pptx
FASES DE LA CONSULTORÍA- parte 1aa.pptx
 
¡Explora el boletín del 29 abril de 2024!
¡Explora el boletín del 29 abril de 2024!¡Explora el boletín del 29 abril de 2024!
¡Explora el boletín del 29 abril de 2024!
 
-PEIC-NUEVO de plantel educativo Venezuela
-PEIC-NUEVO de plantel educativo Venezuela-PEIC-NUEVO de plantel educativo Venezuela
-PEIC-NUEVO de plantel educativo Venezuela
 

Entropía

  • 1. Alumno: Bill antony Zabala Paima
  • 2. Entropía La entropía es una magnitud física que, mediante cálculo, permite determinar la parte de la energía que no puede utilizarse para producir trabajo. Es una función de estado función de estado de carácter extensivo y su valor, en un sistema aislado, crece en el transcurso de un proceso que se dé de forma natural. La entropía describe lo irreversible de los sistemas termodinámicos. La palabra entropía procede del griego (ἐντροπία) y significa evolución o transformación.
  • 3. Esta idea de desorden termodinámico fue plasmada mediante una función ideada por Rudolf Clausius a partir de un proceso cíclico reversible. En todo proceso reversible la integral curvilínea de sólo depende de los estados inicial y final, con independencia del camino seguido (δQ es la cantidad de calor absorbida en el proceso en cuestión y Tes la temperatura absoluta). Por tanto, ha de existir una función del estado del sistema, S=f(P,V,T), denominada entropía, cuya variación en un proceso reversible entre los estados 1 y 2 es: Ecuaciones .
  • 4. Téngase en cuenta que, como el calor no es una función de estado, se usa δQ, en lugar de dQ. La entropía física, en su forma clásica, está definida por la ecuación siguiente: o, más simplemente, cuando no se produce variación de temperatura (proceso isotérmico): donde S es la entropía, la cantidad de calor intercambiado entre el sistema y el entorno y T la temperatura absoluta en kelvin. Unidades: S=[cal/K] Los números 1 y 2 se refieren a los estados iniciales y finales de un sistema termodinámico
  • 5. El significado de esta ecuación es el siguiente: Las unidades de la entropía, en el Sistema Internacional, son el J/K (o Clausius), definido como la variación de entropía que experimenta un sistema cuando absorbe el calor de 1 julio (unidad) a la temperatura de 1 kelvin. Siendo el sumatorio de las i fuentes de calor de las que recibe o transfiere calor el sistema y la temperatura de las fuentes. No obstante, sumando un término positivo al segundo miembro, podemos transformar de nuevo la expresión en una ecuación: Significado Cuando un sistema termodinámico pasa, en un proceso reversible e isotérmico, del estado 1 al estado 2, el cambio en su entropía es igual a la cantidad de calor intercambiado entre el sistema y el medio dividido por su temperatura absoluta.
  • 6. Solo se pueden calcular variaciones de entropía. Para calcular la entropía de un sistema, es necesario fijar la entropía del mismo en un estado determinado. La tercera ley de la termodinámica fija un estado estándar: para sistemas químicamente puros, sin defectos estructurales en la red cristalina, de densidad finita, la entropía es nula en el cero absoluto Esta magnitud permite definir la segunda ley de la termodinámica, de la cual se deduce que un proceso tiende a darse de forma espontánea en un cierto sentido solamente. Por ejemplo: un vaso de agua no empieza a hervir por un extremo y a congelarse por el otro de forma espontánea, aún cuando siga cumpliéndose la condición de conservación de la energía del sistema (la primera ley de la termodinámica). Cero absoluto
  • 7. La entropía global del sistema es la entropía del sistema considerado más la entropía de los alrededores. También se puede decir que la variación de entropía del universo, para un proceso dado, es igual a su variación en el sistema más la de los alrededores: Si se trata de un proceso reversible, ΔS (universo) es cero, pues el calor que el sistema absorbe o desprende es igual al trabajo realizado. Pero esto es una situación ideal, ya que para que esto ocurra los procesos han de ser extraordinariamente lentos, y esta circunstancia no se da en la naturaleza. Por ejemplo, en la expansión isotérmica (proceso isotérmico) de un gas, considerando el proceso como reversible, todo el calor absorbido del medio se transforma en trabajo y Q= -W. Pero en la práctica real el trabajo es menor, ya que hay pérdidas por rozamientos, por lo tanto, los procesos son irreversibles. Entropía y reversibilidad
  • 8. En los años 1890 - 1900 el físico austríaco Ludwig Boltzmann y otros desarrollaron las ideas de lo que hoy se conoce como mecánica estadística, teoría profundamente influenciada por el concepto de entropía. Una de las teorías termodinámicas estadísticas (la teoría de Maxwell-Boltzmann) establece la siguiente relación entre la entropía y la probabilidad termodinámica: donde S es la entropía, k la constante de Boltzmann y Ω el número de microestados posibles para el sistema (ln es la función logaritmo neperiano). La ecuación asume que todos los microestados tienen la misma probabilidad de aparecer. La ecuación se encuentra grabada sobre la lápida de la tumba de Ludwig Boltzmann en el Zentralfriedhof (el cementerio central) de Viena. Boltzmann se suicidó en 1906, profundamente deprimido, quizá por la poca aceptación de sus teorías en el mundo académico de la época. Interpretación estadística de la entropía
  • 9. Coloquialmente, suele considerarse que la entropía es el desorden de un sistema, es decir, su grado de homogeneidad. Un ejemplo doméstico sería el de lanzar un vaso de cristal al suelo: tenderá a romperse y a esparcirse, mientras que jamás será posible que, lanzando trozos de cristal, se construya un vaso por sí solo. Otro ejemplo doméstico: imagínense dos envases de un litro de capacidad que contienen, respectivamente, pintura blanca y pintura negra; con una cucharita, se toma pintura blanca, se vierte en el recipiente de pintura negra y se mezcla; luego se toma pintura negra con la misma cucharita, se vierte en el recipiente de pintura blanca y se mezclan; el proceso se repita hasta que se obtienen dos litros de pintura gris, que no podrán reconvertirse en un litro de pintura blanca y otro de pintura negra; la entropía del conjunto ha ido en aumento hasta llegar a un máximo cuando los colores de ambos recipientes son sensiblemente iguales (sistema homogéneo). Entropía y desorden
  • 10. A pesar de la identificación entre la entropía y el desorden, hay muchas transiciones de fase en la que emerge una fase ordenada y al mismo tiempo, la entropía aumenta. En este artículo se muestra que esta paradoja se resuelve haciendo una interpretación literal de la famosa ecuación de Boltzmann S = k log W. Podemos verlo en la segregación de una mezcla tipo coloide, por ejemplo cuando el agua y aceite tienden a separarse. También en la cristalización de esferas duras: cuando agitamos naranjas en un cesto, éstas se ordenan de forma espontánea. De estos casos se deduce el concepto de fuerza entrópica o interacción, muy útil en la ciencia de polímeros o ciencia coloidal. Relación de la entropía con la teoría de la información Recientes estudios han podido establecer una relación entre la entropía física y la entropía de la teoría de la información gracias a la revisión de la física de los agujeros negros. Según la nueva teoría de Jacob D. Bekenstein el bit de información sería equivalente a una superficie de valor 1/4 del área de Planck. De hecho, en presencia de agujeros negros la segunda ley de la termodinámica sólo puede cumplirse si se introduce la entropía generalizada o suma de la entropía convencional (Sconv) más un factor dependiente del área total (A) de agujeros negros existente en el universo, del siguiente modo: Entropía como creadora de orden
  • 11. La neguentropía o negantropía, también llamada entropía negativa o sintropía, de un sistema vivo, es la entropía que el sistema exporta para mantener su entropía baja; se encuentra en la intersección de la entropía y la vida. Para compensar el proceso de degradación sistémica a lo largo del tiempo, algunos sistemas abiertos consiguen compensar su entropía natural con aportaciones de subsistemas con los que se relacionan. Si en un sistema cerrado el proceso entrópico no puede detenerse por sí solo, en un sistema abierto, la neguentropía sería una resistencia sustentada en subsistemas vinculados que reequilibran el sistema entrópico. Neguentropía
  • 12. El concepto de “entropía negativa” fue introducido por Erwin Schrödinger (físico teórico, y uno de los padres de la mecánica cuántica) en su libro de ciencia popular what is life?, publicado en 1943. Más tarde, Léon Brillouin cambió la palabra por "neguentropía", para expresarla en una forma mucho más “positiva”, diciendo que un sistema vivo importa neguentropía y la almacena. En el año 2009, Mahulikar & Herwig redefinieron la neguentropía de un sub-sistema ordenado dinámicamente como el déficit de entropía relacionado al caos que rodea al sub-sistema ordenado. De esta forma, las unidades de la neguentropía son [J/kg-K] cuando se define con base en la entropía por unidad de masa, mientras que cuando se define con base en la entropía por unidad de energía las unidades son [K-1]. Esta definición ha habilitado: 1. Representaciones termodinámicas a escala invariante de la existencia de un orden dinámico, 2. pensamiento de principios físicos exclusivamente para la existencia de un orden dinámico y evolución, y 3. la interpretación matemática de la neguentropía de Schrödinger. Concepto de entropía negativa
  • 13. Así como la entropía establece que la energía y cualquiera de sus formas de manifestarse (ya sea en forma de materia, de plasma o radiación) tiende a buscar un estado de equilibrio inexpresivo continuo, la neguentropía define la energía como una serie de causas y efectos armónicamente acomodadas en las que la suma total de los efectos armónicos dan como resultado un acople de mayor magnitud que el original, siendo una forma de resonancia que da como resultado paquetes de energía perfectamente utilizables por cualquier sistema perceptor de sus efectos. Teoría de la información En la teoría de la información y la estadística, la neguentropía se usa como medida de distancia de normalidad. Si se considera una señal con una cierta distribución, y la señal es gausiana, ésta tendrá una distribución normal. La neguentropía es siempre positiva, invariante a cambios de coordenadas lineales, y se desvanece si y sólo si la señal es gausiana. La neguentropía se define por: Donde S(Φχ) es el diferencial de entropía de la densidad gausiana con la misma media y varianza, mientras que pχ y S(pχ) es la entropía diferencial de pχ: Contrastes
  • 14. Existe una magnitud física estrechamente vinculada a la energía libre (entalpia libre), con una unidad de entropía isomórfica a la neguentropía, conocida en estadística y en teoría de la información. En 1873 Willard Gibbs creó un diagrama ilustrando del concepto de energía libre correspondiente a entalpia libre. En el diagrama se puede ver la cantidad llamada capacidad de la entropía. Dicha cantidad es la entropía que se puede incrementar sin cambiar la energía interna o aumentar el volumen. En otras palabras, se trata de una diferencia entre el máximo posible, en condiciones de asumir, la entropía y la entropía real. Donde: J - (“Capacidad para entropía” de Gibbs) Phi – Potencial de Massieu Z - Función de partición k - Constante de Boltzman Correlación entre neguentropía estadística y energía libre de Gibbs
  • 15. En 1988, basándose en la definición de entropía estadística de Shannon, Mario Ludovico dio una definición formal al término sintropía, como una medida del grado de organización interna de cualquier sistema formado por componentes que interactúan entre sí. De acuerdo a esta definición, la sintropía es una cantidad complementaria a la entropía. La organización como sistema (abierto) esta constituido por los elementos básicos de este (entradas, medio, salidas y retroalimentación) y es en las entradas donde la información juega un papel clave como medio regulador, medio neguentrópico, ya que a través de ella se puede disminuir la cantidad de incertidumbre (entropía). Se puede considerar a la información como elemento generador de orden y como herramienta fundamental para la toma de decisiones en la organización o en cualquier sistema en el que se presenten situaciones de elección con múltiples alternativas. En la gestión de riesgos, neguentropía es la fuerza que tiene por objeto lograr un comportamiento organizacional eficaz y conducir a un estado estacionario predecible. Teoría de la organización