Qu'est-ce que l'entropie et comment la calculer

L'entropie est définie comme la mesure quantitative du désordre ou du hasard dans un système. Le concept vient de thermodynamique, qui traite du transfert de énergie thermique au sein d'un système. Au lieu de parler d'une certaine forme d '"entropie absolue", les physiciens discutent généralement du changement d'entropie qui se produit dans un processus thermodynamique.

Points clés: calcul de l'entropie

  • L'entropie est une mesure de la probabilité et du désordre moléculaire d'un système macroscopique.
  • Si chaque configuration est également probable, l'entropie est le logarithme naturel du nombre de configurations, multiplié par la constante de Boltzmann: S = kB En W
  • Pour que l'entropie diminue, vous devez transférer l'énergie de l'extérieur du système.

Comment calculer l'entropie

Dans un processus isotherme, le changement d’entropie (delta-S) est le changement de chaleur (Q) divisé par le température absolue (T):

delta-S = Q/T

Dans tout processus thermodynamique réversible, il peut être représenté dans le calcul comme l'intégrale de l'état initial d'un processus à son état final de

instagram viewer
dQ/T. Dans un sens plus général, l'entropie est une mesure de la probabilité et du désordre moléculaire d'un système macroscopique. Dans un système qui peut être décrit par des variables, ces variables peuvent supposer un certain nombre de configurations. Si chaque configuration est également probable, l'entropie est le logarithme naturel du nombre de configurations, multiplié par la constante de Boltzmann:

S = kB En W

où S est l'entropie, kB est la constante de Boltzmann, ln est le logarithme naturel et W représente le nombre d'états possibles. La constante de Boltzmann est égale à 1,38065 × 10−23 J / K.

Unités d'entropie

L'entropie est considérée comme une propriété étendue de la matière qui s'exprime en termes d'énergie divisée par la température. le Unités SI d'entropie sont J / K (joules / degrés Kelvin).

L'entropie et la deuxième loi de la thermodynamique

Une façon d'énoncer deuxième loi de la thermodynamique est la suivante: en tout systeme ferme, l'entropie du système restera constante ou augmentera.

Vous pouvez voir ceci comme suit: l'ajout de chaleur à un système accélère les molécules et les atomes. Il peut être possible (quoique délicat) d'inverser le processus dans un système fermé sans puiser ou libérer de l'énergie ailleurs pour atteindre l'état initial. Vous ne pouvez jamais obtenir l'ensemble du système "moins énergique" que lorsqu'il a commencé. L'énergie n'a nulle part où aller. Pour les processus irréversibles, l'entropie combinée du système et de son environnement augmente toujours.

Idées fausses sur l'entropie

Cette vue de la deuxième loi de la thermodynamique est très populaire, et elle a été mal utilisée. Certains soutiennent que la deuxième loi de la thermodynamique signifie qu'un système ne peut jamais devenir plus ordonné. C'est faux. Cela signifie simplement que pour devenir plus ordonné (pour que l'entropie diminue), vous devez transférer l'énergie de quelque part à l'extérieur du système, par exemple lorsqu'une femme enceinte tire de l'énergie de la nourriture pour que l'œuf fécondé se forme bébé. Cela est tout à fait conforme aux dispositions de la deuxième loi.

L'entropie est également connue sous le nom de trouble, chaos et caractère aléatoire, bien que les trois synonymes soient imprécis.

Entropie absolue

Un terme connexe est «entropie absolue», qui est désigné par S plutôt que ΔS. L'entropie absolue est définie selon la troisième loi de la thermodynamique. Ici, une constante est appliquée qui fait que l'entropie au zéro absolu est définie comme étant nulle.