entropie

(allemand Entropie, du grec entropê, action de se transformer)

Nom donné par Clausius à la fonction d'état notée S qui caractérise l'état de « désordre » d'un système.

PHYSIQUE

Lorsqu'un système, à la température T, reçoit de façon réversible une petite quantité de chaleur δQ, sa variation d'entropie vaut dS = δQ/T. Au cours d'une transformation quelconque, la variation d'entropie ne dépend que de l'état initial et de l'état final ; elle est reliée aux quantités de chaleur reçues par le système au cours de la transformation par l'inégalité

,
où δQ est la quantité de chaleur reçue par le système au moment où sa température vaut T.

La mécanique statistique permet de donner un sens plus profond à la notion d'entropie. À un état macroscopique (ou thermodynamique) donné correspond un grand nombre Ω d'états microscopiques différents ; Boltzmann a montré que l'on peut écrire l'entropie S d'un système sous la forme S = k log Ω, où k est la constante de Boltzmann. Le « désordre » d'un système est relié au nombre d'états microscopiques entre lesquels le système peut fluctuer. L'état d'équilibre d'un système correspond à la valeur maximale de Ω, donc à l'entropie maximale. Un système isolé évolue spontanément vers son état d'équilibre, et son entropie croît donc au cours de l'évolution.