entropie
(allemand Entropie, du grec entropê, action de se transformer)
Nom donné par Clausius à la fonction d'état notée S qui caractérise l'état de « désordre » d'un système.
PHYSIQUE
Lorsqu'un système, à la température T, reçoit de façon réversible une petite quantité de chaleur δQ, sa variation d'entropie vaut dS = δQ/T. Au cours d'une transformation quelconque, la variation d'entropie ne dépend que de l'état initial et de l'état final ; elle est reliée aux quantités de chaleur reçues par le système au cours de la transformation par l'inégalité
,
où δQ est la quantité de chaleur reçue par le système au moment où sa température vaut T.
La mécanique statistique permet de donner un sens plus profond à la notion d'entropie. À un état macroscopique (ou thermodynamique) donné correspond un grand nombre Ω d'états microscopiques différents ; Boltzmann a montré que l'on peut écrire l'entropie S d'un système sous la forme S = k log Ω, où k est la constante de Boltzmann. Le « désordre » d'un système est relié au nombre d'états microscopiques entre lesquels le système peut fluctuer. L'état d'équilibre d'un système correspond à la valeur maximale de Ω, donc à l'entropie maximale. Un système isolé évolue spontanément vers son état d'équilibre, et son entropie croît donc au cours de l'évolution.