entropie
Cet article est extrait de l'ouvrage Larousse « Dictionnaire de la philosophie ».
Du grec, composé du préfixe en-, « dans », et du substantif tropè, « transformation ».
Physique
Index de l'irréversibilité des transformations physiques spontanées dans un système isolé. Énergie spécifique minimale, nécessaire pour imposer l'inversion du cours d'une transformation. Mesure de la probabilité des états microscopiques réalisant un état macroscopique donné.
Le mot et le concept d'entropie furent introduits par R. Clausius, en 1865. L'entropie correspondait, chez Clausius, à la fonction d'état thermodynamique extensive S = Q / T (où Q est la chaleur, et T la température absolue)(1) ; une fonction ayant une valeur d'autant plus grande que la « capacité de transformation » spontanée du système correspondant était plus faible.
Cette définition était l'aboutissement d'une réflexion développée au cours de la première moitié du xixe s. La première étape en fut l'énoncé du « principe de Carnot » (1824), selon lequel le rendement d'un moteur thermique est inférieur à 1. Plus précisément, le rendement d'un moteur thermique quelconque est inférieur au rendement, lui-même inférieur à 1, d'un moteur thermique idéal parcourant le « cycle de Carnot » dans le diagramme pression-volume. Cet énoncé dû à S. Carnot pouvait être déduit, comme le montra Clausius, de la condition d'impossibilité du passage spontané de chaleur d'un corps froid à un corps chaud ; une condition qu'il appela « second principe de la thermodynamique ». Or, le passage inverse de chaleur d'un corps chaud à un corps froid, seul possible spontanément, s'accompagne d'un accroissement de la valeur de la fonction entropie. Le principe de Carnot apparaissait, par conséquent, comme une forme un peu particulière de l'énoncé de croissance de l'entropie. La forme générale conférée par Clausius au second principe de la thermodynamique fut, à partir de là, la suivante : l'entropie croît jusqu'à une valeur maximale au-delà de laquelle les changements spontanés deviennent impossibles. Cette généralisation fut étendue par Clausius à l'échelle cosmologique, puisque, selon lui, l'Univers est un système isolé dont l'entropie tend vers un maximum : c'est la célèbre « mort thermique de l'Univers », très débattue à la fin du xixe s.
Un développement important intervint au milieu du xxe s., lorsque fut élaborée (par L. Onsager et I. Prigogine) une thermodynamique des systèmes ouverts. À l'énoncé habituel de croissance d'entropie dans un système isolé étaient substituées des considérations sur la production interne d'entropie d'un système ouvert, et sur le flux d'entropie à travers la surface qui le délimite. L'entropie locale du système pouvait parfaitement diminuer, pour peu que le flux net sortant d'entropie excède sa production interne par des processus dissipatifs. Et une telle diminution locale ne violait en rien le second principe de la thermodynamique, puisque l'entropie de l'ensemble constitué du système et de son environnement continuait de croître. Ces travaux ouvraient la voie à une compréhension des processus d'auto-organisation, qui impliquent l'établissement et le maintien dynamique d'une basse valeur locale de l'entropie. Ils faisaient par là disparaître la contradiction antérieurement relevée entre thermodynamique et biologie, entre principe de croissance de l'entropie et développement de structures vivantes auto-organisées.
Le concept d'entropie avait pris naissance, chez Clausius, dans le contexte d'une conception mécanique des phénomènes thermiques. Il était, dans ces conditions, naturel d'essayer de lui donner une interprétation mécanique. L'objet de la théorie cinétique des gaz, rappelons-le, était de réduire les variables macroscopiques de la thermodynamique à des valeurs moyennes de variables mécaniques microscopiques. La pression d'un gaz se voyait ainsi assimilée à la valeur moyenne par unité de surface des variations de quantité de mouvement, occasionnées par le choc des molécules sur la paroi du récipient. La chaleur était, quant à elle, identifiée à l'énergie cinétique moyenne des molécules du gaz. Le programme que se fixa L. Boltzmann (1866, 1872), dans le prolongement de la théorie cinétique des gaz, fut alors de donner un équivalent mécanique au second principe de la thermodynamique. Cet équivalent fut trouvé sous la forme du « théorème H » : une certaine fonction H de la densité de molécules par unité de volume de l'espace des phases ne pouvait, selon Boltzmann, que décroître. La version mécanique du second principe se heurta cependant au « paradoxe de la réversibilité », identifié par J. Loschmidt (1876). À chaque processus mécanique dans lequel la fonction H décroît, remarquait Loschmidt, on peut faire correspondre par la pensée un processus mécanique à fonction H croissante, obtenu en inversant les vitesses de toutes les molécules du gaz. Boltzmann réagit à cette objection dès 1877, en changeant le statut de son théorème H. La décroissance de la fonction H n'était plus rendue inévitable par les lois de la mécanique ; elle n'était que hautement probable pour des conditions initiales éloignées de l'équilibre, et sous l'hypothèse de la validité d'une condition de « chaos moléculaire ». L'entropie S fut corrélativement définie comme une fonction de la probabilité W de la configuration microscopique du gaz : S = kLogW. La « mécanique statistique » était née. Boltzmann renforça, en 1896, sa défense de la conception statistique de l'entropie, en remarquant que la durée, appelée « période de récurrence de Poincaré », qu'il faudrait laisser s'écouler avant de revenir à un certain état improbable du gaz, serait en moyenne excessivement grande.
La très grande généralité du lien entre concepts thermodynamique et statistique d'entropie a été illustrée récemment dans l'étude des « trous noirs » résultant de l'effondrement d'étoiles massives en fin de vie. Durant les années 1970, St. Hawking et d'autres auteurs proposèrent d'identifier l'aire de l'horizon des trous noirs (en deçà duquel ni la matière ni la lumière ne peuvent s'échapper) à leur entropie. En 1996, un calcul montra que l'entropie statistique d'un trou noir, calculée en traitant ses constituants microscopiques dans le cadre de la théorie des supercordes, coïncidait exactement avec l'aire de Hawking.
L'intervention de l'hypothèse ad hoc de « chaos moléculaire » et, surtout, l'utilisation du concept de probabilité, considérée depuis Laplace comme une expression de l'ignorance partielle dans laquelle on se trouve à propos d'une certaine situation physique, suscitèrent cependant de la méfiance vis-à-vis de ce qui apparaissait comme une interprétation essentiellement « subjectiviste » de l'entropie. L'inquiétude face à la tendance qu'avait la mécanique statistique à fournir des définitions « subjectivistes » (en vérité, épistémiques) de l'entropie fut encore renforcée lorsque parut le travail de J. W. Gibbs (1901). Ce que montrait, en effet, Gibbs était que la loi de croissance de l'entropie ne pouvait être dérivée de la mécanique qu'à condition de recourir à un « découpage grossier » (coarse graining) de l'espace des états ; et ce découpage grossier, à son tour, n'était justifiable que par une imperfection des moyens expérimentaux de connaissance de l'état microscopique du gaz. Deux voies de recherche à propos du concept d'entropie furent suivies à partir de là. L'une revenait à tirer toutes les conséquences du statut épistémique que semblait avoir l'entropie en mécanique statistique. L'autre consistait, au contraire, à chercher coûte que coûte une base « objective » à la croissance de l'entropie.
La première voie prit comme point de départ l'expérience de pensée du « démon de Maxwell ». Le démon de Maxwell (1867) était un être capable de prendre connaissance de l'état microscopique d'un gaz, et de se servir de ces informations pour diminuer l'entropie du gaz. Ainsi débuta l'histoire des relations entre entropie et information. Cl. E. Shannon (1949) n'hésita pas à appeler « entropie » une fonction des probabilités d'occurrence des symboles dans une chaîne de caractères, qui visait, avant tout, à en mesurer le contenu d'information. L'analogie entre la forme de cette fonction et celle de l'entropie statistique de Boltzmann était, en effet, remarquable, au signe près. L. Brillouin (1956), à la suite de L. Szilard (1929), s'attacha, pour sa part, à établir des théorèmes reliant le gain d'information à la production d'entropie, et, inversement, la diminution d'entropie (ou la production de « néguentropie ») à l'utilisation d'information. Ces théorèmes spécifiaient que tout élément d'information est plus que compensé par l'accroissement d'entropie résultant de la procédure physique utilisée pour l'acquérir. Cela interdisait à un être du type « démon de Maxwell » de violer le second principe de la thermodynamique. En 1957, E. T. Jaynes alla plus loin encore dans le sens d'une fusion de la thermodynamique et de la théorie de l'information, en montrant que l'ensemble des fonctions et théorèmes de la mécanique statistique était dérivable d'un simple principe de minimisation des conjectures concernant l'information manquante sur la structure microscopique d'un corps matériel. Ce principe, appelé maximum-entropy principle, et plus connu sous le nom de son abréviation « Maxent », est universellement appliqué de nos jours à l'analyse des signaux.
En marge des relations ainsi établies entre information et entropie, un débat de nature à la fois verbale et conceptuelle s'est instauré. L'entropie est couramment qualifiée de « mesure du désordre ». Mais qu'entend-on exactement par « ordre » ? S'agit-il d'une redondance des structures ou, au contraire, de leur complexité ? La redondance est-elle d'ailleurs exclusive de la complexité ou bien peut-elle en émerger dans des régimes évolutifs limites « au bord du chaos » (St. Kauffman, 1995) ? La réponse donnée à ces questions sur le concept d'« ordre » ne saurait rester sans conséquences pour les rapports traditionnellement établis entre désordre et entropie.
La seconde voie, qui visait à donner une base « objective » à l'évolution unidirectionnelle de l'entropie, a trouvé, pour sa part, une assistance inattendue dans les théories du chaos. Chez I. Prigogine, par exemple, c'est l'extrême sensibilité aux conditions initiales, doublée d'une substitution d'ensembles de « fibres » dilatantes et contractantes aux ensembles de points matériels, qui rend toute réversion d'une transformation, et toute décroissance spontanée de l'entropie d'un système clos, impossibles. Cette tentative de mettre en évidence une véritable « brisure de symétrie » temporelle, au-delà de la conception probabiliste de l'entropie proposée par Boltzmann, reste pourtant inaboutie. Comme le souligne, en effet, I. Stengers, l'insistance sur l'inévitable résidu d'imprécision dans la connaissance des conditions initiales, aussi bien que le choix orienté de l'ensemble de référence, trahissent l'activité constructrice de la physique dans son projet même de l'escamoter.
Michel Bitbol
Notes bibliographiques
- 1 ↑ Une grandeur est extensive lorsque la valeur qu'elle prend pour un système physique est la somme des valeurs qu'elle prend pour les parties composant le système (exemples : l'énergie, l'entropie). Elle est intensive dans le cas inverse (exemple : la température).
- Voir aussi : Brillouin, L., Science and Information Theory, Academic Press, 1963.
- Chambadal, P., Évolution et applications du concept d'entropie, Dunod, 1963.
- Davies, P. C. W., The Physics of Time Asymmetry, 1974.
- Jaynes, E. T., Papers on Probability, Statistics, and Statistical Physics, Reidel, 1983.
- Prigogine, I., Introduction à la thermodynamique des processus irréversibles, Dunod, 1968.
- Reichenbach, H., The Direction of Time, University of California Press, 1956.
- Stengers, I., Cosmopolitiques 5. Au nom de la flèche du temps : le défi de Prigogine, La Découverte, 1997.
- Zeh, H.-D., The Physical Basis of the Direction of Time, Springer-Verlag, 1989.