Entropie (thermodynamique)L'entropie est une grandeur physique qui caractérise le degré de désorganisation d'un système. Introduite en 1865 par Rudolf Clausius, elle est nommée à partir du grec , littéralement « action de se retourner » pris au sens de « action de se transformer ». En thermodynamique, l'entropie est une fonction d'état extensive (c'est-à-dire, proportionnelle à la quantité de matière dans le système considéré). Elle est généralement notée , et dans le Système international d'unités elle s'exprime en joules par kelvin ().
Système thermodynamiqueEn thermodynamique classique, un système thermodynamique est une portion de l'Univers que l'on isole par la pensée du reste de l'Univers, ce dernier constituant alors le milieu extérieur. Le système thermodynamique n'est pas forcément défini par une frontière matérielle, ni nécessairement connexe. Les gouttes de liquide dans un brouillard, par exemple, définissent un système thermodynamique. Le milieu extérieur considéré est constitué par la portion d'Univers en interaction avec le système étudié.
Statistical mechanicsIn physics, statistical mechanics is a mathematical framework that applies statistical methods and probability theory to large assemblies of microscopic entities. It does not assume or postulate any natural laws, but explains the macroscopic behavior of nature from the behavior of such ensembles. Sometimes called statistical physics or statistical thermodynamics, its applications include many problems in the fields of physics, biology, chemistry, and neuroscience.
Équilibre thermodynamiquevignette|200px|Exemple d'équilibre thermodynamique de deux systèmes, en l'occurrence deux phases : l'équilibre liquide-vapeur du brome. En thermodynamique, un équilibre thermodynamique correspond à l'état d'un système ne subissant aucune évolution à l'échelle macroscopique. Les grandeurs intensives caractérisant ce système (notamment la pression, la température et les potentiels chimiques) sont alors homogènes dans l'espace et constantes dans le temps.
Entropy productionEntropy production (or generation) is the amount of entropy which is produced during heat process to evaluate the efficiency of the process. Entropy is produced in irreversible processes. The importance of avoiding irreversible processes (hence reducing the entropy production) was recognized as early as 1824 by Carnot. In 1865 Rudolf Clausius expanded his previous work from 1854 on the concept of "unkompensierte Verwandlungen" (uncompensated transformations), which, in our modern nomenclature, would be called the entropy production.
Fundamental thermodynamic relationIn thermodynamics, the fundamental thermodynamic relation are four fundamental equations which demonstrate how four important thermodynamic quantities depend on variables that can be controlled and measured experimentally. Thus, they are essentially equations of state, and using the fundamental equations, experimental data can be used to determine sought-after quantities like G (Gibbs free energy) or H (enthalpy).
Limite thermodynamiqueEn physique statistique, la limite thermodynamique est la limite mathématique conjointe où : le nombre de particules du système considéré tend vers l'infini ; le volume du système considéré tend vers l'infini ; la densité de particules du système considéré reste constante. Dans le problème thermodynamique de la réunion de systèmes disjoints, on peut aussi voir la limite thermodynamique comme étant le passage d'effets de surface prépondérants à des effets de volume prépondérants.
Température thermodynamiqueLa température thermodynamique est une formalisation de la notion expérimentale de température et constitue l’une des grandeurs principales de la thermodynamique. Elle est intrinsèquement liée à l'entropie. Usuellement notée , la température thermodynamique se mesure en kelvins (symbole K). Encore souvent qualifiée de « température absolue », elle constitue une mesure absolue parce qu’elle traduit directement le phénomène physique fondamental qui la sous-tend : l’agitation des constituant la matière (translation, vibration, rotation, niveaux d'énergie électronique).
Fluctuation theoremThe fluctuation theorem (FT), which originated from statistical mechanics, deals with the relative probability that the entropy of a system which is currently away from thermodynamic equilibrium (i.e., maximum entropy) will increase or decrease over a given amount of time. While the second law of thermodynamics predicts that the entropy of an isolated system should tend to increase until it reaches equilibrium, it became apparent after the discovery of statistical mechanics that the second law is only a statistical one, suggesting that there should always be some nonzero probability that the entropy of an isolated system might spontaneously decrease; the fluctuation theorem precisely quantifies this probability.
ThermodynamiqueLa thermodynamique est la branche de la physique qui traite de la dépendance des propriétés physiques des corps à la température, des phénomènes où interviennent des échanges thermiques, et des transformations de l'énergie entre différentes formes. La thermodynamique peut être abordée selon deux approches différentes et complémentaires : phénoménologique et statistique. La thermodynamique phénoménologique ou classique a été l'objet de nombreuses avancées dès le .
Fluctuations thermodynamiquesLes fluctuations thermodynamiques des atomes ou molécules à l'intérieur d'un système sont les faibles écarts statistiques à l'équilibre thermodynamique de ce système. Ils sont décrits par la physique statistique hors d'équilibre. Ces fluctuations affectent tous les degrés de liberté : translation, rotation, vibration et énergie interne des molécules dans un gaz, translation pour un atome adsorbé sur une surface ou constituant un élément étranger dans une structure cristalline.
Thermodynamique quantiqueLa thermodynamique quantique est l'extension de la thermodynamique aux phénomènes quantiques. Elle se distingue de la physique statistique quantique par l'accent mis sur les processus dynamiques hors d'équilibre ainsi que par son éventuelle application à un système quantique individuel. Annoncée par les travaux d'Einstein sur la quantification du rayonnement et de Planck sur le rayonnement du corps noir, la thermodynamique quantique n'a commencé à être constituée en théorie autonome qu'à la fin des années 2010 et reste incomplète en .
Maximum entropy thermodynamicsIn physics, maximum entropy thermodynamics (colloquially, MaxEnt thermodynamics) views equilibrium thermodynamics and statistical mechanics as inference processes. More specifically, MaxEnt applies inference techniques rooted in Shannon information theory, Bayesian probability, and the principle of maximum entropy. These techniques are relevant to any situation requiring prediction from incomplete or insufficient data (e.g., , signal processing, spectral analysis, and inverse problems).
Entropy (classical thermodynamics)In classical thermodynamics, entropy () is a property of a thermodynamic system that expresses the direction or outcome of spontaneous changes in the system. The term was introduced by Rudolf Clausius in the mid-19th century to explain the relationship of the internal energy that is available or unavailable for transformations in form of heat and work. Entropy predicts that certain processes are irreversible or impossible, despite not violating the conservation of energy.
Ensemble statistiqueEn physique statistique, un ensemble statistique est une abstraction qui consiste à considérer une collection de copies virtuelles (ou répliques) d'un système physique dans l'ensemble des états accessibles où il est susceptible de se trouver, compte tenu des contraintes extérieures qui lui sont imposées, telles le volume, le nombre de particules, l'énergie et la température. Cette notion, introduite par le physicien américain Josiah Willard Gibbs en 1902, est un concept central de la physique statistique.
Théorème de fluctuation-dissipationEn théorie de la réponse linéaire, il existe une relation entre la fonction de réponse et la fonction de corrélation . Celle-ci a été établie par Herbert Callen et Theodore Welton en 1951, et pour cette raison le théorème de fluctuation-dissipation est aussi appelé théorème de Callen-Welton. Selon ce théorème, Le nom de théorème de fluctuation-dissipation vient de ce que la partie imaginaire de la fonction de réponse mesure la dissipation, alors que la fonction de corrélation mesure l'intensité des fluctuations.
History of entropyThe concept of entropy developed in response to the observation that a certain amount of functional energy released from combustion reactions is always lost to dissipation or friction and is thus not transformed into useful work. Early heat-powered engines such as Thomas Savery's (1698), the Newcomen engine (1712) and the Cugnot steam tricycle (1769) were inefficient, converting less than two percent of the input energy into useful work output; a great deal of useful energy was dissipated or lost.
Thermodynamique hors équilibreLa thermodynamique hors équilibre est le domaine de recherche étudiant les phénomènes de relaxation et de transport au voisinage de l'équilibre thermodynamique. Il s'agit là de phénomènes dissipatifs donc irréversibles, liés à une augmentation de l'entropie. Les méthodes présentées ici relèvent de la thermodynamique proprement dite, qui permet de donner les lois caractérisant un phénomène.
Fonction de partitionEn physique statistique, la fonction de partition Z est une grandeur fondamentale qui englobe les propriétés statistiques d'un système à l'équilibre thermodynamique. C'est une fonction de la température et d'autres paramètres, tels que le volume contenant un gaz par exemple. La plupart des variables thermodynamiques du système, telles que l'énergie totale, l'entropie, l'énergie libre ou la pression peuvent être exprimées avec cette fonction et ses dérivées.
Formule de Boltzmannthumb|Sur la tombe de Ludwig Boltzmann En physique statistique, la formule de Boltzmann (1877) définit l'entropie microcanonique d'un système physique à l'équilibre macroscopique, libre d'évoluer à l'échelle microscopique entre micro-états différents. Elle s'écrit : où est la constante de Boltzmann qui est égale à . est appelé le nombre de complexions du système ou nombre de configurations.