Entropie (thermodynamique)L'entropie est une grandeur physique qui caractérise le degré de désorganisation d'un système. Introduite en 1865 par Rudolf Clausius, elle est nommée à partir du grec , littéralement « action de se retourner » pris au sens de « action de se transformer ». En thermodynamique, l'entropie est une fonction d'état extensive (c'est-à-dire, proportionnelle à la quantité de matière dans le système considéré). Elle est généralement notée , et dans le Système international d'unités elle s'exprime en joules par kelvin ().
Thermodynamique hors équilibreLa thermodynamique hors équilibre est le domaine de recherche étudiant les phénomènes de relaxation et de transport au voisinage de l'équilibre thermodynamique. Il s'agit là de phénomènes dissipatifs donc irréversibles, liés à une augmentation de l'entropie. Les méthodes présentées ici relèvent de la thermodynamique proprement dite, qui permet de donner les lois caractérisant un phénomène.
Entropy (classical thermodynamics)In classical thermodynamics, entropy () is a property of a thermodynamic system that expresses the direction or outcome of spontaneous changes in the system. The term was introduced by Rudolf Clausius in the mid-19th century to explain the relationship of the internal energy that is available or unavailable for transformations in form of heat and work. Entropy predicts that certain processes are irreversible or impossible, despite not violating the conservation of energy.
Entropy productionEntropy production (or generation) is the amount of entropy which is produced during heat process to evaluate the efficiency of the process. Entropy is produced in irreversible processes. The importance of avoiding irreversible processes (hence reducing the entropy production) was recognized as early as 1824 by Carnot. In 1865 Rudolf Clausius expanded his previous work from 1854 on the concept of "unkompensierte Verwandlungen" (uncompensated transformations), which, in our modern nomenclature, would be called the entropy production.
Moteur moléculaireUn moteur moléculaire est un objet de la taille d’une molécule ou d’un assemblage de molécules qui est capable de produire un travail mécanique ou un mouvement dirigé, ces buts ne pouvant être atteints que si de l’énergie est fournie au système. Les différences les plus importantes par rapport aux moteurs macroscopiques concernent la sensibilité des moteurs moléculaires à la viscosité de leur micro-environnement, et surtout à l’importance de l’agitation thermique.
Maximum entropy thermodynamicsIn physics, maximum entropy thermodynamics (colloquially, MaxEnt thermodynamics) views equilibrium thermodynamics and statistical mechanics as inference processes. More specifically, MaxEnt applies inference techniques rooted in Shannon information theory, Bayesian probability, and the principle of maximum entropy. These techniques are relevant to any situation requiring prediction from incomplete or insufficient data (e.g., , signal processing, spectral analysis, and inverse problems).
Synthetic molecular motorSynthetic molecular motors are molecular machines capable of continuous directional rotation under an energy input. Although the term "molecular motor" has traditionally referred to a naturally occurring protein that induces motion (via protein dynamics), some groups also use the term when referring to non-biological, non-peptide synthetic motors. Many chemists are pursuing the synthesis of such molecular motors. The basic requirements for a synthetic motor are repetitive 360° motion, the consumption of energy and unidirectional rotation.
Théorème HLe théorème H est un théorème démontré par Boltzmann en 1872 dans le cadre de la théorie cinétique des gaz. Il décrit l'évolution vers l'équilibre thermodynamique d'un gaz satisfaisant à l'équation de Boltzmann et subissant des interactions élastiques. Selon ce théorème, il existe une certaine grandeur qui varie de façon monotone au cours du temps, pendant que le gaz relaxe vers l'état d'équilibre caractérisé par la loi de Maxwell pour les vitesses des particules du milieu. Cette quantité varie à l'opposé de l'entropie thermodynamique.
Bilan détailléLe principe du bilan détaillé d'un système cinétique comportant plusieurs chemins, chacun d'eux comportant plusieurs étapes successives indépendantes, stipule que l'équilibre thermodynamique global du système implique l'équilibre de chacune des étapes constitutives. Le principe voisin nommé principe de bilan semi-détaillé ou bilan complexe donne une condition suffisante pour assurer la stationnarité d'un tel système. Le principe de bilan détaillé a été utilisé une première fois par Ludwig Boltzmann en 1872 pour établir son théorème H.
Nanomachinevignette|Schéma du de Richard Feynman. Les nanomachines, appelées également machines moléculaires, sont de minuscules machines composées d'assemblages moléculaires dont au moins deux parties sont reliées par un lien mécanique et qui peuvent être animées de mouvements sous l'action d'un stimulus externe. Leur taille est de l'ordre du nanomètre et leur synthèse nécessite parfois un nombre important de réactions chimiques. Elles travaillent directement sur les atomes ou les molécules.
TempératureLa température est une grandeur physique mesurée à l’aide d’un thermomètre et étudiée en thermométrie. Dans la vie courante, elle est reliée aux sensations de froid et de chaud, provenant du transfert thermique entre le corps humain et son environnement. En physique, elle se définit de plusieurs manières : comme fonction croissante du degré d’agitation thermique des particules (en théorie cinétique des gaz), par l’équilibre des transferts thermiques entre plusieurs systèmes ou à partir de l’entropie (en thermodynamique et en physique statistique).
Molecular propellerMolecular propeller is a molecule that can propel fluids when rotated, due to its special shape that is designed in analogy to macroscopic propellers: it has several molecular-scale blades attached at a certain pitch angle around the circumference of a shaft, aligned along the rotational axis. The molecular propellers designed in the group of Prof. Petr Král from the University of Illinois at Chicago have their blades formed by planar aromatic molecules and the shaft is a carbon nanotube.
Grandeur physiqueOn appelle grandeur physique, ou simplement grandeur, toute propriété d'un phénomène physique, d'un corps ou d'une substance, qui peut être mesurée ou calculée, et dont les valeurs possibles s'expriment à l'aide d'un nombre (réel ou complexe) et d'une référence (comme une unité de mesure, une échelle de valeurs ou une échelle ordinale). La précision de la mesure est indiquée par l'incertitude de mesure.
Équilibre thermodynamiquevignette|200px|Exemple d'équilibre thermodynamique de deux systèmes, en l'occurrence deux phases : l'équilibre liquide-vapeur du brome. En thermodynamique, un équilibre thermodynamique correspond à l'état d'un système ne subissant aucune évolution à l'échelle macroscopique. Les grandeurs intensives caractérisant ce système (notamment la pression, la température et les potentiels chimiques) sont alors homogènes dans l'espace et constantes dans le temps.
Processus stochastiqueUn processus ou processus aléatoire (voir Calcul stochastique) ou fonction aléatoire (voir Probabilité) représente une évolution, discrète ou à temps continu, d'une variable aléatoire. Celle-ci intervient dans le calcul classique des probabilités, où elle mesure chaque résultat possible (ou réalisation) d'une épreuve. Cette notion se généralise à plusieurs dimensions. Un cas particulier important, le champ aléatoire de Markov, est utilisé en analyse spatiale.
Entropie de RényiL'entropie de Rényi, due à Alfréd Rényi, est une fonction mathématique qui correspond à la quantité d'information contenue dans la probabilité de collision d'une variable aléatoire. Étant donnés une variable aléatoire discrète à valeurs possibles , ainsi qu'un paramètre réel strictement positif et différent de 1, l' entropie de Rényi d'ordre de est définie par la formule : L'entropie de Rényi généralise d'autres acceptions de la notion d'entropie, qui correspondent chacune à des valeurs particulières de .
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
Triade catalytiqueredresse=1.5|vignette| Site actif de la protéase TEV (), une peptidase très sélective du virus de la gravure du tabac, montrant le substrat en noir et les résidus de la triade catalytique en rouge, ici l'aspartate (acide), l'histidine (base) et la cystéine (nucléophile). En biologie moléculaire, on désigne généralement par triade catalytique les trois résidus d'acides aminés qui interviennent ensemble dans le site actif de certaines hydrolases et transférases telles que des peptidases, des amidases, des estérases, des lipases et des β-lactamases.
Entropie croiséeEn théorie de l'information, l'entropie croisée entre deux lois de probabilité mesure le nombre de bits moyen nécessaires pour identifier un événement issu de l'« ensemble des événements » - encore appelé tribu en mathématiques - sur l'univers , si la distribution des événements est basée sur une loi de probabilité , relativement à une distribution de référence . L'entropie croisée pour deux distributions et sur le même espace probabilisé est définie de la façon suivante : où est l'entropie de , et est la divergence de Kullback-Leibler entre et .
Entropy (statistical thermodynamics)The concept entropy was first developed by German physicist Rudolf Clausius in the mid-nineteenth century as a thermodynamic property that predicts that certain spontaneous processes are irreversible or impossible. In statistical mechanics, entropy is formulated as a statistical property using probability theory. The statistical entropy perspective was introduced in 1870 by Austrian physicist Ludwig Boltzmann, who established a new field of physics that provided the descriptive linkage between the macroscopic observation of nature and the microscopic view based on the rigorous treatment of large ensembles of microstates that constitute thermodynamic systems.