Entropy (classical thermodynamics)In classical thermodynamics, entropy () is a property of a thermodynamic system that expresses the direction or outcome of spontaneous changes in the system. The term was introduced by Rudolf Clausius in the mid-19th century to explain the relationship of the internal energy that is available or unavailable for transformations in form of heat and work. Entropy predicts that certain processes are irreversible or impossible, despite not violating the conservation of energy.
Entropie de RényiL'entropie de Rényi, due à Alfréd Rényi, est une fonction mathématique qui correspond à la quantité d'information contenue dans la probabilité de collision d'une variable aléatoire. Étant donnés une variable aléatoire discrète à valeurs possibles , ainsi qu'un paramètre réel strictement positif et différent de 1, l' entropie de Rényi d'ordre de est définie par la formule : L'entropie de Rényi généralise d'autres acceptions de la notion d'entropie, qui correspondent chacune à des valeurs particulières de .
Entropy rateIn the mathematical theory of probability, the entropy rate or source information rate of a stochastic process is, informally, the time density of the average information in a stochastic process. For stochastic processes with a countable index, the entropy rate is the limit of the joint entropy of members of the process divided by , as tends to infinity: when the limit exists. An alternative, related quantity is: For strongly stationary stochastic processes, .
Maximum entropy thermodynamicsIn physics, maximum entropy thermodynamics (colloquially, MaxEnt thermodynamics) views equilibrium thermodynamics and statistical mechanics as inference processes. More specifically, MaxEnt applies inference techniques rooted in Shannon information theory, Bayesian probability, and the principle of maximum entropy. These techniques are relevant to any situation requiring prediction from incomplete or insufficient data (e.g., , signal processing, spectral analysis, and inverse problems).
Entropy as an arrow of timeEntropy is one of the few quantities in the physical sciences that require a particular direction for time, sometimes called an arrow of time. As one goes "forward" in time, the second law of thermodynamics says, the entropy of an isolated system can increase, but not decrease. Thus, entropy measurement is a way of distinguishing the past from the future. In thermodynamic systems that are not isolated, local entropy can decrease over time, accompanied by a compensating entropy increase in the surroundings; examples include objects undergoing cooling, living systems, and the formation of typical crystals.
Free entropyA thermodynamic free entropy is an entropic thermodynamic potential analogous to the free energy. Also known as a Massieu, Planck, or Massieu–Planck potentials (or functions), or (rarely) free information. In statistical mechanics, free entropies frequently appear as the logarithm of a partition function. The Onsager reciprocal relations in particular, are developed in terms of entropic potentials. In mathematics, free entropy means something quite different: it is a generalization of entropy defined in the subject of free probability.
Interaction élémentaireQuatre interactions élémentaires sont responsables de tous les phénomènes physiques observés dans l'Univers, chacune se manifestant par une force dite force fondamentale. Ce sont l'interaction nucléaire forte, l'interaction électromagnétique, l'interaction faible et l'interaction gravitationnelle. En physique classique, les lois de la gravitation et de l'électromagnétisme étaient considérées comme axiomes.
Universality (dynamical systems)In statistical mechanics, universality is the observation that there are properties for a large class of systems that are independent of the dynamical details of the system. Systems display universality in a scaling limit, when a large number of interacting parts come together. The modern meaning of the term was introduced by Leo Kadanoff in the 1960s, but a simpler version of the concept was already implicit in the van der Waals equation and in the earlier Landau theory of phase transitions, which did not incorporate scaling correctly.
Transition vitreuseLa transition vitreuse est un ensemble de phénomènes physique associés au passage d'un état de liquide surfondu à un état solide, qualifié de vitreux. Elle caractérise le passage entre la forme dure et relativement cassante et la forme « fondue » ou caoutchouteuse d'un matériau amorphe (ou d'un matériau semi-cristallin avec des régions amorphes). Un solide amorphe qui montre une telle forme de transition vitreuse est appelé un verre. Le refroidissement intense d'un liquide visqueux vers sa forme vitreuse est appelé la vitrification.
Marche aléatoireEn mathématiques, en économie et en physique théorique, une marche aléatoire est un modèle mathématique d'un système possédant une dynamique discrète composée d'une succession de pas aléatoires, ou effectués « au hasard ». On emploie également fréquemment les expressions marche au hasard, promenade aléatoire ou random walk en anglais. Ces pas aléatoires sont de plus totalement décorrélés les uns des autres ; cette dernière propriété, fondamentale, est appelée caractère markovien du processus, du nom du mathématicien Markov.
OligomèreUn oligomère est une molécule constituée d'un petit nombre (généralement inférieur à dix) d'éléments identiques ou très semblables (pour un grand nombre on parle de polymère). En biochimie, le terme oligomère est utilisé pour des fragments d'ADN courts. On peut aussi l'utiliser pour qualifier un complexe protéinique composé de deux sous-ensembles (un sous-ensemble étant une chaîne polypeptidique) ou plus. Dans ce cas, un oligomère constitué de différents types de polypeptides est appelé hétéro-oligomère.
Chemin auto-évitantdroite|vignette|200x200px|Chemin auto-évitant dans un réseau carré, hamiltonien dans un carré de côté 14, donc de longueur 152-1. vignette|Chemin auto-évitant dans un réseau carré aboutissant à un cul-de-sac. vignette|Idem dans un réseau hexagonal. En mathématiques, un chemin auto-évitant (CAE), ou marche auto-évitante, est un chemin dans un réseau ne passant jamais par le même sommet ; lorsqu'il est fermé, on parle de polygone auto-évitant (PAE). Pour le graphe infini associé au réseau, les notions de CAE et de PAE correspondent à celles de chaînes et de cycles.