Loi de probabilité d'entropie maximaleEn statistique et en théorie de l'information, une loi de probabilité d'entropie maximale a une entropie qui est au moins aussi grande que celle de tous les autres membres d'une classe spécifiée de lois de probabilité. Selon le principe d'entropie maximale, si rien n'est connu sur une loi , sauf qu'elle appartient à une certaine classe (généralement définie en termes de propriétés ou de mesures spécifiées), alors la loi avec la plus grande entropie doit être choisie comme la moins informative par défaut.
CristallographieLa cristallographie est la science qui se consacre à l'étude des cristaux à l'échelle atomique. Les propriétés physico-chimiques d'un cristal sont étroitement liées à l'arrangement spatial des atomes dans la matière. L'état cristallin est défini par un caractère périodique et ordonné à l'échelle atomique ou moléculaire. Le cristal est obtenu par translation dans toutes les directions d'une unité de base appelée maille élémentaire.
Loi de StudentEn théorie des probabilités et en statistique, la loi de Student est une loi de probabilité, faisant intervenir le quotient entre une variable suivant une loi normale centrée réduite et la racine carrée d'une variable distribuée suivant la loi du χ. Elle est notamment utilisée pour les tests de Student, la construction d'intervalle de confiance et en inférence bayésienne. Soit Z une variable aléatoire de loi normale centrée et réduite et soit U une variable indépendante de Z et distribuée suivant la loi du χ à k degrés de liberté.
Dirichlet-multinomial distributionIn probability theory and statistics, the Dirichlet-multinomial distribution is a family of discrete multivariate probability distributions on a finite support of non-negative integers. It is also called the Dirichlet compound multinomial distribution (DCM) or multivariate Pólya distribution (after George Pólya). It is a compound probability distribution, where a probability vector p is drawn from a Dirichlet distribution with parameter vector , and an observation drawn from a multinomial distribution with probability vector p and number of trials n.
Méthode quantique semi-empiriqueLes méthodes semi-empiriques sont des techniques de résolution de l'équation de Schrödinger de systèmes à plusieurs électrons. Contrairement aux méthodes ab initio, les méthodes semi-empiriques utilisent des données ajustées sur des résultats expérimentaux afin de simplifier les calculs. La longueur et la difficulté des calculs est en grande partie due aux intégrales biélectroniques qui apparaissent au cours du processus de résolution.
Méthode expérimentaleLes méthodes expérimentales scientifiques consistent à tester la validité d'une hypothèse, en reproduisant un phénomène (souvent en laboratoire) et en faisant varier un paramètre. Le paramètre que l'on fait varier est impliqué dans l'hypothèse. Le résultat de l'expérience valide ou non l'hypothèse. La démarche expérimentale est appliquée dans les recherches dans des sciences telles que, par exemple, la biologie, la physique, la chimie, l'informatique, la psychologie, ou encore l'archéologie.
ExergieEn thermodynamique, l’exergie est une grandeur physique permettant de mesurer la qualité d'une énergie. C'est la partie utilisable d'un joule. Le travail maximal récupérable est ainsi égal à l’opposé de la variation d’exergie au cours de la transformation. Un système à l'équilibre thermomécanique ou chimique n'a plus aucune valeur. Plus un système est loin de l'équilibre ambiant, plus il est apte à opérer un changement, aptitude sur laquelle repose l'utilité d'une énergie.
Enthalpie libreL’enthalpie libre, appelée aussi énergie libre de Gibbs ou simplement énergie de Gibbs, est une fonction d'état extensive introduite par Willard Gibbs, et généralement notée G. Le changement d'enthalpie libre correspond au travail maximal qui peut être extrait d'un système fermé à température et pression fixes, hors le travail dû à la variation de volume. L'enthalpie libre est reliée à l'enthalpie par la formule (où désigne la température et l'entropie), à l'énergie libre par la relation (où désigne la pression et le volume) et à l'énergie interne par la relation .
Entropy (statistical thermodynamics)The concept entropy was first developed by German physicist Rudolf Clausius in the mid-nineteenth century as a thermodynamic property that predicts that certain spontaneous processes are irreversible or impossible. In statistical mechanics, entropy is formulated as a statistical property using probability theory. The statistical entropy perspective was introduced in 1870 by Austrian physicist Ludwig Boltzmann, who established a new field of physics that provided the descriptive linkage between the macroscopic observation of nature and the microscopic view based on the rigorous treatment of large ensembles of microstates that constitute thermodynamic systems.
Entropie croiséeEn théorie de l'information, l'entropie croisée entre deux lois de probabilité mesure le nombre de bits moyen nécessaires pour identifier un événement issu de l'« ensemble des événements » - encore appelé tribu en mathématiques - sur l'univers , si la distribution des événements est basée sur une loi de probabilité , relativement à une distribution de référence . L'entropie croisée pour deux distributions et sur le même espace probabilisé est définie de la façon suivante : où est l'entropie de , et est la divergence de Kullback-Leibler entre et .
Physique expérimentalevignette|La physique expérimentale peut parfois recourir à des instruments de très grandes dimensions : ici, construction du détecteur CMS (Compact Muon Solenoid) du Grand collisionneur de hadrons (LHC) au CERN, en 2003. Les techniciens présents en bas de l'image donnent une idée des dimensions réelles de cet ensemble (15 m de diamètre, 21 m de long, pour un poids de 14 000 tonnes) installé 100 mètres sous la surface du sol.
Physique théoriquevignette|Discussion entre physiciens théoriciens à l'École de physique des Houches. La physique théorique est la branche de la physique qui étudie l’aspect théorique des lois physiques et en développe le formalisme mathématique. C'est dans ce domaine que l'on crée les théories, les équations et les constantes en rapport avec la physique. Elle constitue un champ d'études intermédiaire entre la physique expérimentale et les mathématiques, et a souvent contribué au développement de l’une comme de l’autre.