Principe d'incertitudeEn mécanique quantique, le principe d'incertitude ou, plus correctement, principe d'indétermination, aussi connu sous le nom de principe d'incertitude de Heisenberg, désigne toute inégalité mathématique affirmant qu'il existe une limite fondamentale à la précision avec laquelle il est possible de connaître simultanément deux propriétés physiques d'une même particule ; ces deux variables dites complémentaires peuvent être sa position (x) et sa quantité de mouvement (p).
Physique des particulesLa physique des particules ou la physique subatomique est la branche de la physique qui étudie les constituants élémentaires de la matière et les rayonnements, ainsi que leurs interactions. On l'appelle aussi parfois physique des hautes énergies car de nombreuses particules élémentaires, instables, n'existent pas à l'état naturel et peuvent seulement être détectées lors de collisions à hautes énergies entre particules stables dans les accélérateurs de particules.
Statistical mechanicsIn physics, statistical mechanics is a mathematical framework that applies statistical methods and probability theory to large assemblies of microscopic entities. It does not assume or postulate any natural laws, but explains the macroscopic behavior of nature from the behavior of such ensembles. Sometimes called statistical physics or statistical thermodynamics, its applications include many problems in the fields of physics, biology, chemistry, and neuroscience.
Test statistiqueEn statistiques, un test, ou test d'hypothèse, est une procédure de décision entre deux hypothèses. Il s'agit d'une démarche consistant à rejeter ou à ne pas rejeter une hypothèse statistique, appelée hypothèse nulle, en fonction d'un échantillon de données. Il s'agit de statistique inférentielle : à partir de calculs réalisés sur des données observées, on émet des conclusions sur la population, en leur rattachant des risques d'être erronées. Hypothèse nulle L'hypothèse nulle notée H est celle que l'on considère vraie a priori.
Méthode de Monte-CarloUne méthode de Monte-Carlo, ou méthode Monte-Carlo, est une méthode algorithmique visant à calculer une valeur numérique approchée en utilisant des procédés aléatoires, c'est-à-dire des techniques probabilistes. Les méthodes de Monte-Carlo sont particulièrement utilisées pour calculer des intégrales en dimensions plus grandes que 1 (en particulier, pour calculer des surfaces et des volumes). Elles sont également couramment utilisées en physique des particules, où des simulations probabilistes permettent d'estimer la forme d'un signal ou la sensibilité d'un détecteur.
Théorème de convergence dominéeEn mathématiques, et plus précisément en analyse, le théorème de convergence dominée est un des théorèmes principaux de la théorie de l'intégration de Lebesgue. Soit une suite de fonctions continues à valeurs réelles ou complexes sur un intervalle de la droite réelle. On fait les deux hypothèses suivantes : la suite converge simplement vers une fonction ; il existe une fonction continue telle queAlors L'existence d'une fonction intégrable majorant toutes les fonctions f équivaut à l'intégrabilité de la fonction (la plus petite fonction majorant toutes les fonctions f).
Valeur pvignette|redresse=1.5|Illustration de la valeur-p. X désigne la loi de probabilité de la statistique de test et z la valeur calculée de la statistique de test. Dans un test statistique, la valeur-p (en anglais p-value pour probability value), parfois aussi appelée p-valeur, est la probabilité pour un modèle statistique donné sous l'hypothèse nulle d'obtenir une valeur au moins aussi extrême que celle observée. L'usage de la valeur-p est courant dans de nombreux domaines de recherche comme la physique, la psychologie, l'économie et les sciences de la vie.
Credible intervalIn Bayesian statistics, a credible interval is an interval within which an unobserved parameter value falls with a particular probability. It is an interval in the domain of a posterior probability distribution or a predictive distribution. The generalisation to multivariate problems is the credible region. Credible intervals are analogous to confidence intervals and confidence regions in frequentist statistics, although they differ on a philosophical basis: Bayesian intervals treat their bounds as fixed and the estimated parameter as a random variable, whereas frequentist confidence intervals treat their bounds as random variables and the parameter as a fixed value.
Pearson correlation coefficientIn statistics, the Pearson correlation coefficient (PCC) is a correlation coefficient that measures linear correlation between two sets of data. It is the ratio between the covariance of two variables and the product of their standard deviations; thus, it is essentially a normalized measurement of the covariance, such that the result always has a value between −1 and 1. As with covariance itself, the measure can only reflect a linear correlation of variables, and ignores many other types of relationships or correlations.
Rayon de convergenceLe rayon de convergence d'une série entière est le nombre réel positif ou +∞ égal à la borne supérieure de l'ensemble des modules des nombres complexes où la série converge (au sens classique de la convergence simple): Si R est le rayon de convergence d'une série entière, alors la série est absolument convergente sur le disque ouvert D(0, R) de centre 0 et de rayon R. Ce disque est appelé disque de convergence. Cette convergence absolue entraine ce qui est parfois qualifié de convergence inconditionnelle : la valeur de la somme en tout point de ce disque ne dépend pas de l'ordre des termes.
Théorie des perturbationsLa théorie des perturbations est un domaine des mathématiques, qui consiste à étudier les contextes où il est possible de trouver une solution approchée à une équation en partant de la solution d'un problème plus simple. Plus précisément, on cherche une solution approchée à une équation (E) (dépendante d'un paramètre λ), sachant que la solution de l'équation (E) (correspondant à la valeur λ=0) est connue exactement. L'équation mathématique (E) peut être par exemple une équation algébrique ou une équation différentielle.
Particle Data GroupLe Particle Data Group est une collaboration internationale de physiciens des particules compulsant et réanalysant les résultats publiés relatifs aux propriétés des particules élémentaires et des interactions fondamentales. Il publie également des revues sur les résultats théoriques importants d'un point de vue phénoménologique comme en cosmologie. Le Particle Data Group publie biannuellement sa Review of Particle Physics (Revue de la physique des particules) en version poche, appelé le Particle Data Booklet (Livret de données sur les particules).