Loi normale multidimensionnelleEn théorie des probabilités, on appelle loi normale multidimensionnelle, ou normale multivariée ou loi multinormale ou loi de Gauss à plusieurs variables, la loi de probabilité qui est la généralisation multidimensionnelle de la loi normale. gauche|vignette|Différentes densités de lois normales en un dimension. gauche|vignette|Densité d'une loi gaussienne en 2D. Une loi normale classique est une loi dite « en cloche » en une dimension.
Indicateur de dispersionEn statistique, un indicateur de dispersion mesure la variabilité des valeurs d’une série statistique. Il est toujours positif et d’autant plus grand que les valeurs de la série sont étalées. Les plus courants sont la variance, l'écart-type et l'écart interquartile. Ces indicateurs complètent l’information apportée par les indicateurs de position ou de tendance centrale, mesurés par la moyenne ou la médiane. Dans la pratique, c'est-à-dire dans l'industrie, les laboratoires ou en métrologie, où s'effectuent des mesurages, cette dispersion est estimée par l'écart type.
Loi normaleEn théorie des probabilités et en statistique, les lois normales sont parmi les lois de probabilité les plus utilisées pour modéliser des phénomènes naturels issus de plusieurs événements aléatoires. Elles sont en lien avec de nombreux objets mathématiques dont le mouvement brownien, le bruit blanc gaussien ou d'autres lois de probabilité. Elles sont également appelées lois gaussiennes, lois de Gauss ou lois de Laplace-Gauss des noms de Laplace (1749-1827) et Gauss (1777-1855), deux mathématiciens, astronomes et physiciens qui l'ont étudiée.
Loi de Cauchy (probabilités)La loi de Cauchy, appelée aussi loi de Lorentz, est une loi de probabilité continue qui doit son nom au mathématicien Augustin Louis Cauchy. Une variable aléatoire X suit une loi de Cauchy si sa densité , dépendant des deux paramètres et ( > 0) est définie par : La fonction ainsi définie s'appelle une lorentzienne. Elle apparaît par exemple en spectroscopie pour modéliser des raies d'émission. Cette distribution est symétrique par rapport à (paramètre de position), le paramètre donnant une information sur l'étalement de la fonction (paramètre d'échelle).
Écart typethumb|Exemple de deux échantillons ayant la même moyenne (100) mais des écarts types différents illustrant l'écart type comme mesure de la dispersion autour de la moyenne. La population rouge a un écart type (SD = standard deviation) de 10 et la population bleue a un écart type de 50. En mathématiques, l’écart type (aussi orthographié écart-type) est une mesure de la dispersion des valeurs d'un échantillon statistique ou d'une distribution de probabilité.
Loi de probabilitéthumb|400px 3 répartitions.png En théorie des probabilités et en statistique, une loi de probabilité décrit le comportement aléatoire d'un phénomène dépendant du hasard. L'étude des phénomènes aléatoires a commencé avec l'étude des jeux de hasard. Jeux de dés, tirage de boules dans des urnes et jeu de pile ou face ont été des motivations pour comprendre et prévoir les expériences aléatoires. Ces premières approches sont des phénomènes discrets, c'est-à-dire dont le nombre de résultats possibles est fini ou infini dénombrable.
Loi GammaEn théorie des probabilités et en statistiques, une distribution Gamma ou loi Gamma est un type de loi de probabilité de variables aléatoires réelles positives. La famille des distributions Gamma inclut, entre autres, la loi du χ2 et les distributions exponentielles et la distribution d'Erlang. Une distribution Gamma est caractérisée par deux paramètres k et θ et qui affectent respectivement la forme et l'échelle de la représentation graphique de sa fonction de densité.
Loi inverse-gammaDans la Théorie des probabilités et en statistiques, la distribution inverse-gamma est une famille de lois de probabilité continues à deux paramètres sur la demi-droite des réels positifs. Il s'agit de l'inverse d'une variable aléatoire distribuée selon une distribution Gamma. La densité de probabilité de la loi inverse-gamma est définie sur le support par: où est un paramètre de forme et un paramètre d'intensité, c'est-à-dire l'inverse d'un paramètre d'échelle.
Matrice aléatoireEn théorie des probabilités et en physique mathématique, une matrice aléatoire est une matrice dont les éléments sont des variables aléatoires. La théorie des matrices aléatoires a pour objectif de comprendre certaines propriétés de ces matrices, comme leur norme d'opérateur, leurs valeurs propres ou leurs valeurs singulières. Face à la complexité croissante des spectres nucléaires observés expérimentalement dans les années 1950, Wigner a suggéré de remplacer l'opérateur hamiltonien du noyau par une matrice aléatoire.
Valeur absolue des écartsEn statistique, la déviation absolue moyenne (ou simplement déviation moyenne) d'un ensemble est la moyenne (ou valeur prévue) des déviations absolues par rapport à un point central d'une série statistique. C'est une statistique sommaire de dispersion ou de variabilité statistique, et elle peut être associée à toute mesure à une tendance centrale (moyenne, médiane, mode...). La déviation absolue d'un élément a d'un ensemble de données x par rapport à un réel est a – x.
Fonction de répartitionEn théorie des probabilités, la fonction de répartition, ou fonction de distribution cumulative, d'une variable aléatoire réelle X est la fonction F_X qui, à tout réel x, associe la probabilité d’obtenir une valeur inférieure ou égale : Cette fonction est caractéristique de la loi de probabilité de la variable aléatoire.
Median absolute deviationIn statistics, the median absolute deviation (MAD) is a robust measure of the variability of a univariate sample of quantitative data. It can also refer to the population parameter that is estimated by the MAD calculated from a sample. For a univariate data set X1, X2, ..., Xn, the MAD is defined as the median of the absolute deviations from the data's median : that is, starting with the residuals (deviations) from the data's median, the MAD is the median of their absolute values. Consider the data (1, 1, 2, 2, 4, 6, 9).
Deviation (statistics)In mathematics and statistics, deviation is a measure of difference between the observed value of a variable and some other value, often that variable's mean. The sign of the deviation reports the direction of that difference (the deviation is positive when the observed value exceeds the reference value). The magnitude of the value indicates the size of the difference. Errors and residuals A deviation that is a difference between an observed value and the true value of a quantity of interest (where true value denotes the Expected Value, such as the population mean) is an error.
Analyse spatialevignette|200px|Carte de cas de choléra pendant l'épidémie de 1854 à Londres L'analyse spatiale est une approche géographique qui étudie les localisations et les interactions spatiales en tant que composantes actives des fonctionnements sociétaux. Elle part du postulat selon lequel l'espace est acteur organisé. C'est une science nomothétique donc elle vise à proposer une approche modélisée de l'espace géographique en mettant en évidence des formes récurrentes d'organisation spatiales et des théories, notamment à travers diverses notions-clés : distance, réseaux, structure, .
Loi gamma-normaleEn théorie des probabilités et en statistiques, la loi gamma-normale (ou Gamma- Gaussienne) est une distribution bivariée continue à quatre paramètres. Elle est la prieure conjuguée de la loi normale de moyenne et variance inconnues. Soit une paire de variable aléatoires (X,T). Si la distribution conditionnelle de X sachant T est normale de moyenne et variance et si la distribution marginale de T est une loi gamma alors (X,T) suit une loi gamma-normale, que l'on note La fonction de densité conjointe de (X,T) a la forme Par définition, la distribution marginale de est une loi gamma.
Statistical populationIn statistics, a population is a set of similar items or events which is of interest for some question or experiment. A statistical population can be a group of existing objects (e.g. the set of all stars within the Milky Way galaxy) or a hypothetical and potentially infinite group of objects conceived as a generalization from experience (e.g. the set of all possible hands in a game of poker). A common aim of statistical analysis is to produce information about some chosen population.
Erreur typeLerreur type d'une statistique (souvent une estimation d'un paramètre) est l'écart type de sa distribution d'échantillonnage ou l'estimation de son écart type. Si le paramètre ou la statistique est la moyenne, on parle d'erreur type de la moyenne. La distribution d'échantillonnage est générée par tirage répété et enregistrements des moyennes obtenues. Cela forme une distribution de moyennes différentes, et cette distribution a sa propre moyenne et variance.
Inférence statistiquevignette|Illustration des 4 principales étapes de l'inférence statistique L'inférence statistique est l'ensemble des techniques permettant d'induire les caractéristiques d'un groupe général (la population) à partir de celles d'un groupe particulier (l'échantillon), en fournissant une mesure de la certitude de la prédiction : la probabilité d'erreur. Strictement, l'inférence s'applique à l'ensemble des membres (pris comme un tout) de la population représentée par l'échantillon, et non pas à tel ou tel membre particulier de cette population.
Modèle statistiqueUn modèle statistique est une description mathématique approximative du mécanisme qui a généré les observations, que l'on suppose être un processus stochastique et non un processus déterministe. Il s’exprime généralement à l’aide d’une famille de distributions (ensemble de distributions) et d’hypothèses sur les variables aléatoires X1, . . ., Xn. Chaque membre de la famille est une approximation possible de F : l’inférence consiste donc à déterminer le membre qui s’accorde le mieux avec les données.
Variance-gamma distributionThe variance-gamma distribution, generalized Laplace distribution or Bessel function distribution is a continuous probability distribution that is defined as the normal variance-mean mixture where the mixing density is the gamma distribution. The tails of the distribution decrease more slowly than the normal distribution. It is therefore suitable to model phenomena where numerically large values are more probable than is the case for the normal distribution. Examples are returns from financial assets and turbulent wind speeds.