Canal de communication (théorie de l'information)vignette En théorie de l'information, un canal de communication ou canal de transmission est un support (physique ou non) permettant la transmission d'une certaine quantité d'information, depuis une source (ou émetteur) vers un destinataire (ou récepteur). Souvent, le canal altère l'information transmise, par exemple en ajoutant un bruit aléatoire. La quantité d'information qu'un canal de communication peut transporter est limitée : on parle de capacité du canal.
Loi normale multidimensionnelleEn théorie des probabilités, on appelle loi normale multidimensionnelle, ou normale multivariée ou loi multinormale ou loi de Gauss à plusieurs variables, la loi de probabilité qui est la généralisation multidimensionnelle de la loi normale. gauche|vignette|Différentes densités de lois normales en un dimension. gauche|vignette|Densité d'une loi gaussienne en 2D. Une loi normale classique est une loi dite « en cloche » en une dimension.
Loi de StudentEn théorie des probabilités et en statistique, la loi de Student est une loi de probabilité, faisant intervenir le quotient entre une variable suivant une loi normale centrée réduite et la racine carrée d'une variable distribuée suivant la loi du χ. Elle est notamment utilisée pour les tests de Student, la construction d'intervalle de confiance et en inférence bayésienne. Soit Z une variable aléatoire de loi normale centrée et réduite et soit U une variable indépendante de Z et distribuée suivant la loi du χ à k degrés de liberté.
Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.
Loi inverseEn théorie des probabilités et en statistique, une loi inverse est la loi de probabilités de l'inverse d'une variable aléatoire. Les lois inverses apparaissent en particulier dans le contexte bayésien des lois a priori et des lois a posteriori pour les paramètres d'échelle. Dans l'algèbre des variables aléatoires, les lois inverses sont des cas particuliers de la classe des lois de rapport, dans laquelle la variable aléatoire du numérateur a une .