A priori et a posterioriA priori (ou à priori selon l'orthographe rectifiée de 1990) et a posteriori (ou à postériori) sont un couple de concepts utilisés en philosophie et notamment en philosophie de la connaissance. Une connaissance est a priori lorsqu'elle est indépendante de l'expérience sensible et logiquement antérieure. Emmanuel Kant soutient qu'il s'agit d'une connaissance « indépendante de l'expérience ». A contrario, une connaissance a posteriori est empirique, c'est-à-dire qu'elle est « issu[e] de l'expérience » (Kant).
Loi logistiqueEn probabilité et en statistiques, la loi logistique est une loi de probabilité absolument continue à support infini utilisé en régression logistique et pour les réseaux de neurones à propagation avant. Son nom de loi logistique est issu du fait que sa fonction de répartition est une fonction logistique. La loi logistique a deux paramètres μ et s > 0 et sa densité est Sa fonction de répartition est Son espérance et sa variance sont données par les formules suivantes : La loi logistique standard est la loi logistique de paramètres 0 et 1.
Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.
Loi de probabilité à plusieurs variablesvignette|Représentation d'une loi normale multivariée. Les courbes rouge et bleue représentent les lois marginales. Les points noirs sont des réalisations de cette distribution à plusieurs variables. Dans certains problèmes interviennent simultanément plusieurs variables aléatoires. Mis à part les cas particuliers de variables indépendantes (notion définie ci-dessous) et de variables liées fonctionnellement, cela introduit la notion de loi de probabilité à plusieurs variables autrement appelée loi jointe.
Circuit à réactionUn circuit à réaction permet d'amplifier un signal électronique à répétition par le même tube électronique ou autre élément électrique tel un transistor à effet de champ. Inventé par Edwin Howard Armstrong en 1912 , un tel circuit consiste en un tube électronique amplifiant dont la sortie est connectée à son entrée en boucle à rétroaction, ce qui engendre une réaction positive. Ce type de circuit était très utilisé dans les récepteurs radio entre 1920 et la Seconde Guerre mondiale.
Récepteur superhétérodynethumb|Récepteur superhétérodyne à cinq tubes de fabrication japonaise (1955). En électronique, un récepteur hétérodyne est un récepteur conçu sur le principe du mélange de fréquences, ou hétérodynage, pour convertir le signal reçu en une fréquence intermédiaire plus basse qu'il est plus facile d'utiliser que la fréquence reçue en direct. Globalement tous les récepteurs de radio et de télévision modernes fonctionnent sur ce principe. thumb|Condensateur variable double utilisé dans les récepteurs superhétérodynes.
Canal de communication (théorie de l'information)vignette En théorie de l'information, un canal de communication ou canal de transmission est un support (physique ou non) permettant la transmission d'une certaine quantité d'information, depuis une source (ou émetteur) vers un destinataire (ou récepteur). Souvent, le canal altère l'information transmise, par exemple en ajoutant un bruit aléatoire. La quantité d'information qu'un canal de communication peut transporter est limitée : on parle de capacité du canal.
Exponential utilityIn economics and finance, exponential utility is a specific form of the utility function, used in some contexts because of its convenience when risk (sometimes referred to as uncertainty) is present, in which case expected utility is maximized. Formally, exponential utility is given by: is a variable that the economic decision-maker prefers more of, such as consumption, and is a constant that represents the degree of risk preference ( for risk aversion, for risk-neutrality, or for risk-seeking).