Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.
Système thermodynamiqueEn thermodynamique classique, un système thermodynamique est une portion de l'Univers que l'on isole par la pensée du reste de l'Univers, ce dernier constituant alors le milieu extérieur. Le système thermodynamique n'est pas forcément défini par une frontière matérielle, ni nécessairement connexe. Les gouttes de liquide dans un brouillard, par exemple, définissent un système thermodynamique. Le milieu extérieur considéré est constitué par la portion d'Univers en interaction avec le système étudié.
Processus stochastiqueUn processus ou processus aléatoire (voir Calcul stochastique) ou fonction aléatoire (voir Probabilité) représente une évolution, discrète ou à temps continu, d'une variable aléatoire. Celle-ci intervient dans le calcul classique des probabilités, où elle mesure chaque résultat possible (ou réalisation) d'une épreuve. Cette notion se généralise à plusieurs dimensions. Un cas particulier important, le champ aléatoire de Markov, est utilisé en analyse spatiale.