Équation différentielle stochastiqueUne équation différentielle stochastique (EDS) est une généralisation de la notion d'équation différentielle prenant en compte un terme de bruit blanc. Les EDS permettent de modéliser des trajectoires aléatoires, tels des cours de bourse ou les mouvements de particules soumises à des phénomènes de diffusion. Elles permettent aussi de traiter théoriquement ou numériquement des problèmes issus de la théorie des équations aux dérivées partielles.
Calcul stochastiqueLe calcul est l’étude des phénomènes aléatoires dépendant du temps. À ce titre, c'est une extension de la théorie des probabilités. Ne pas confondre avec la technique des calculateurs stochastiques. Le domaine d’application du calcul stochastique comprend la mécanique quantique, le traitement du signal, la chimie, les mathématiques financières, la météorologie et même la musique. Un processus aléatoire est une famille de variables aléatoires indexée par un sous-ensemble de ou , souvent assimilé au temps (voir aussi Processus stochastique).
Processus stochastiqueUn processus ou processus aléatoire (voir Calcul stochastique) ou fonction aléatoire (voir Probabilité) représente une évolution, discrète ou à temps continu, d'une variable aléatoire. Celle-ci intervient dans le calcul classique des probabilités, où elle mesure chaque résultat possible (ou réalisation) d'une épreuve. Cette notion se généralise à plusieurs dimensions. Un cas particulier important, le champ aléatoire de Markov, est utilisé en analyse spatiale.
Intégrale d'Itōvignette|Tracé d'une trajectoire échantillon d'un processus de Wiener, ou mouvement brownien, B, ainsi que son intégrale d'Itô par rapport à lui-même. L'intégration par parties ou le lemme d'Itô montre que l'intégrale est égale à (B2 - t)/2. L'intégrale d'Itô, appelée en l'honneur du mathématicien Kiyoshi Itô, est un des outils fondamentaux du calcul stochastique. Elle a d'importantes applications en mathématique financière et pour la résolution des équations différentielles stochastiques.
SchemeScheme (prononciation : ) est un langage de programmation dérivé du langage fonctionnel Lisp, créé dans les années 1970 au Massachusetts Institute of Technology (MIT) par Gerald Jay Sussman et Guy L. Steele. Le but des créateurs du langage était d'épurer le Lisp en conservant les aspects essentiels, la flexibilité et la puissance expressive. Scheme a donc une syntaxe extrêmement simple, avec un nombre très limité de mots-clés. Comme en Lisp, la notation préfixée permet de s'affranchir d'une précédence des opérateurs.
Racket (langage)Racket est un langage de programmation de la famille Lisp. Il fait partie du projet Racket (autrefois PLT Scheme), qui regroupe plusieurs variantes du langage Scheme ainsi qu'une série d'outils pour les utiliser. L'un de ses objectifs est de servir de plate-forme pour la création, la conception et l'implémentation. Initialement, DrScheme a été conçu comme un environnement de développement à but pédagogique, pour servir de support au cours d'introduction à l'informatique de l'université Rice.
Lemme d'ItōLe lemme d'Itō, ou formule d'Itō, est l'un des principaux résultats de la théorie du calcul stochastique, qui permet d'exprimer la différentielle d'une fonction d'un processus stochastique au cours du temps. Ce lemme offre un moyen de manipuler le mouvement brownien ou les solutions d'équations différentielles stochastiques (EDS). La formule d'Itō a été démontrée pour la première fois par le mathématicien japonais Kiyoshi Itō dans les années 1940.
Programmation dynamiqueEn informatique, la programmation dynamique est une méthode algorithmique pour résoudre des problèmes d'optimisation. Le concept a été introduit au début des années 1950 par Richard Bellman. À l'époque, le terme « programmation » signifie planification et ordonnancement. La programmation dynamique consiste à résoudre un problème en le décomposant en sous-problèmes, puis à résoudre les sous-problèmes, des plus petits aux plus grands en stockant les résultats intermédiaires.
Bellman equationA Bellman equation, named after Richard E. Bellman, is a necessary condition for optimality associated with the mathematical optimization method known as dynamic programming. It writes the "value" of a decision problem at a certain point in time in terms of the payoff from some initial choices and the "value" of the remaining decision problem that results from those initial choices. This breaks a dynamic optimization problem into a sequence of simpler subproblems, as Bellman's “principle of optimality" prescribes.
LispLisp est la plus ancienne famille de langages de programmation à la fois impératifs et fonctionnels. Développé initialement en tant que modèle pratique pour représenter des programmes (par contraste avec la notion théorique de machine de Turing), il est devenu, dans les années 1970 et 80, un des langages de choix (comme le langage Prolog) pour la recherche en intelligence artificielle. Les langages Lisp sont aujourd'hui utilisés dans de nombreux domaines, de la programmation Web à la finance, et dans certains cursus de formation en informatique.
Théorie du contrôleEn mathématiques et en sciences de l'ingénieur, la théorie du contrôle a comme objet l'étude du comportement de systèmes dynamiques paramétrés en fonction des trajectoires de leurs paramètres. On se place dans un ensemble, l'espace d'état sur lequel on définit une dynamique, c'est-à-dire une loi mathématiques caractérisant l'évolution de variables (dites variables d'état) au sein de cet ensemble. Le déroulement du temps est modélisé par un entier .
Chicken (Scheme implementation)Chicken (stylized as CHICKEN) is a programming language, specifically a compiler and interpreter which implement a dialect of the programming language Scheme, and which compiles Scheme source code to standard C. It is mostly R5RS compliant and offers many extensions to the standard. The newer R7RS standard is supported through an extension library. Chicken is free and open-source software available under a BSD license. It is implemented mostly in Scheme, with some parts in C for performance or to make embedding into C programs easier.
Générateur infinitésimalUn générateur infinitésimal est un outil de calcul stochastique, utilisé notamment pour les processus de Markov à temps continu. Soit le processus stochastique à temps continu et à états discrets. Soit la variable aléatoire désignant le temps que passe le processus à l'état avant de passer dans un autre état. Les chaînes de Markov à temps continu sont des processus stochastiques qui doivent (entre autres) vérifier la propriété de non-vieillissement :ce qui signifie que le temps qu'il reste à passer dans un état ne dépend pas du temps déjà passé dans cet état.
Continuous stochastic processIn probability theory, a continuous stochastic process is a type of stochastic process that may be said to be "continuous" as a function of its "time" or index parameter. Continuity is a nice property for (the sample paths of) a process to have, since it implies that they are well-behaved in some sense, and, therefore, much easier to analyze. It is implicit here that the index of the stochastic process is a continuous variable.
StochastiqueLe mot stochastique est synonyme d', en référence au hasard et s’oppose par définition au déterminisme. Stochastique est un terme d'origine grecque qui signifie « basé sur la conjecture ». En français, il est couramment utilisé pour décrire des phénomènes aléatoires ou imprévisibles. Dans les mathématiques et la statistique, « stochastique » fait référence à des processus qui sont déterminés par des séquences de mouvements aléatoires. Cela inclut tout ce qui est aléatoire ou imprévisible en fonction des informations actuellement disponibles.
Stochastic controlStochastic control or stochastic optimal control is a sub field of control theory that deals with the existence of uncertainty either in observations or in the noise that drives the evolution of the system. The system designer assumes, in a Bayesian probability-driven fashion, that random noise with known probability distribution affects the evolution and observation of the state variables. Stochastic control aims to design the time path of the controlled variables that performs the desired control task with minimum cost, somehow defined, despite the presence of this noise.
Commande optimaleLa théorie de la commande optimale permet de déterminer la commande d'un système qui minimise (ou maximise) un critère de performance, éventuellement sous des contraintes pouvant porter sur la commande ou sur l'état du système. Cette théorie est une généralisation du calcul des variations. Elle comporte deux volets : le principe du maximum (ou du minimum, suivant la manière dont on définit l'hamiltonien) dû à Lev Pontriaguine et à ses collaborateurs de l'institut de mathématiques Steklov , et l'équation de Hamilton-Jacobi-Bellman, généralisation de l'équation de Hamilton-Jacobi, et conséquence directe de la programmation dynamique initiée aux États-Unis par Richard Bellman.
Commande prédictiveLa commande prédictive (ou compensation ou correction anticipatrice) est une technique de commande avancée de l’automatique. Elle a pour objectif de commander des systèmes industriels complexes. Le principe de cette technique est d'utiliser un modèle dynamique du processus à l'intérieur du contrôleur en temps réel afin d'anticiper le futur comportement du procédé. La commande prédictive fait partie des techniques de contrôle à modèle interne (IMC: Internal Model Controler).
Pratique fondée sur les preuvesLa pratique fondée sur les preuves, sur les faits, ou sur des données probantes est une approche interdisciplinaire de la pratique clinique qui a gagné du terrain après son apparition au début des années 1990 par l'intermédiaire du médecin canadien Gordon Guyatt. En 1992, une publication indique : . Elle a commencé en médecine comme médecine factuelle (EBM) et se propage aux professions paramédicales de la santé, domaines éducatifs et autres.
Processus de LévyEn théorie des probabilités, un processus de Lévy, nommé d'après le mathématicien français Paul Lévy, est un processus stochastique en temps continu, continu à droite limité à gauche (càdlàg), partant de 0, dont les accroissements sont stationnaires et indépendants (cette notion est expliquée ci-dessous). Les exemples les plus connus sont le processus de Wiener et le processus de Poisson.