Espace de Hilbert à noyau reproduisantEn analyse fonctionnelle, un espace de Hilbert à noyau reproduisant est un espace de Hilbert de fonctions pour lequel toutes les applications sont des formes linéaires continues. De manière équivalente, il existe des espaces qu'on peut définir par des noyaux reproduisants. Le sujet a été originellement et simultanément développé par Nachman Aronszajn et Stefan Bergman en 1950. Les espaces de Hilbert à noyau reproduisant sont parfois désignés sous l’acronyme issu du titre anglais RKHS, pour Reproducing Kernel Hilbert Space.
Processus gaussienEn théorie des probabilités et en statistiques, un processus gaussien est un processus stochastique (une collection de variables aléatoires avec un index temporel ou spatial) de telle sorte que chaque collection finie de ces variables aléatoires suit une loi normale multidimensionnelle ; c'est-à-dire que chaque combinaison linéaire est normalement distribuée. La distribution d'un processus gaussien est la loi jointe de toutes ces variables aléatoires. Ses réalisations sont donc des fonctions avec un domaine continu.
Espace de Hilbertvignette|Une photographie de David Hilbert (1862 - 1943) qui a donné son nom aux espaces dont il est question dans cet article. En mathématiques, un espace de Hilbert est un espace vectoriel réel (resp. complexe) muni d'un produit scalaire euclidien (resp. hermitien), qui permet de mesurer des longueurs et des angles et de définir une orthogonalité. De plus, un espace de Hilbert est complet, ce qui permet d'y appliquer des techniques d'analyse. Ces espaces doivent leur nom au mathématicien allemand David Hilbert.
Densely defined operatorIn mathematics – specifically, in operator theory – a densely defined operator or partially defined operator is a type of partially defined function. In a topological sense, it is a linear operator that is defined "almost everywhere". Densely defined operators often arise in functional analysis as operations that one would like to apply to a larger class of objects than those for which they a priori "make sense".
Apprentissage automatiqueL'apprentissage automatique (en anglais : machine learning, « apprentissage machine »), apprentissage artificiel ou apprentissage statistique est un champ d'étude de l'intelligence artificielle qui se fonde sur des approches mathématiques et statistiques pour donner aux ordinateurs la capacité d'« apprendre » à partir de données, c'est-à-dire d'améliorer leurs performances à résoudre des tâches sans être explicitement programmés pour chacune. Plus largement, il concerne la conception, l'analyse, l'optimisation, le développement et l'implémentation de telles méthodes.
Triplet de GelfandEn analyse fonctionnelle, le triplet de Gelfand (aussi triplet de Banach-Gelfand ou triade hilbertienne ou rigged Hilbert space) est un espace-triplet consistant en un espace de Hilbert , un espace de Banach (ou plus généralement un espace vectoriel topologique) et son dual topologique . L'espace est choisi tel que soit un sous-espace dense dans et que son inclusion soitcontinue. Cette construction a l'avantage que les éléments de peuvent être exprimés comme des éléments de l'espace dual en utilisant le théorème de représentation de Fréchet-Riesz.
Réseau neuronal convolutifEn apprentissage automatique, un réseau de neurones convolutifs ou réseau de neurones à convolution (en anglais CNN ou ConvNet pour convolutional neural networks) est un type de réseau de neurones artificiels acycliques (feed-forward), dans lequel le motif de connexion entre les neurones est inspiré par le cortex visuel des animaux. Les neurones de cette région du cerveau sont arrangés de sorte qu'ils correspondent à des régions qui se chevauchent lors du pavage du champ visuel.
Opérateur non bornéEn analyse fonctionnelle, un opérateur non borné est une application linéaire partiellement définie. Plus précisément, soient X, Y deux espaces vectoriels. Un tel opérateur est donné par un sous-espace dom(T) de X et une application linéaire dont l'ensemble de définition est dom(T) et l'ensemble d'arrivée est Y. Considérons X = Y = L(R) et l'espace de Sobolev H(R) des fonctions de carré intégrable dont la dérivée au sens des distributions appartient, elle aussi, à L(R).
Réseau de neurones à propagation avantUn réseau de neurones à propagation avant, en anglais feedforward neural network, est un réseau de neurones artificiels acyclique, se distinguant ainsi des réseaux de neurones récurrents. Le plus connu est le perceptron multicouche qui est une extension du premier réseau de neurones artificiel, le perceptron inventé en 1957 par Frank Rosenblatt. vignette|Réseau de neurones à propagation avant Le réseau de neurones à propagation avant est le premier type de réseau neuronal artificiel conçu. C'est aussi le plus simple.
Algorithme d'apprentissage incrémentalEn informatique, un algorithme d'apprentissage incrémental ou incrémentiel est un algorithme d'apprentissage qui a la particularité d'être online, c'est-à-dire qui apprend à partir de données reçues au fur et à mesure du temps. À chaque incrément il reçoit des données d'entrées et un résultat, l'algorithme calcule alors une amélioration du calcul fait pour prédire le résultat à partir des données d'entrées.
Opérateur adjointEn mathématiques, un opérateur adjoint est un opérateur sur un espace préhilbertien qui est défini, lorsque c'est possible, à partir d'un autre opérateur a et que l'on note a*. On dit aussi que a* est l'adjoint de a. Cet opérateur adjoint permet de faire passer l'opérateur a de la partie gauche du produit scalaire définissant l'espace préhilbertien à la partie droite du produit scalaire. Il s'agit donc d'une généralisation de la notion de matrice adjointe à des espaces de dimension infinie.
Cube de HilbertEn topologie, on appelle cube de Hilbert l'espace produit muni de la topologie produit, autrement dit : l'espace des suites à valeurs dans [0, 1], muni de la topologie de la convergence simple. D'après le théorème de Tykhonov, c'est un espace compact. Il est homéomorphe au sous-espace suivant de l, pour tous : Il est donc métrisable et par conséquent (puisqu'il est compact), séparable et possède la propriété suivante : Cela fournit en particulier un moyen commode pour compactifier les espaces métrisables séparables, et aussi un critère pour les classifier selon leur complexité ; par exemple un espace est polonais si et seulement s'il est homéomorphe à l'intersection d'une suite d'ouverts de K.
Endomorphisme autoadjointEn mathématiques et plus précisément en algèbre linéaire, un endomorphisme autoadjoint ou opérateur hermitien est un endomorphisme d'espace de Hilbert qui est son propre adjoint (sur un espace de Hilbert réel on dit aussi endomorphisme symétrique). Le prototype d'espace de Hilbert est un espace euclidien, c'est-à-dire un espace vectoriel sur le corps des réels, de dimension finie, et muni d'un produit scalaire. L'analogue sur le corps des complexes s'appelle un espace hermitien.
Réseau neuronal résidueldroite|vignette| Forme canonique d'un réseau neuronal résiduel. Une couche l − 1 est ignoré sur l'activation de l − 2. Un réseau neuronal résiduel ( ResNet ) est un réseau neuronal artificiel (ANN). Il s'agit d'une variante du HighwayNet , le premier réseau neuronal à action directe très profond avec des centaines de couches, beaucoup plus profond que les réseaux neuronaux précédents. Les sauts de connexion ou "raccourcis" sont utilisés pour passer par-dessus certaines couches ( les HighwayNets peuvent également avoir des poids pour les saut eux-mêmes, grâce à une matrice de poids supplémentaire pour leurs portes).
Opérateur de FredholmEn mathématiques, l'opérateur de Fredholm est un concept d'analyse fonctionnelle qui porte le nom du mathématicien suédois Ivar Fredholm (1866-1927). Il s'agit d'un opérateur borné L entre deux espaces de Banach X et Y ayant un noyau de dimension finie et une image de codimension finie. On peut alors définir l'indice de l'opérateur comme Sous ces hypothèses, l'espace image de L est fermé (il admet même un supplémentaire topologique).
Réseaux antagonistes génératifsEn intelligence artificielle, les réseaux antagonistes génératifs (RAG) parfois aussi appelés réseaux adverses génératifs (en anglais generative adversarial networks ou GANs) sont une classe d'algorithmes d'apprentissage non supervisé. Ces algorithmes ont été introduits par . Ils permettent de générer des images avec un fort degré de réalisme. Un GAN est un modèle génératif où deux réseaux sont placés en compétition dans un scénario de théorie des jeux. Le premier réseau est le générateur, il génère un échantillon (ex.
Algorithme du gradient stochastiqueL'algorithme du gradient stochastique est une méthode de descente de gradient (itérative) utilisée pour la minimisation d'une fonction objectif qui est écrite comme une somme de fonctions différentiables. À la fois l'estimation statistique et l'apprentissage automatique s'intéressent au problème de la minimisation d'une fonction objectif qui a la forme d'une somme : où le paramètre qui minimise doit être estimé. Chacune des fonctions est généralement associée avec la -ème observation de l'ensemble des données (utilisées pour l'apprentissage).
Extensions of symmetric operatorsIn functional analysis, one is interested in extensions of symmetric operators acting on a Hilbert space. Of particular importance is the existence, and sometimes explicit constructions, of self-adjoint extensions. This problem arises, for example, when one needs to specify domains of self-adjointness for formal expressions of observables in quantum mechanics. Other applications of solutions to this problem can be seen in various moment problems. This article discusses a few related problems of this type.
Compact operator on Hilbert spaceIn the mathematical discipline of functional analysis, the concept of a compact operator on Hilbert space is an extension of the concept of a matrix acting on a finite-dimensional vector space; in Hilbert space, compact operators are precisely the closure of finite-rank operators (representable by finite-dimensional matrices) in the topology induced by the operator norm. As such, results from matrix theory can sometimes be extended to compact operators using similar arguments.
Positive-definite kernelIn operator theory, a branch of mathematics, a positive-definite kernel is a generalization of a positive-definite function or a positive-definite matrix. It was first introduced by James Mercer in the early 20th century, in the context of solving integral operator equations. Since then, positive-definite functions and their various analogues and generalizations have arisen in diverse parts of mathematics.