Filtre (électronique)En électronique, un filtre est un circuit linéaire qui transmet une grandeur électrique (courant ou tension) selon sa répartition en fréquences. Le filtre transforme l'histoire de cette grandeur d'entrée (c'est-à-dire ses valeurs successives depuis un certain temps) en une grandeur de sortie. Pour raisonner sur les filtres électroniques, on les considère comme des quadripôles dont les grandeurs électriques d'entrée et de sortie seraient un signal, même quand celles-ci ne servent pas à transmettre de l'information (comme dans le cas des filtres d'alimentation).
Quantification (signal)En traitement des signaux, la quantification est le procédé qui permet d'approcher un signal continu par les valeurs d'un ensemble discret d'assez petite taille. On parle aussi de quantification pour approcher un signal à valeurs dans un ensemble discret de grande taille par un ensemble plus restreint. L'application la plus courante de la quantification est la conversion analogique-numérique mais elle doit le développement de sa théorie aux problèmes de quantification pour la compression de signaux audio ou .
Super-résolutionEn traitement du signal et en , la super-résolution désigne le processus qui consiste à améliorer la résolution spatiale, c'est-à-dire le niveau de détail, d'une image ou d'un système d'acquisition. Cela regroupe des méthodes matérielles qui visent à contourner les problèmes optiques et autres difficultés physiques rencontrées lors de l'acquisition d'image, ainsi que des techniques algorithmiques qui, à partir d'une ou de plusieurs images déjà capturées, créent une image de meilleure résolution.
Fréquence de NyquistLa fréquence de Nyquist, du nom de l'ingénieur électronicien Harry Nyquist, est la fréquence maximale que doit contenir un signal pour permettre sa description non ambiguë par un échantillonnage à intervalles réguliers. Elle est aussi connue sous le nom de fréquence limite de repliement. Elle est égale à la moitié de la fréquence d'échantillonnage. Le théorème d'échantillonnage procède de l'analyse spectrale, qui montre que tout signal peut se décomposer en une somme de sinusoïdes.
Supersamplingvignette|Calcul de la valeur de la couleur finale en Le supersampling est un terme anglais définissant une action de suréchantillonnage. Dans le domaine de l'infographie, ou du rendu en temps réel, le supersampling est un procédé utilisé pour tenter d'anticréneler une image. En image, l'échantillonnage constitue les pixels, le crènelage s'opère dans l'espace. Le problème peut donc se constater sur des motifs répétitifs comme des damiers par exemple. Il s'agit d'une corrélation entre l'échantillonnage et le motif à visualiser.
Classe de complexitéEn informatique théorique, et plus précisément en théorie de la complexité, une classe de complexité est un ensemble de problèmes algorithmiques dont la résolution nécessite la même quantité d'une certaine ressource. Une classe est souvent définie comme l'ensemble de tous les problèmes qui peuvent être résolus sur un modèle de calcul M, utilisant une quantité de ressources du type R, où n, est la taille de l'entrée. Les classes les plus usuelles sont celles définies sur des machines de Turing, avec des contraintes de temps de calcul ou d'espace.
Ensembles disjointsvignette|Trois ensembles disjoints En mathématiques, deux ensembles sont dits disjoints s'ils n'ont pas d'éléments en commun. Par exemple, et sont deux ensembles disjoints. De manière formelle, deux ensembles A et B sont disjoints si leur intersection est l'ensemble vide, c'est-à-dire si (Dans le cas contraire, on dit que A et B « se rencontrent ».) Cette définition s'étend à une famille d'ensembles. Les ensembles d'une famille sont dits disjoints deux à deux ou mutuellement disjoints si deux ensembles quelconques de cette famille sont disjoints.
Iterative reconstructionIterative reconstruction refers to iterative algorithms used to reconstruct 2D and 3D images in certain imaging techniques. For example, in computed tomography an image must be reconstructed from projections of an object. Here, iterative reconstruction techniques are usually a better, but computationally more expensive alternative to the common filtered back projection (FBP) method, which directly calculates the image in a single reconstruction step.
Universal setIn set theory, a universal set is a set which contains all objects, including itself. In set theory as usually formulated, it can be proven in multiple ways that a universal set does not exist. However, some non-standard variants of set theory include a universal set. Many set theories do not allow for the existence of a universal set. There are several different arguments for its non-existence, based on different choices of axioms for set theory. In Zermelo–Fraenkel set theory, the axiom of regularity and axiom of pairing prevent any set from containing itself.
Computational complexityIn computer science, the computational complexity or simply complexity of an algorithm is the amount of resources required to run it. Particular focus is given to computation time (generally measured by the number of needed elementary operations) and memory storage requirements. The complexity of a problem is the complexity of the best algorithms that allow solving the problem. The study of the complexity of explicitly given algorithms is called analysis of algorithms, while the study of the complexity of problems is called computational complexity theory.
Optimisation linéairethumb|upright=0.5|Optimisation linéaire dans un espace à deux dimensions (x1, x2). La fonction-coût fc est représentée par les lignes de niveau bleues à gauche et par le plan bleu à droite. L'ensemble admissible E est le pentagone vert. En optimisation mathématique, un problème d'optimisation linéaire demande de minimiser une fonction linéaire sur un polyèdre convexe. La fonction que l'on minimise ainsi que les contraintes sont décrites par des fonctions linéaires, d'où le nom donné à ces problèmes.
Discrete time and continuous timeIn mathematical dynamics, discrete time and continuous time are two alternative frameworks within which variables that evolve over time are modeled. Discrete time views values of variables as occurring at distinct, separate "points in time", or equivalently as being unchanged throughout each non-zero region of time ("time period")—that is, time is viewed as a discrete variable. Thus a non-time variable jumps from one value to another as time moves from one time period to the next.