Scale-invariant feature transform[[Fichier:Matching of two images using the SIFT method.jpg|thumb|right|alt=Exemple de mise en correspondance de deux images par la méthode SIFT : des lignes vertes relient entre eux les descripteurs communs à un tableau et une photo de ce même tableau, de moindre qualité, ayant subi des transformations. |Exemple de résultat de la comparaison de deux images par la méthode SIFT (Fantasia ou Jeu de la poudre, devant la porte d’entrée de la ville de Méquinez, par Eugène Delacroix, 1832).
Corner detectionCorner detection is an approach used within computer vision systems to extract certain kinds of features and infer the contents of an image. Corner detection is frequently used in motion detection, , video tracking, image mosaicing, panorama stitching, 3D reconstruction and object recognition. Corner detection overlaps with the topic of interest point detection. A corner can be defined as the intersection of two edges. A corner can also be defined as a point for which there are two dominant and different edge directions in a local neighbourhood of the point.
Feature (computer vision)In computer vision and , a feature is a piece of information about the content of an image; typically about whether a certain region of the image has certain properties. Features may be specific structures in the image such as points, edges or objects. Features may also be the result of a general neighborhood operation or feature detection applied to the image. Other examples of features are related to motion in image sequences, or to shapes defined in terms of curves or boundaries between different image regions.
Recalage d'imagesEn , le recalage est une technique qui consiste en la « mise en correspondance d'images », dans le but de comparer ou combiner leurs informations respectives. Cette méthode repose sur les mêmes principes physique et le même type de modélisation mathématique que la . Cette mise en correspondance se fait par la recherche d'une transformation géométrique permettant de passer d'une image à une autre.
Speeded Up Robust FeaturesSpeeded Up Robust Features (SURF), que l'on peut traduire par caractéristiques robustes accélérées, est un algorithme de détection de caractéristique et un descripteur, présenté par des chercheurs de l'ETH Zurich et de la Katholieke Universiteit Leuven pour la première fois en 2006 puis dans une version révisée en 2008. Il est utilisé dans le domaine de vision par ordinateur, pour des tâches de détection d'objet ou de reconstruction 3D.
Blob detectionIn computer vision, blob detection methods are aimed at detecting regions in a that differ in properties, such as brightness or color, compared to surrounding regions. Informally, a blob is a region of an image in which some properties are constant or approximately constant; all the points in a blob can be considered in some sense to be similar to each other. The most common method for blob detection is convolution.
GéométrieLa géométrie est à l'origine la branche des mathématiques étudiant les figures du plan et de l'espace (géométrie euclidienne). Depuis la fin du , la géométrie étudie également les figures appartenant à d'autres types d'espaces (géométrie projective, géométrie non euclidienne ). Depuis le début du , certaines méthodes d'étude de figures de ces espaces se sont transformées en branches autonomes des mathématiques : topologie, géométrie différentielle et géométrie algébrique.
Computational complexityIn computer science, the computational complexity or simply complexity of an algorithm is the amount of resources required to run it. Particular focus is given to computation time (generally measured by the number of needed elementary operations) and memory storage requirements. The complexity of a problem is the complexity of the best algorithms that allow solving the problem. The study of the complexity of explicitly given algorithms is called analysis of algorithms, while the study of the complexity of problems is called computational complexity theory.
Géométrie algébriqueLa géométrie algébrique est un domaine des mathématiques qui, historiquement, s'est d'abord intéressé à des objets géométriques (courbes, surfaces...) composés des points dont les coordonnées vérifiaient des équations ne faisant intervenir que des sommes et des produits (par exemple le cercle unité dans le plan rapporté à un repère orthonormé admet pour équation ). La simplicité de cette définition fait qu'elle embrasse un grand nombre d'objets et qu'elle permet de développer une théorie riche.
Théorie de la complexité (informatique théorique)vignette|Quelques classes de complexité étudiées dans le domaine de la théorie de la complexité. Par exemple, P est la classe des problèmes décidés en temps polynomial par une machine de Turing déterministe. La théorie de la complexité est le domaine des mathématiques, et plus précisément de l'informatique théorique, qui étudie formellement le temps de calcul, l'espace mémoire (et plus marginalement la taille d'un circuit, le nombre de processeurs, l'énergie consommée ...) requis par un algorithme pour résoudre un problème algorithmique.
Géométrie discrèteLa géométrie discrète est une branche de la géométrie. On parle de géométrie discrète pour la distinguer de la géométrie « continue ». Tout comme cette dernière, elle peut être analytique, les objets sont dans ce cas décrits par des inéquations. Un exemple simple : la géométrie continue en deux dimensions permet de définir des droites, des cercles dans un plan. Ces objets sont des ensembles de points qui sont des couples de nombres réels.
Spherical aberrationIn optics, spherical aberration (SA) is a type of aberration found in optical systems that have elements with spherical surfaces. Lenses and curved mirrors are prime examples, because this shape is easier to manufacture. Light rays that strike a spherical surface off-centre are refracted or reflected more or less than those that strike close to the centre. This deviation reduces the quality of images produced by optical systems. The effect of spherical aberration was first identified by Ibn al-Haytham who discussed it in his work Kitāb al-Manāẓir.
Géométrie euclidienneLa géométrie euclidienne commence avec les Éléments d'Euclide, qui est à la fois une somme des connaissances géométriques de l'époque et une tentative de formalisation mathématique de ces connaissances. Les notions de droite, de plan, de longueur, d'aire y sont exposées et forment le support des cours de géométrie élémentaire. La conception de la géométrie est intimement liée à la vision de l'espace physique ambiant au sens classique du terme.
Coordonnées sphériquesvignette|Illustration de la convention de l'article. La position du point P est définie par la distance et par les angles (colatitude) et (longitude).|alt= On appelle coordonnées sphériques divers systèmes de coordonnées orthogonales de l'espace analogues aux coordonnées polaires du plan. Un point de l'espace est repéré dans ces systèmes par la distance à une origine (le pôle) et par deux angles. Ils sont d'emploi courant pour le repérage géographique : l'altitude, la latitude et la longitude sont une variante de ces coordonnées.
Géométrie analytiqueLa géométrie analytique est une approche de la géométrie dans laquelle les objets sont décrits par des équations ou des inéquations à l'aide d'un système de coordonnées. Elle est fondamentale pour la physique et l'infographie. En géométrie analytique, le choix d'un repère est indispensable. Tous les objets seront décrits relativement à ce repère. Repérage dans le plan et dans l'espace Le terme de géométrie analytique, par opposition à la géométrie synthétique, se réfère aux méthodes d'analyse et synthèse pratiquées par les géomètres grecs.
Détection de contoursEn et en vision par ordinateur, on appelle détection de contours les procédés permettant de repérer les points d'une qui correspondent à un changement brutal de l'intensité lumineuse. Ces changements de propriétés de l' indiquent en général des éléments importants de structure dans l'objet représenté. Ces éléments incluent des discontinuités dans la profondeur, dans l'orientation d'une surface, dans les propriétés d'un matériau et dans l'éclairage d'une scène.
Centre (géométrie)En géométrie, la notion de centre (du grec κέντρον) d'un objet ou d'une figure généralise celle de milieu d'un segment, de centre d'un cercle ou d'une sphère. Le centre d'un cercle (ou d'une sphère) étant à la fois son centre de symétrie, son centre de rotation, son centre de gravité, et le point équidistant de chacun de ses points, ces diverses caractérisations permettent d'étendre la notion de centre à de larges familles d'objets. vignette|Objets à symétrie centrale.
Harris affine region detectorIn the fields of computer vision and , the Harris affine region detector belongs to the category of feature detection. Feature detection is a preprocessing step of several algorithms that rely on identifying characteristic points or interest points so to make correspondences between images, recognize textures, categorize objects or build panoramas. The Harris affine detector can identify similar regions between images that are related through affine transformations and have different illuminations.
Classe de complexitéEn informatique théorique, et plus précisément en théorie de la complexité, une classe de complexité est un ensemble de problèmes algorithmiques dont la résolution nécessite la même quantité d'une certaine ressource. Une classe est souvent définie comme l'ensemble de tous les problèmes qui peuvent être résolus sur un modèle de calcul M, utilisant une quantité de ressources du type R, où n, est la taille de l'entrée. Les classes les plus usuelles sont celles définies sur des machines de Turing, avec des contraintes de temps de calcul ou d'espace.
Divergence de Kullback-LeiblerEn théorie des probabilités et en théorie de l'information, la divergence de Kullback-Leibler (ou divergence K-L ou encore entropie relative) est une mesure de dissimilarité entre deux distributions de probabilités. Elle doit son nom à Solomon Kullback et Richard Leibler, deux cryptanalystes américains. Selon la NSA, c'est durant les années 1950, alors qu'ils travaillaient pour cette agence, que Kullback et Leibler ont inventé cette mesure. Elle aurait d'ailleurs servi à la NSA dans son effort de cryptanalyse pour le projet Venona.