Ondelettethumb|Ondelette de Daubechies d'ordre 2. Une ondelette est une fonction à la base de la décomposition en ondelettes, décomposition similaire à la transformée de Fourier à court terme, utilisée dans le traitement du signal. Elle correspond à l'idée intuitive d'une fonction correspondant à une petite oscillation, d'où son nom. Cependant, elle comporte deux différences majeures avec la transformée de Fourier à court terme : elle peut mettre en œuvre une base différente, non forcément sinusoïdale ; il existe une relation entre la largeur de l'enveloppe et la fréquence des oscillations : on effectue ainsi une homothétie de l'ondelette, et non seulement de l'oscillation.
DéconvolutionEn mathématiques, la déconvolution est un procédé algorithmique destiné à inverser les effets de la convolution. Le concept de déconvolution est largement utilisé en traitement du signal et , notamment en microscopie et astronomie. Le problème est de déterminer la solution f d'une équation de la forme : On note ici par h un signal tel qu'il est acquis et f le signal que l'on désire estimer ou restaurer, mais qui a été convolué par une réponse impulsionnelle g lors de l'acquisition.
Computational complexityIn computer science, the computational complexity or simply complexity of an algorithm is the amount of resources required to run it. Particular focus is given to computation time (generally measured by the number of needed elementary operations) and memory storage requirements. The complexity of a problem is the complexity of the best algorithms that allow solving the problem. The study of the complexity of explicitly given algorithms is called analysis of algorithms, while the study of the complexity of problems is called computational complexity theory.
Théorie de la complexité (informatique théorique)vignette|Quelques classes de complexité étudiées dans le domaine de la théorie de la complexité. Par exemple, P est la classe des problèmes décidés en temps polynomial par une machine de Turing déterministe. La théorie de la complexité est le domaine des mathématiques, et plus précisément de l'informatique théorique, qui étudie formellement le temps de calcul, l'espace mémoire (et plus marginalement la taille d'un circuit, le nombre de processeurs, l'énergie consommée ...) requis par un algorithme pour résoudre un problème algorithmique.
Wavelet transformIn mathematics, a wavelet series is a representation of a square-integrable (real- or complex-valued) function by a certain orthonormal series generated by a wavelet. This article provides a formal, mathematical definition of an orthonormal wavelet and of the integral wavelet transform. A function is called an orthonormal wavelet if it can be used to define a Hilbert basis, that is a complete orthonormal system, for the Hilbert space of square integrable functions.
Classe de complexitéEn informatique théorique, et plus précisément en théorie de la complexité, une classe de complexité est un ensemble de problèmes algorithmiques dont la résolution nécessite la même quantité d'une certaine ressource. Une classe est souvent définie comme l'ensemble de tous les problèmes qui peuvent être résolus sur un modèle de calcul M, utilisant une quantité de ressources du type R, où n, est la taille de l'entrée. Les classes les plus usuelles sont celles définies sur des machines de Turing, avec des contraintes de temps de calcul ou d'espace.
Microscope confocalvignette|upright=2|Schéma de principe du microscope confocal par Marvin Minsky en 1957. vignette|upright=1.5|Principe de fonctionnement du microscope à fluorescence puis du microscope confocal. Un microscope confocal, appelé plus rarement microscope monofocal, est un microscope optique qui a la propriété de réaliser des images de très faible profondeur de champ (environ ) appelées « sections optiques ».
MicroscopieLa microscopie est un ensemble de techniques d' des objets de petites dimensions. Quelle que soit la technique employée, l'appareil utilisé pour rendre possible cette observation est appelé un . Des mots grecs anciens mikros et skopein signifiant respectivement « petit » et « examiner », la microscopie désigne étymologiquement l'observation d'objets invisibles à l'œil nu. On distingue principalement trois types de microscopies : la microscopie optique, la microscopie électronique et la microscopie à sonde locale.
Quantum complexity theoryQuantum complexity theory is the subfield of computational complexity theory that deals with complexity classes defined using quantum computers, a computational model based on quantum mechanics. It studies the hardness of computational problems in relation to these complexity classes, as well as the relationship between quantum complexity classes and classical (i.e., non-quantum) complexity classes. Two important quantum complexity classes are BQP and QMA.
Microscopie à super-résolutionLa microscopie à super-résolution est un ensemble de techniques permettant d'imager en microscopie optique des objets à une résolution à l’échelle nanométrique. Elle se démarque par le fait que la résolution obtenue n'est plus limitée par le phénomène de diffraction. Du fait de la diffraction de la lumière, la résolution d’un microscope optique conventionnel est en principe limitée, indépendamment du capteur utilisé et des aberrations ou imperfections des lentilles.
Complexité paramétréeEn algorithmique, la complexité paramétrée (ou complexité paramétrique) est une branche de la théorie de la complexité qui classifie les problèmes algorithmiques selon leur difficulté intrinsèque en fonction de plusieurs paramètres sur les données en entrée ou sur la sortie. Ce domaine est étudié depuis les années 90 comme approche pour la résolution exacte de problèmes NP-complets. Cette approche est utilisée en optimisation combinatoire, notamment en algorithmique des graphes, en intelligence artificielle, en théorie des bases de données et en bio-informatique.
Discrete wavelet transformIn numerical analysis and functional analysis, a discrete wavelet transform (DWT) is any wavelet transform for which the wavelets are discretely sampled. As with other wavelet transforms, a key advantage it has over Fourier transforms is temporal resolution: it captures both frequency and location information (location in time). Haar wavelet The first DWT was invented by Hungarian mathematician Alfréd Haar. For an input represented by a list of numbers, the Haar wavelet transform may be considered to pair up input values, storing the difference and passing the sum.
Conseil (informatique théorique)En théorie de la complexité, un conseil est une entrée supplémentaire passée à une machine de Turing qui dépend de la taille de l'entrée, afin d'aider la machine à reconnaître un langage. Cette notion est introduite par Richard Karp et Richard J. Lipton en 1982. Étant donnés une fonction et une classe de complexité , la classe est l'ensemble des langages tels qu'il existe un langage et une suite de conseils de taille tels que pour toute entrée de taille , si et seulement si .
Algorithmethumb|Algorithme de découpe d'un polygone quelconque en triangles (triangulation). Un algorithme est une suite finie et non ambiguë d'instructions et d’opérations permettant de résoudre une classe de problèmes. Le domaine qui étudie les algorithmes est appelé l'algorithmique. On retrouve aujourd'hui des algorithmes dans de nombreuses applications telles que le fonctionnement des ordinateurs, la cryptographie, le routage d'informations, la planification et l'utilisation optimale des ressources, le , le traitement de textes, la bio-informatique L' algorithme peut être mis en forme de façon graphique dans un algorigramme ou organigramme de programmation.
Ondelette de HaarL'ondelette de Haar, ou fonction de Rademacher, est une ondelette créée par Alfréd Haar en 1909. On considère que c'est la première ondelette connue. Il s'agit d'une fonction constante par morceaux, ce qui en fait l'ondelette la plus simple à comprendre et à implémenter. L'ondelette de Haar peut être généralisée par ce qu'on appelle le système de Haar. La fonction-mère des ondelettes de Haar est une fonction constante par morceaux : La fonction d'échelle associée est alors une fonction porte : Le système de Haar est une suite de fonctions continues par morceaux, appartenant à pour .
Microscope de fluorescence par réflexion totale interneLe microscope de fluorescence par réflexion totale interne (TIRFM, total internal reflection fluorescence microscopy), ou microscope à onde évanescente, est un type particulier de microscope optique à fluorescence permettant d'examiner une tranche très fine d'un échantillon (moins de 200 nm d'épaisseur), grâce à un mode d'illumination particulier : la réflexion totale interne.
Microscopie à fluorescenceLa microscopie en fluorescence (ou en épifluorescence) est une technique utilisant un microscope optique en tirant profit du phénomène de fluorescence et de phosphorescence, au lieu de, ou en plus de l'observation classique par réflexion ou absorption de la lumière visible naturelle ou artificielle. On peut ainsi observer divers objets, substances (organiques ou inorganiques) ou échantillons d'organismes morts ou vivants. Elle fait désormais partie des méthodes de recherche classiques et de la biologie et continue à se développer avec l'.
Fourier analysisIn mathematics, Fourier analysis (ˈfʊrieɪ,_-iər) is the study of the way general functions may be represented or approximated by sums of simpler trigonometric functions. Fourier analysis grew from the study of Fourier series, and is named after Joseph Fourier, who showed that representing a function as a sum of trigonometric functions greatly simplifies the study of heat transfer. The subject of Fourier analysis encompasses a vast spectrum of mathematics.
Compression de donnéesLa compression de données ou codage de source est l'opération informatique consistant à transformer une suite de bits A en une suite de bits B plus courte pouvant restituer les mêmes informations, ou des informations voisines, en utilisant un algorithme de décompression. C'est une opération de codage qui raccourcit la taille (de transmission, de stockage) des données au prix d'un travail de compression. Celle-ci est l'opération inverse de la décompression.
Algorithme probabilisteEn algorithmique, un algorithme probabiliste, ou algorithme randomisé, est un algorithme qui utilise une source de hasard. Plus précisément le déroulement de l’algorithme fait appel à des données tirées au hasard. Par exemple à un certain point de l’exécution, on tire un bit 0 ou 1, selon la loi uniforme et si le résultat est 0, on fait une certaine action A et si c'est 1, on fait une autre action. On peut aussi tirer un nombre réel dans l'intervalle [0,1] ou un entier dans un intervalle [i..j].