Lossy compressionIn information technology, lossy compression or irreversible compression is the class of data compression methods that uses inexact approximations and partial data discarding to represent the content. These techniques are used to reduce data size for storing, handling, and transmitting content. The different versions of the photo of the cat on this page show how higher degrees of approximation create coarser images as more details are removed. This is opposed to lossless data compression (reversible data compression) which does not degrade the data.
Algorithme de compression sans pertevignette|Comparaison de la compression d'image entre les formats JPG (à gauche) et PNG (à droite). PNG utilise une compression sans perte. On appelle algorithme de compression sans perte toute procédure de codage ayant pour objectif de représenter une certaine quantité d'information en utilisant ou en occupant un espace plus petit, permettant ainsi une reconstruction exacte des données d'origine. C'est-à-dire que la compression sans perte englobe les techniques permettant de générer un duplicata exact du flux de données d'entrée après un cycle de compression/expansion.
Mesure physiqueLa mesure physique est l'action de déterminer la ou les valeurs d'une grandeur (longueur, capacité), par comparaison avec une grandeur constante de même espèce prise comme terme de référence (étalon ou unité). Selon la définition canonique : La mesure physique vise à l'objectivité et à la reproductibilité. La comparaison est numérique ; on exprime une caractéristique bien définie de l'objet par un nombre rationnel multipliant l'unité.
Discrete dipole approximationDiscrete dipole approximation (DDA), also known as coupled dipole approximation, is a method for computing scattering of radiation by particles of arbitrary shape and by periodic structures. Given a target of arbitrary geometry, one seeks to calculate its scattering and absorption properties by an approximation of the continuum target by a finite array of small polarizable dipoles. This technique is used in a variety of applications including nanophotonics, radar scattering, aerosol physics and astrophysics.
DeflateDeflate est un format de compression de données sans perte qui couple l'algorithme LZ77 et le codage de Huffman. Il fut défini à l'origine par Phil Katz pour la version 2 de son archiveur PKZIP, et fut plus tard défini dans les RFC 1950, 1951, et 1952, en 1996, par Jean-Loup Gailly et Mark Adler. Deflate n'est soumis à aucun brevet, ce qui a conduit à son utilisation dans les formats gzip et PNG, en plus du format zip auquel il était au départ destiné, à l'époque où le brevet sur l'algorithme LZW (utilisé dans le format GIF) n'avait pas encore expiré.
Unité de mesureEn physique et en métrologie, une est une . Une unité de mesure peut être définie à partir de constantes fondamentales ou par un étalon, utilisé pour la mesure. Les systèmes d'unités, définis en cherchant le plus large accord dans le domaine considéré, sont rendus nécessaires par la méthode scientifique, dont l'un des fondements est la reproductibilité des expériences (donc des mesures), ainsi que par le développement des échanges d'informations commerciales ou industrielles.
Sparse dictionary learningSparse dictionary learning (also known as sparse coding or SDL) is a representation learning method which aims at finding a sparse representation of the input data in the form of a linear combination of basic elements as well as those basic elements themselves. These elements are called atoms and they compose a dictionary. Atoms in the dictionary are not required to be orthogonal, and they may be an over-complete spanning set. This problem setup also allows the dimensionality of the signals being represented to be higher than the one of the signals being observed.
Problème de la mesure quantiqueLe problème de la mesure quantique consiste en un ensemble de problèmes, qui mettent en évidence des difficultés de corrélation entre les postulats de la mécanique quantique et le monde macroscopique tel qu'il nous apparaît ou tel qu'il est mesuré.
Light scattering by particlesLight scattering by particles is the process by which small particles (e.g. ice crystals, dust, atmospheric particulates, cosmic dust, and blood cells) scatter light causing optical phenomena such as the blue color of the sky, and halos. Maxwell's equations are the basis of theoretical and computational methods describing light scattering, but since exact solutions to Maxwell's equations are only known for selected particle geometries (such as spherical), light scattering by particles is a branch of computational electromagnetics dealing with electromagnetic radiation scattering and absorption by particles.
Acquisition compriméeL'acquisition comprimée (en anglais compressed sensing) est une technique permettant de trouver la solution la plus parcimonieuse d'un système linéaire sous-déterminé. Elle englobe non seulement les moyens pour trouver cette solution mais aussi les systèmes linéaires qui sont admissibles. En anglais, elle porte le nom de Compressive sensing, Compressed Sampling ou Sparse Sampling.
Quantification (signal)En traitement des signaux, la quantification est le procédé qui permet d'approcher un signal continu par les valeurs d'un ensemble discret d'assez petite taille. On parle aussi de quantification pour approcher un signal à valeurs dans un ensemble discret de grande taille par un ensemble plus restreint. L'application la plus courante de la quantification est la conversion analogique-numérique mais elle doit le développement de sa théorie aux problèmes de quantification pour la compression de signaux audio ou .
EvaluationIn common usage, evaluation is a systematic determination and assessment of a subject's merit, worth and significance, using criteria governed by a set of standards. It can assist an organization, program, design, project or any other intervention or initiative to assess any aim, realisable concept/proposal, or any alternative, to help in decision-making; or to ascertain the degree of achievement or value in regard to the aim and objectives and results of any such action that has been completed.
Computational electromagneticsComputational electromagnetics (CEM), computational electrodynamics or electromagnetic modeling is the process of modeling the interaction of electromagnetic fields with physical objects and the environment. It typically involves using computer programs to compute approximate solutions to Maxwell's equations to calculate antenna performance, electromagnetic compatibility, radar cross section and electromagnetic wave propagation when not in free space.
Mesure faibleEn mécanique quantique, une mesure faible (weak measurement en anglais) est une technique permettant de mesurer la valeur moyenne d'une observable d'un système quantique, en ne perturbant celui-ci que de manière négligeable. La théorie de ce type de mesure a été développé initialement par Yakir Aharonov, David Albert and Lev Vaidman en 1988.
Microscopie à sonde localeLa microscopie à sonde locale (MSL) ou microscopie en champ proche (MCP) ou scanning probe microscopy (SPM) en anglais est une technique de microscopie permettant de cartographier le relief (nano-topographie) ou une autre grandeur physique en balayant la surface à imager à l'aide d'une pointe très fine (la pointe est idéalement un cône se terminant par un seul atome). Le pouvoir de résolution obtenu par cette technique permet d'observer jusqu'à des atomes, ce qui est physiquement impossible avec un microscope optique, quel que soit son grossissement.
Pertinence d'un documentUne recherche scientifique ne peut avoir cette qualité de « scientifique » qu’après avoir répondu à un ensemble de critères. Parmi ces critères, la pertinence occupe une place primordiale, elle constitue la moelle épinière de toute recherche académique. En effet, c’est le degré de la pertinence qui donne beaucoup de crédibilité à un tel document. Par elle ce dernier aura beaucoup de chance d’être publiée et d’être tenue comme référence scientifique de recherche.
Diffraction des électronsLa diffraction des électrons est une technique utilisée pour l'étude de la matière qui consiste à bombarder d'électrons un échantillon et à observer la figure de diffraction résultante. Ce phénomène se produit en raison de la dualité onde-particule, qui fait qu'une particule matérielle (dans le cas de l'électron incident) peut être décrite comme une onde. Ainsi, un électron peut être considéré comme une onde, comme pour le son ou les vagues à la surface de l'eau. Cette technique est similaire à la diffraction X et à la diffraction de neutrons.
Level of measurementLevel of measurement or scale of measure is a classification that describes the nature of information within the values assigned to variables. Psychologist Stanley Smith Stevens developed the best-known classification with four levels, or scales, of measurement: nominal, ordinal, interval, and ratio. This framework of distinguishing levels of measurement originated in psychology and has since had a complex history, being adopted and extended in some disciplines and by some scholars, and criticized or rejected by others.
Microscopie électronique à balayagethumb|right|Premier microscope électronique à balayage par M von Ardenne thumb|right|Microscope électronique à balayage JEOL JSM-6340F thumb|upright=1.5|Principe de fonctionnement du Microscope Électronique à Balayage La microscopie électronique à balayage (MEB) ou scanning electron microscope (SEM) en anglais est une technique de microscopie électronique capable de produire des images en haute résolution de la surface d’un échantillon en utilisant le principe des interactions électrons-matière.
Impact evaluationImpact evaluation assesses the changes that can be attributed to a particular intervention, such as a project, program or policy, both the intended ones, as well as ideally the unintended ones. In contrast to outcome monitoring, which examines whether targets have been achieved, impact evaluation is structured to answer the question: how would outcomes such as participants' well-being have changed if the intervention had not been undertaken? This involves counterfactual analysis, that is, "a comparison between what actually happened and what would have happened in the absence of the intervention.