Débit binaireLe débit binaire est une mesure de la quantité de données numériques transmises par unité de temps. Selon ses définitions normatives, il s'exprime en bits par seconde (bit/s, b/s ou bps) ou un de ses multiples en employant les préfixes du Système international (SI) : kb/s (kilobits par seconde), Mb/s (mégabits par seconde) et ainsi de suite. Dans le domaine de l'informatique, le débit est parfois exprimé en octets par seconde. Un octet équivaut à 8 bits, nombre de bits correspondant aux premières et aux plus simples des machines, et permettant de transmettre un caractère alphanumérique.
Compression de donnéesLa compression de données ou codage de source est l'opération informatique consistant à transformer une suite de bits A en une suite de bits B plus courte pouvant restituer les mêmes informations, ou des informations voisines, en utilisant un algorithme de décompression. C'est une opération de codage qui raccourcit la taille (de transmission, de stockage) des données au prix d'un travail de compression. Celle-ci est l'opération inverse de la décompression.
Motion compensationMotion compensation in computing, is an algorithmic technique used to predict a frame in a video, given the previous and/or future frames by accounting for motion of the camera and/or objects in the video. It is employed in the encoding of video data for video compression, for example in the generation of MPEG-2 files. Motion compensation describes a picture in terms of the transformation of a reference picture to the current picture. The reference picture may be previous in time or even from the future.
Inter-trameUne inter-trame ou inter frame ou image inter désigne dans la compression vidéo une image ou une trame appartenant à un flux qui a été codé à partir d'un algorithme de prédiction inter-trame. Elle dépend des images précédemment codées afin de prédire la position des macroblocs d'origine. L'objectif de cet algorithme est de définir un vecteur de mouvement qui traduit le déplacement d'un bloc dans une image déjà codée dite de référence et sa position dans l'image courante. Cette prédiction est aussi appelée prédiction temporelle.
NuageUn nuage est en météorologie une masse visible constituée initialement d'une grande quantité de gouttelettes d’eau (parfois de cristaux de glace associés à des aérosols chimiques ou des minéraux) en suspension dans l’atmosphère au-dessus de la surface d'une planète. L’aspect d'un nuage dépend de sa nature, de sa dimension, de la lumière qu’il reçoit, ainsi que du nombre et de la répartition des particules qui le constituent. Les gouttelettes d’eau d’un nuage proviennent de la condensation de la vapeur d'eau contenue dans l’air.
Standardisationvignette|Une réplique du prototype du kilogramme à la Cité des Sciences et de l'Industrie, Paris, France. La standardisation est l'action de ramener un produit, une production à une norme, à un modèle unique ou à un petit nombre de modèles aux caractéristiques définies : standardiser des modèles de robinets. La standardisation peut s'appliquer à différents domaines dont : les normes et standards techniques ; les standards de métadonnées ; les tests psychologiques, dans le cas d'une évaluation différentielle ; en linguistique, la standardisation (ou normalisation) est la suppression de la variation dialectale ou sociale par l'élaboration d'une norme linguistique.
Prédiction de la structure des protéinesLa prédiction de la structure des protéines est l'inférence de la structure tridimensionnelle des protéines à partir de leur séquences d'acides aminés, c'est-à-dire la prédiction de leur pliage et de leur structures secondaire et tertiaire à partir de leur structure primaire. La prédiction de la structure est fondamentalement différente du problème inverse de la conception des protéines. Elle est l'un des objectifs les plus importants poursuivis par la bioinformatique et la chimie théorique.
Organisation internationale de normalisationL'Organisation internationale de normalisation (International Organization for Standardization ; en Международная организация по стандартизации), généralement désigné sous le sigle ISO, choisi pour être le sigle identique dans toutes les langues (ce choix est un exemple de normalisation), est un organisme de normalisation international composé de représentants d'organisations nationales de normalisation de , selon le principe d’un membre par pays. L'ISO est le plus grand organisme de normalisation au monde et demeure une organisation non gouvernementale.
Transformée en cosinus discrèteLa transformée en cosinus discrète ou TCD (de l'anglais : DCT ou Discrete Cosine Transform) est une transformation proche de la transformée de Fourier discrète (DFT). Le noyau de projection est un cosinus et crée donc des coefficients réels, contrairement à la DFT, dont le noyau est une exponentielle complexe et qui crée donc des coefficients complexes. On peut cependant exprimer la DCT en fonction de la DFT, qui est alors appliquée sur le signal symétrisé.
Physique des nuagesLa physique des nuages est l’étude des processus physiques et dynamiques de formation des nuages et des précipitations qui les accompagnent. Les nuages chauds sont formés de microscopiques gouttelettes et les froids de cristaux de glace ou parfois des deux types. Leur formation est contrôlée par la disponibilité de vapeur d'eau dans l’air et des mouvements verticaux dans celui-ci. Le mouvement vertical peut être induit par une ascendance à grande échelle, comme dans le cas des dépressions synoptiques, ou à méso-échelle comme dans le cas des orages.
Comité européen de normalisationLe CEN ou Comité européen de normalisation (en anglais European Committee for Standardization ; en allemand Europäisches Komitee für Normung), dont le siège se situe à Bruxelles, fut créé en 1961 afin d'harmoniser les normes élaborées en Europe. Tous ses membres nationaux – qu'ils soient membres de plein droit, affiliés ou organismes de normalisation partenaires – sont également membres de l'Organisation internationale de normalisation (ISO). Le CEN fut fondé à l'origine par les organismes nationaux de normalisation de la France, de l'Allemagne et des pays du Benelux.
Apprentissage de représentationsEn apprentissage automatique, l'apprentissage des caractéristiques ou apprentissage des représentations est un ensemble de techniques qui permet à un système de découvrir automatiquement les représentations nécessaires à la détection ou à la classification des caractéristiques à partir de données brutes. Cela remplace l'ingénierie manuelle des fonctionnalités et permet à une machine d'apprendre les fonctionnalités et de les utiliser pour effectuer une tâche spécifique.
Organisme de normalisationUn organisme de normalisation est un organisme dont les activités premières sont l'établissement puis le maintien de normes destinées à des utilisateurs extérieurs à cette organisation. Leurs activités peuvent inclure le développement, la coordination, la promulgation, la révision, la modification, la réédition ou l'interprétation de telles normes. Pour les désigner, on utilise parfois le sigle anglais SDO pour Standard Development Organisation.
JPEG 2000JPEG 2000 ou ISO/CEI 15444-1, abrégé JP2 (quelquefois J2K), est une norme de compression d’ commune à l’ISO, la CEI et l’UIT-T, développée entre 1997 et 2000, et créée par le groupe de travail Joint Photographic Experts Group. Depuis mai 2015, il est officiellement reconnu par l'ISO / CEI et l'UIT-T sous le code ISO/IEC CD 15444. JPEG 2000 peut travailler avec ou sans perte, en utilisant des transformées en ondelettes (méthode d’analyse mathématique du signal), dont la décomposition est similaire à la transformée de Fourier à court terme.
Apprentissage profondL'apprentissage profond ou apprentissage en profondeur (en anglais : deep learning, deep structured learning, hierarchical learning) est un sous-domaine de l’intelligence artificielle qui utilise des réseaux neuronaux pour résoudre des tâches complexes grâce à des architectures articulées de différentes transformations non linéaires. Ces techniques ont permis des progrès importants et rapides dans les domaines de l'analyse du signal sonore ou visuel et notamment de la reconnaissance faciale, de la reconnaissance vocale, de la vision par ordinateur, du traitement automatisé du langage.
Transformeurvignette|Schéma représentant l'architecture générale d'un transformeur. Un transformeur (ou modèle auto-attentif) est un modèle d'apprentissage profond introduit en 2017, utilisé principalement dans le domaine du traitement automatique des langues (TAL). Dès 2020, les transformeurs commencent aussi à trouver une application en matière de vision par ordinateur par la création des vision transformers (ViT).
Comité européen de normalisation en électronique et en électrotechniquealt=La carte des membres du CENELEC.|vignette| Le Comité européen de normalisation en électronique et en électrotechnique (CENELEC) est un organisme sans but lucratif composé des comités électrotechniques nationaux de 30 pays européens. En outre, nationaux des pays voisins participent aux travaux du CENELEC avec un statut d'affiliés. Le CENELEC a pour mission de fournir les normes électrotechniques afin d'aider le développement des services et des biens électrotechniques, électriques et électroniques sur le marché européen.
Réseaux antagonistes génératifsEn intelligence artificielle, les réseaux antagonistes génératifs (RAG) parfois aussi appelés réseaux adverses génératifs (en anglais generative adversarial networks ou GANs) sont une classe d'algorithmes d'apprentissage non supervisé. Ces algorithmes ont été introduits par . Ils permettent de générer des images avec un fort degré de réalisme. Un GAN est un modèle génératif où deux réseaux sont placés en compétition dans un scénario de théorie des jeux. Le premier réseau est le générateur, il génère un échantillon (ex.
WebPvignette|Comparatif de compression sans perte, jpeg et WebP WebP est un format d' développé et mis à disposition du public par Google. Il exploite un algorithme de compression avec pertes prédictif utilisé pour les du VP8 (qui est le codec vidéo du format WebM) et un conteneur léger et extensible . Google le présente comme mieux adapté que les compresseurs précédents aux processeurs actuels et surtout aux densités de pixels des écrans actuels (110 à 240 ppi).
ZIP (format de fichier)Le ZIP est un format de fichier permettant l'archivage (utilisation d'un seul fichier pour stocker plusieurs fichiers) et la compression de données (diminution de l'espace occupé sur le support numérique) sans perte de qualité. On peut donc le comparer à la combinaison de tar (archivage) et gzip (compression) dans le cadre d'une archive compressée .tgz. Le format a été inventé par Phil Katz pour le logiciel PKZIP. Il a été conçu en réponse à un problème de droits entre le programme PKARC et le format ARC lancé par la Software Enhancement Associates.