Time–frequency analysisIn signal processing, time–frequency analysis comprises those techniques that study a signal in both the time and frequency domains simultaneously, using various time–frequency representations. Rather than viewing a 1-dimensional signal (a function, real or complex-valued, whose domain is the real line) and some transform (another function whose domain is the real line, obtained from the original via some transform), time–frequency analysis studies a two-dimensional signal – a function whose domain is the two-dimensional real plane, obtained from the signal via a time–frequency transform.
Time–frequency representationA time–frequency representation (TFR) is a view of a signal (taken to be a function of time) represented over both time and frequency. Time–frequency analysis means analysis into the time–frequency domain provided by a TFR. This is achieved by using a formulation often called "Time–Frequency Distribution", abbreviated as TFD. TFRs are often complex-valued fields over time and frequency, where the modulus of the field represents either amplitude or "energy density" (the concentration of the root mean square over time and frequency), and the argument of the field represents phase.
Analyse en composantes principalesL'analyse en composantes principales (ACP ou PCA en anglais pour principal component analysis), ou, selon le domaine d'application, transformation de Karhunen–Loève (KLT) ou transformation de Hotelling, est une méthode de la famille de l'analyse des données et plus généralement de la statistique multivariée, qui consiste à transformer des variables liées entre elles (dites « corrélées » en statistique) en nouvelles variables décorrélées les unes des autres. Ces nouvelles variables sont nommées « composantes principales » ou axes principaux.
Domaine fréquentielLe domaine fréquentiel se rapporte à l'analyse de fonctions mathématiques ou de signaux physiques manifestant une fréquence. Alors qu'un graphe dans le domaine temporel présentera les variations dans l'allure d'un signal au cours du temps, un graphe dans le domaine fréquentiel montrera quelle proportion du signal appartient à telle ou telle bande de fréquence, parmi plusieurs bancs. Une représentation dans le domaine fréquentiel peut également inclure des informations sur le décalage de phase qui doit être appliqué à chaque sinusoïde afin de reconstruire le signal en domaine temporel.
Analyse des donnéesL’analyse des données (aussi appelée analyse exploratoire des données ou AED) est une famille de méthodes statistiques dont les principales caractéristiques sont d'être multidimensionnelles et descriptives. Dans l'acception française, la terminologie « analyse des données » désigne donc un sous-ensemble de ce qui est appelé plus généralement la statistique multivariée. Certaines méthodes, pour la plupart géométriques, aident à faire ressortir les relations pouvant exister entre les différentes données et à en tirer une information statistique qui permet de décrire de façon plus succincte les principales informations contenues dans ces données.
DonnéeUne donnée est ce qui est connu et qui sert de point de départ à un raisonnement ayant pour objet la détermination d'une solution à un problème en relation avec cette donnée. Cela peut être une description élémentaire qui vise à objectiver une réalité, le résultat d'une comparaison entre deux événements du même ordre (mesure) soit en d'autres termes une observation ou une mesure. La donnée brute est dépourvue de tout raisonnement, supposition, constatation, probabilité.
FréquenceEn physique, la fréquence est le nombre de fois qu'un phénomène périodique se reproduit par unité de temps. Dans le Système international d'unités, la fréquence s'exprime en hertz (Hz). La notion de fréquence s'applique aux phénomènes périodiques ou non. L'analyse spectrale transforme la description d'un phénomène en fonction du temps en description en fonction de la fréquence. Dans plusieurs domaines technologiques, on parle de fréquence spatiale. Dans cet usage, une dimension de l'espace prend la place du temps.
Basse fréquenceLa bande radioélectrique des « basses fréquences » ou LF (low frequency) désignée aussi par « grandes ondes » (GO) ou « ondes longues (OL) » par opposition et en cohérence de désignation avec les « ondes moyennes » et « ondes courtes » désigne la partie du spectre radioélectrique de fréquence modulée comprise entre et (longueur d'onde de 1 à ). L'appellation « BF » est également employée notamment en acoustique et en audio-électronique pour désigner la gamme des signaux de fréquence ou spectre sonore de à .
Fréquence de coupureLa fréquence de coupure d'un circuit électronique est la fréquence limite de fonctionnement utile d'un circuit électronique. La pulsation de coupure est la pulsation correspondante. Les fréquences de coupure basse et haute définissent la bande passante. Conventionnellement, cette limite est souvent fixée à la fréquence pour laquelle la puissance de sortie est réduite de moitié, pour un signal d'entrée de même amplitude, par rapport à la puissance de sortie à la fréquence de référence.
Extrêmement basse fréquenceL’extrêmement basse fréquence ou EBF (en anglais, extremely low frequency ou ELF) est la bande de rayonnement électromagnétique (radiofréquences) comprise entre (longueur d'onde de ). Dans le domaine des sciences de l'atmosphère, une définition alternative est généralement retenue : de 3 Hz à 3 kHz. La fréquence du courant alternatif dans les réseaux électriques (50 ou 60 Hz) est située dans la bande de ELF, ce qui fait des réseaux électriques une source involontaire de rayonnement ELF.
Big dataLe big data ( « grosses données » en anglais), les mégadonnées ou les données massives, désigne les ressources d’informations dont les caractéristiques en termes de volume, de vélocité et de variété imposent l’utilisation de technologies et de méthodes analytiques particulières pour créer de la valeur, et qui dépassent en général les capacités d'une seule et unique machine et nécessitent des traitements parallélisés. L’explosion quantitative (et souvent redondante) des données numériques permet une nouvelle approche pour analyser le monde.
Très basse fréquenceLa très basse fréquence, en anglais Very low frequency (VLF), désigne la bande de radiofréquences qui s'étend de 3 kHz à (longueur d'onde de 100 à ). Les ondes VLF sont aussi appelées ondes myriamétriques (le myria- est un préfixe obsolète valant ). Les ondes VLF pénètrent dans l’eau jusqu'à une profondeur de 10 à 50 mètres, selon la fréquence et la salinité. Elles sont utilisées pour les télécommunications avec les sous-marins proches de la surface, et permettent de transmettre un débit supérieur aux ELF ou SLF, utilisées à grande profondeur.
Kernel principal component analysisIn the field of multivariate statistics, kernel principal component analysis (kernel PCA) is an extension of principal component analysis (PCA) using techniques of kernel methods. Using a kernel, the originally linear operations of PCA are performed in a reproducing kernel Hilbert space. Recall that conventional PCA operates on zero-centered data; that is, where is one of the multivariate observations.
Super basse fréquenceOn appelle super basse fréquence (SLF), Super low frequency en anglais, la bande de radiofréquences qui s'étend de 30 à 300 Hz (longueur d'onde de à km). Ces fréquences incluent les rayonnements des réseaux électriques à 50 et 60 Hz, ainsi que leurs harmoniques, et ont été utilisées en télécommunications sous-marines. Deux émetteurs de communications stratégiques existaient dans cette bande : « Sanguine » aux États-Unis à 76 hertz « ZEVS » en CEI Russie à 82 hertz.
Analyse en composantes indépendantesL'analyse en composantes indépendantes (en anglais, independent component analysis ou ICA) est une méthode d'analyse des données (voir aussi Exploration de données) qui relève des statistiques, des réseaux de neurones et du traitement du signal. Elle est notoirement et historiquement connue en tant que méthode de séparation aveugle de source mais a par suite été appliquée à divers problèmes. Les contributions principales ont été rassemblées dans un ouvrage édité en 2010 par P.Comon et C.Jutten.
Module d'élasticitéUn module d'élasticité (ou module élastique ou module de conservation) est une grandeur intrinsèque d'un matériau, définie par le rapport d'une contrainte à la déformation élastique provoquée par cette contrainte. Les déformations étant sans dimension, les modules d'élasticité sont homogènes à une pression et leur unité SI est donc le pascal ; en pratique on utilise plutôt un multiple, le ou le . Le comportement élastique d'un matériau homogène isotrope et linéaire est caractérisé par deux modules (ou constantes) d'élasticité indépendants.
Module de cisaillementEn résistance des matériaux, le module de cisaillement, module de glissement, module de rigidité, module de Coulomb ou second coefficient de Lamé, est une grandeur physique intrinsèque à chaque matériau et qui intervient dans la caractérisation des déformations causées par des efforts de cisaillement. La définition du module de rigidité , parfois aussi noté μ, estoù (voir l'image ci-contre) est la contrainte de cisaillement, la force, l'aire sur laquelle la force agit, le déplacement latéral relatif et l'écart à l'angle droit, le déplacement latéral et enfin l'épaisseur.
Entrepôt de donnéesvignette|redresse=1.5|Vue d'ensemble d'une architecture entrepôt de données. Le terme entrepôt de données ou EDD (ou base de données décisionnelle ; en anglais, data warehouse ou DWH) désigne une base de données utilisée pour collecter, ordonner, journaliser et stocker des informations provenant de base de données opérationnelles et fournir ainsi un socle à l'aide à la décision en entreprise. Un entrepôt de données est une base de données regroupant une partie ou l'ensemble des données fonctionnelles d'une entreprise.
Gestion des donnéesLa gestion des données est une discipline de gestion qui tend à valoriser les données en tant que ressources numériques. La gestion des données permet d'envisager le développement d'architectures, de réglementations, de pratiques et de procédures qui gèrent correctement les besoins des organismes sur le plan de tout le cycle de vie des données. Les données sont, avec les traitements, l'un des deux aspects des systèmes d'information traditionnellement identifiés, et l'un ne peut aller sans l'autre pour un management du système d'information cohérent.
Fourier analysisIn mathematics, Fourier analysis (ˈfʊrieɪ,_-iər) is the study of the way general functions may be represented or approximated by sums of simpler trigonometric functions. Fourier analysis grew from the study of Fourier series, and is named after Joseph Fourier, who showed that representing a function as a sum of trigonometric functions greatly simplifies the study of heat transfer. The subject of Fourier analysis encompasses a vast spectrum of mathematics.