Principe d'incertitudeEn mécanique quantique, le principe d'incertitude ou, plus correctement, principe d'indétermination, aussi connu sous le nom de principe d'incertitude de Heisenberg, désigne toute inégalité mathématique affirmant qu'il existe une limite fondamentale à la précision avec laquelle il est possible de connaître simultanément deux propriétés physiques d'une même particule ; ces deux variables dites complémentaires peuvent être sa position (x) et sa quantité de mouvement (p).
Contre-réactionvignette|Modèle simple de contre-réaction. En électronique le principe de la contre-réaction permet le contrôle des circuits d', de filtrage ou d'asservissement. Elle permet de rendre leurs caractéristiques de fonctionnement indépendantes, dans une large mesure, des différents constituants internes de ces systèmes. Le principe de la contre-réaction a été découvert par Harold Stephen Black le 2 août 1927. Cette idée lui serait venue alors qu'il se rendait à son travail aux laboratoires Bell.
Échantillonnage (signal)L'échantillonnage consiste à prélever les valeurs d'un signal à intervalles définis, généralement réguliers. Il produit une suite de valeurs discrètes nommées échantillons. L'application la plus courante de l'échantillonnage est aujourd'hui la numérisation d'un signal variant dans le temps, mais son principe est ancien. Depuis plusieurs siècles, on surveille les mouvements lents en inscrivant, périodiquement, les valeurs relevées dans un registre : ainsi des hauteurs d'eau des marées ou des rivières, de la quantité de pluie.
Optimisation convexevignette|320x320px|Optimisation convexe dans un espace en deux dimensions dans un espace contraint L'optimisation convexe est une sous-discipline de l'optimisation mathématique, dans laquelle le critère à minimiser est convexe et l'ensemble admissible est convexe. Ces problèmes sont plus simples à analyser et à résoudre que les problèmes d'optimisation non convexes, bien qu'ils puissent être NP-difficile (c'est le cas de l'optimisation copositive). La théorie permettant d'analyser ces problèmes ne requiert pas la différentiabilité des fonctions.
Fréquence de NyquistLa fréquence de Nyquist, du nom de l'ingénieur électronicien Harry Nyquist, est la fréquence maximale que doit contenir un signal pour permettre sa description non ambiguë par un échantillonnage à intervalles réguliers. Elle est aussi connue sous le nom de fréquence limite de repliement. Elle est égale à la moitié de la fréquence d'échantillonnage. Le théorème d'échantillonnage procède de l'analyse spectrale, qui montre que tout signal peut se décomposer en une somme de sinusoïdes.
Domaine temporelLe domaine temporel se rapporte à l'analyse de fonctions mathématiques ou de signaux physiques modélisant une variation quelconque au cours du temps. En domaine temporel, la valeur de la fonction ou du signal est connue, soit en quelques points discrets de la durée d'analyse, ou éventuellement, pour tous les nombres réels. L'oscilloscope est parmi les outils usuels permettant de visualiser les signaux physiques du domaine temporel. Domaine fréquentiel Temps (physique) Catégorie:Analyse du signal Catégorie:
Méthode de BartlettEn estimation spectrale, la méthode de Bartlett fournit un estimateur consistant de la densité spectrale de puissance. En pratique, obtenir un signal sur une durée infinie et l'acquérir sans bruit est impossible. C'est pourquoi on peut utiliser la fenêtre de Bartlett dans le but de lisser un périodogramme. Cette méthode est utilisée en physique, en ingénierie ainsi qu'en mathématiques appliquées. Les applications courantes de cette méthode sont l'analyse en réponse fréquentielle ainsi que l'analyse spectrale générale.
Estimation spectraleL'estimation spectrale regroupe toutes les techniques d'estimation de la densité spectrale de puissance (DSP). Les méthodes d'estimation spectrale paramétriques utilisent un modèle pour obtenir une estimation du spectre. Ces modèles reposent sur une connaissance a priori du processus et peuvent être classées en trois grandes catégories : Modèles autorégressif (AR) Modèles à moyenne ajustée (MA) Modèles autorégressif à moyenne ajustée (ARMA). L'approche paramétrique se décompose en trois étapes : Choisir un modèle décrivant le processus de manière appropriée.
Normalized frequency (signal processing)In digital signal processing (DSP), a normalized frequency is a ratio of a variable frequency (f) and a constant frequency associated with a system (such as a sampling rate, fs). Some software applications require normalized inputs and produce normalized outputs, which can be re-scaled to physical units when necessary. Mathematical derivations are usually done in normalized units, relevant to a wide range of applications. A typical choice of characteristic frequency is the sampling rate (fs) that is used to create the digital signal from a continuous one.
Robustesse (ingénierie)En ingénierie, la robustesse d'un système se définit comme la « stabilité de sa performance ». On distingue trois types de systèmes : les systèmes non-performants, qui ne remplissent pas les fonctionnalités attendues par l'utilisateur ; les systèmes performants fragiles, qui sont performants mais uniquement pour une plage réduite des paramètres internes ou externes ; les systèmes performants robustes, qui restent performants malgré des conditions externes présentant de larges variations d'amplitude (exemple : variation de température, d'adhérence au sol, de dispersion d'usinage.
Filter designFilter design is the process of designing a signal processing filter that satisfies a set of requirements, some of which may be conflicting. The purpose is to find a realization of the filter that meets each of the requirements to a sufficient degree to make it useful. The filter design process can be described as an optimization problem where each requirement contributes to an error function that should be minimized. Certain parts of the design process can be automated, but normally an experienced electrical engineer is needed to get a good result.
Least-squares spectral analysisLeast-squares spectral analysis (LSSA) is a method of estimating a frequency spectrum based on a least-squares fit of sinusoids to data samples, similar to Fourier analysis. Fourier analysis, the most used spectral method in science, generally boosts long-periodic noise in the long and gapped records; LSSA mitigates such problems. Unlike in Fourier analysis, data need not be equally spaced to use LSSA.