Reconnaissance automatique de la parolevignette|droite|upright=1.4|La reconnaissance vocale est habituellement traitée dans le middleware ; les résultats sont transmis aux applications utilisatrices. La reconnaissance automatique de la parole (souvent improprement appelée reconnaissance vocale) est une technique informatique qui permet d'analyser la voix humaine captée au moyen d'un microphone pour la transcrire sous la forme d'un texte exploitable par une machine.
Perception de la paroleLa perception de la parole est le processus par lequel les humains sont capables d'interpréter et de comprendre les sons utilisés dans le langage. L'étude de la perception de la parole est reliée aux champs de la phonétique, de phonologie en linguistique, de psychologie cognitive et de perception en psychologie. Les recherches dans ce domaine essaient de comprendre comment les auditeurs humains reconnaissent les phonèmes (sons de la paroles) ou autres sons tels que la syllabe ou les rimes, et utilisent cette information pour comprendre le langage parlé.
PerceptionLa perception est l'activité par laquelle un sujet fait l'expérience d'objets ou de propriétés présents dans son environnement. Cette activité repose habituellement sur des informations fournies par ses sens. Chez l'espèce humaine, la perception est aussi liée aux mécanismes de cognition. Le mot « perception » désigne : soit le processus de recueil et de traitement de l'information sensorielle ou sensible (en psychologie cognitive par exemple) ; soit la prise de conscience qui en résulte (en philosophie de la perception notamment).
Fonction de vraisemblancevignette|Exemple d'une fonction de vraisemblance pour le paramètre d'une Loi de Poisson En théorie des probabilités et en statistique, la fonction de vraisemblance (ou plus simplement vraisemblance) est une fonction des paramètres d'un modèle statistique calculée à partir de données observées. Les fonctions de vraisemblance jouent un rôle clé dans l'inférence statistique fréquentiste, en particulier pour les méthodes statistiques d'estimation de paramètres.
Inférence bayésiennevignette|Illustration comparant les approches fréquentiste et bayésienne (Christophe Michel, 2018). L’inférence bayésienne est une méthode d'inférence statistique par laquelle on calcule les probabilités de diverses causes hypothétiques à partir de l'observation d'événements connus. Elle s'appuie principalement sur le théorème de Bayes. Le raisonnement bayésien construit, à partir d'observations, une probabilité de la cause d'un type d'événements.
Speaker recognitionSpeaker recognition is the identification of a person from characteristics of voices. It is used to answer the question "Who is speaking?" The term voice recognition can refer to speaker recognition or speech recognition. Speaker verification (also called speaker authentication) contrasts with identification, and speaker recognition differs from speaker diarisation (recognizing when the same speaker is speaking).
Sensory cueA sensory cue is a statistic or signal that can be extracted from the sensory input by a perceiver, that indicates the state of some property of the world that the perceiver is interested in perceiving. A cue is some organization of the data present in the signal which allows for meaningful extrapolation. For example, sensory cues include visual cues, auditory cues, haptic cues, olfactory cues and environmental cues. Sensory cues are a fundamental part of theories of perception, especially theories of appearance (how things look).
Bayesian probabilityBayesian probability (ˈbeɪziən or ˈbeɪʒən ) is an interpretation of the concept of probability, in which, instead of frequency or propensity of some phenomenon, probability is interpreted as reasonable expectation representing a state of knowledge or as quantification of a personal belief. The Bayesian interpretation of probability can be seen as an extension of propositional logic that enables reasoning with hypotheses; that is, with propositions whose truth or falsity is unknown.
Statistique bayésienneLa statistique bayésienne est une approche statistique fondée sur l'inférence bayésienne, où la probabilité exprime un degré de croyance en un événement. Le degré initial de croyance peut être basé sur des connaissances a priori, telles que les résultats d'expériences antérieures, ou sur des croyances personnelles concernant l'événement. La perspective bayésienne diffère d'un certain nombre d'autres interprétations de la probabilité, comme l'interprétation fréquentiste qui considère la probabilité comme la limite de la fréquence relative d'un événement après de nombreux essais.
Bayesian epistemologyBayesian epistemology is a formal approach to various topics in epistemology that has its roots in Thomas Bayes' work in the field of probability theory. One advantage of its formal method in contrast to traditional epistemology is that its concepts and theorems can be defined with a high degree of precision. It is based on the idea that beliefs can be interpreted as subjective probabilities. As such, they are subject to the laws of probability theory, which act as the norms of rationality.
Test du multiplicateur de LagrangeLe test du multiplicateur de Lagrange (LM) ou test de score ou test de Rao est un principe général pour tester des hypothèses sur les paramètres dans un cadre de vraisemblance. L'hypothèse sous le test est exprimée comme une ou plusieurs contraintes sur les valeurs des paramètres. La statistique du test LM ne nécessite une maximisation que dans cet espace contraint des paramètres (en particulier si l'hypothèse à tester est de la forme alors ).
Maximum de vraisemblanceEn statistique, l'estimateur du maximum de vraisemblance est un estimateur statistique utilisé pour inférer les paramètres de la loi de probabilité d'un échantillon donné en recherchant les valeurs des paramètres maximisant la fonction de vraisemblance. Cette méthode a été développée par le statisticien Ronald Aylmer Fisher en 1922. Soient neuf tirages aléatoires x1, ..., x9 suivant une même loi ; les valeurs tirées sont représentées sur les diagrammes ci-dessous par des traits verticaux pointillés.
Reconnaissance de formesthumb|Reconnaissance de forme à partir de modélisation en 3D La reconnaissance de formes (ou parfois reconnaissance de motifs) est un ensemble de techniques et méthodes visant à identifier des régularités informatiques à partir de données brutes afin de prendre une décision dépendant de la catégorie attribuée à ce motif. On considère que c'est une branche de l'intelligence artificielle qui fait largement appel aux techniques d'apprentissage automatique et aux statistiques.
Interprétations de la probabilitéLe mot probabilité a été utilisé dans une variété de domaines depuis qu'il a été appliqué à l'étude mathématique des jeux de hasard. Est-ce que la probabilité mesure la tendance réelle physique de quelque chose de se produire, ou est-ce qu'elle est une mesure du degré auquel on croit qu'elle se produira, ou faut-il compter sur ces deux éléments ? Pour répondre à ces questions, les mathématiciens interprètent les valeurs de probabilité de la théorie des probabilités.
Enregistrement multipisteL'enregistrement multipiste est une méthode d'enregistrement sonore qui permet l'enregistrement et le réenregistrement de plusieurs sources sonores, simultanément ou successivement. Ce procédé permet notamment d'enregistrer plusieurs musiciens (ou groupes de musiciens) séparément, puis un chanteur, et de corriger ou d'améliorer, grâce à de nouvelles prises, l'interprétation des uns ou des autres, sans avoir à reprendre l'ensemble. En audiovisuel, les pistes servent au dialogue, aux bruits d'ambiance, à la musique.
Amorçage (psychologie)vignette|323x323px|Lien entre amorce et cible En psychologie cognitive, l’amorçage consiste, lors d'une expérience, à faire précéder un stimulus (l'amorce) par un autre (la cible) avec un court laps de temps. Le rôle de l'amorce est d'influencer la façon dont le second sera traité. Ce phénomène s'opère sans intention consciente. Lorsque l’amorce influence effectivement le traitement de la cible, il y a un effet d'amorçage. Une cible peut ainsi être reconnue plus rapidement lorsqu’un sujet a été exposé à une amorce.
Studio d'enregistrementvignette|Un studio d'enregistrement. vignette|upright|Console analogique Neve VR60. Un studio d'enregistrement est un local équipé pour réaliser des enregistrements sonores, notamment musicaux. Les studios d'enregistrement professionnels comprennent : le studio proprement dit, dont les premières qualités sont : un bon traitement acoustique, une bonne isolation phonique vis-à-vis des bruits extérieurs et une ventilation silencieuse.
Fil magnétiquethumb|right|Un télégraphone modèle 1898, premier appareil à employer la technique du fil magnétique. L'enregistrement sur fil magnétique est une technologie obsolète, employée pour l'enregistrement sonore et sa restitution principalement dans la première moitié du . Le premier à l'employer est Valdemar Poulsen qui invente en 1898 le télégraphone, présenté à l'Exposition universelle de 1900 à Paris : son fonctionnement est basé sur un fil en acier, magnétisé à l'enregistrement.
Sound recording and reproductionSound recording and reproduction is the electrical, mechanical, electronic, or digital inscription and re-creation of sound waves, such as spoken voice, singing, instrumental music, or sound effects. The two main classes of sound recording technology are analog recording and digital recording. Sound recording is the transcription of invisible vibrations in air onto a storage medium such as a phonograph disc. The process is reversed in sound reproduction, and the variations stored on the medium are transformed back into sound waves.
Informant (statistics)In statistics, the informant (or score) is the gradient of the log-likelihood function with respect to the parameter vector. Evaluated at a particular point of the parameter vector, the score indicates the steepness of the log-likelihood function and thereby the sensitivity to infinitesimal changes to the parameter values. If the log-likelihood function is continuous over the parameter space, the score will vanish at a local maximum or minimum; this fact is used in maximum likelihood estimation to find the parameter values that maximize the likelihood function.