Trouble de l'humeurLe trouble de l'humeur est un groupe de diagnostics en provenance du système de classification du Manuel diagnostique et statistique des troubles mentaux dans lequel la thymie est principalement induite. Ce groupe de diagnostics est référencé sous le terme de dans la Classification internationale des maladies (CIM-10). Deux groupes de troubles de l'humeur sont largement reconnus ; cette division est basée sur le cas éventuel d'un patient ayant connu des épisodes maniaques ou hypomaniaques.
Trouble de la personnalité250px|vignette|droite|Le DSM-5, version originale anglaise, avec son prédécesseur, le DSM-IV-TR, version française Un trouble de la personnalité désigne, en psychiatrie et dans l'approche suivant les préceptes du Manuel diagnostique et statistique des troubles mentaux (DSM-5), une catégorie de traits de la personnalité mal adaptés impliquant fonctions cognitives et comportementales. Les définitions peuvent varier selon d'autres sources.
Trouble schizo-affectifLe trouble schizo-affectif, schizophrénie dysthymique ou psychose aiguë schizo-affective, est un trouble mental associant des symptômes d'un trouble bipolaire (caractérisé par plusieurs épisodes dépressifs ou la présence simultanée d'épisodes dépressifs et de manie) et des symptômes d'une schizophrénie. La schizophrénie dysthymique affecte plus particulièrement la cognition et l'émotion. Les anomalies auditives, la paranoïa, des délires, ou un langage et pensée désorganisés avec dysfonctions sociales et personnelles sont fréquents.
Trouble anxieuxLes troubles anxieux sont des peurs et/ou une anxiété anormales ou pathologiques. La classification des troubles mentaux reconnaît une large variété de troubles psychologiques anxieux. L'anxiété n'est pas en soi une émotion pathologique. Elle crée un trouble anxieux si elle devient envahissante (jusqu'au « trouble anxieux généralisé ») et source d'une souffrance significative pour l'individu (souffrance permanente ou discontinue).
Trouble bipolaireUn trouble bipolaire (anciennement maladie ou psychose maniaco-dépressive) est en psychiatrie un « trouble de l'humeur » caractérisé par une succession d’épisodes maniaques (ou hypomaniaques) et dépressifs. Cette appellation de l'Association américaine de psychiatrie, qui figure officiellement depuis 1980 dans la troisième édition du Manuel diagnostique et statistique des troubles mentaux, a été adoptée en 1992 par la Classification internationale des maladies de l'OMS qui utilise la catégorie pour en distinguer différents types.
Loi exponentielleUne loi exponentielle modélise la durée de vie d'un phénomène sans mémoire, ou sans vieillissement, ou sans usure : la probabilité que le phénomène dure au moins s + t heures (ou n'importe quelle autre unité de temps) sachant qu'il a déjà duré t heures sera la même que la probabilité de durer s heures à partir de sa mise en fonction initiale. En d'autres termes, le fait que le phénomène ait duré pendant t heures ne change rien à son espérance de vie à partir du temps t.
Probabilité a posterioriDans le théorème de Bayes, la probabilité a posteriori désigne la probabilité recalculée ou remesurée qu'un évènement ait lieu en prenant en considération une nouvelle information. Autrement dit, la probabilité a posteriori est la probabilité qu'un évènement A ait lieu étant donné que l'évènement B a eu lieu. Elle s'oppose à la probabilité a priori dans l'inférence bayésienne. La loi a priori qu'un évènement ait lieu avec vraisemblance est .
Probabilitévignette|Quatre dés à six faces de quatre couleurs différentes. Les six faces possibles sont visibles. Le terme probabilité possède plusieurs sens : venu historiquement du latin probabilitas, il désigne l'opposé du concept de certitude ; il est également une évaluation du caractère probable d'un événement, c'est-à-dire qu'une valeur permet de représenter son degré de certitude ; récemment, la probabilité est devenue une science mathématique et est appelée théorie des probabilités ou plus simplement probabilités ; enfin une doctrine porte également le nom de probabilisme.
Probabilité a prioriDans le théorème de Bayes, la probabilité a priori (ou prior) désigne une probabilité se fondant sur des données ou connaissances antérieures à une observation. Elle s'oppose à la probabilité a posteriori (ou posterior) correspondante qui s'appuie sur les connaissances postérieures à cette observation. Le théorème de Bayes s'énonce de la manière suivante : si . désigne ici la probabilité a priori de , tandis que désigne la probabilité a posteriori, c'est-à-dire la probabilité conditionnelle de sachant .
Bayesian probabilityBayesian probability (ˈbeɪziən or ˈbeɪʒən ) is an interpretation of the concept of probability, in which, instead of frequency or propensity of some phenomenon, probability is interpreted as reasonable expectation representing a state of knowledge or as quantification of a personal belief. The Bayesian interpretation of probability can be seen as an extension of propositional logic that enables reasoning with hypotheses; that is, with propositions whose truth or falsity is unknown.
Solution tamponEn chimie, une solution tampon est une solution qui maintient approximativement le même pH malgré l'addition de petites quantités d'un acide ou d'une base, ou malgré une dilution. Si l'un de ces trois critères n'est pas vérifié alors la solution est une solution pseudo-tampon. Une solution tampon est composée : soit d'un acide faible HA et de son anion A−. Il s'agit par exemple du couple CH3COOH/CH3COO− ; soit d'une base faible B et de son cation BH+ comme le couple NH4+/NH3.
Solution aqueusevignette|Photo montrant la préparation d'une solution aqueuse au moment où est versé le soluté. En chimie, une solution aqueuse est une phase liquide contenant plusieurs espèces chimiques, dont une ultramajoritaire, l'eau (H2O, le solvant), et des espèces ultraminoritaires, les solutés ou « espèces chimiques dissoutes ».
Inverse probabilityIn probability theory, inverse probability is an obsolete term for the probability distribution of an unobserved variable. Today, the problem of determining an unobserved variable (by whatever method) is called inferential statistics, the method of inverse probability (assigning a probability distribution to an unobserved variable) is called Bayesian probability, the "distribution" of data given the unobserved variable is rather the likelihood function (which is not a probability distribution), and the distribution of an unobserved variable, given both data and a prior distribution, is the posterior distribution.
Inductive probabilityInductive probability attempts to give the probability of future events based on past events. It is the basis for inductive reasoning, and gives the mathematical basis for learning and the perception of patterns. It is a source of knowledge about the world. There are three sources of knowledge: inference, communication, and deduction. Communication relays information found using other methods. Deduction establishes new facts based on existing facts. Inference establishes new facts from data. Its basis is Bayes' theorem.
Trouble de la personnalité anankastiqueLe trouble de la personnalité anankastique (ou trouble de la personnalité obsessionnelle-compulsive) est un désordre psychologique caractérisé par une préoccupation excessive pour l'ordre, le perfectionnisme, le contrôle mental et interpersonnel, et ce aux dépens d'une souplesse d'ouverture et d'efficacité. Il est listé comme trouble de la personnalité dans les et de la Classification internationale des maladies. La incluait cela dans la définition du trouble de la personnalité obsessionnel-compulsif, mais la en fait deux diagnostics distincts.
Ajustement de loi de probabilitéLajustement de la loi de probabilité ou simplement lajustement de la loi est l'ajustement d'une loi de probabilité à une série de données concernant la mesure répétée d'un phénomène aléatoire. L'ajustement de la loi a pour but de prédire la probabilité ou de prévoir la fréquence d'occurrence de l'ampleur du phénomène dans un certain intervalle. Il existe de nombreuses lois de probabilité, dont certaines peuvent être ajustées plus étroitement à la fréquence observée des données que d'autres, selon les caractéristiques du phénomène et de la loi.
Loi de PoissonEn théorie des probabilités et en statistiques, la loi de Poisson est une loi de probabilité discrète qui décrit le comportement du nombre d'événements se produisant dans un intervalle de temps fixé, si ces événements se produisent avec une fréquence moyenne ou espérance connue, et indépendamment du temps écoulé depuis l'événement précédent. gauche|vignette|Chewing gums sur un trottoir. Le nombre de chewing gums sur un pavé est approximativement distribué selon une loi de Poisson.
Intégrale de cheminUne 'intégrale de chemin' (« path integral » en anglais) est une intégrale fonctionnelle, c'est-à-dire que l'intégrant est une fonctionnelle et que la somme est prise sur des fonctions, et non sur des nombres réels (ou complexes) comme pour les intégrales ordinaires. On a donc ici affaire à une intégrale en dimension infinie. Ainsi, on distinguera soigneusement l'intégrale de chemin (intégrale fonctionnelle) d'une intégrale ordinaire calculée sur un chemin de l'espace physique, que les mathématiciens appellent intégrale curviligne.
Credible intervalIn Bayesian statistics, a credible interval is an interval within which an unobserved parameter value falls with a particular probability. It is an interval in the domain of a posterior probability distribution or a predictive distribution. The generalisation to multivariate problems is the credible region. Credible intervals are analogous to confidence intervals and confidence regions in frequentist statistics, although they differ on a philosophical basis: Bayesian intervals treat their bounds as fixed and the estimated parameter as a random variable, whereas frequentist confidence intervals treat their bounds as random variables and the parameter as a fixed value.
Empirical probabilityIn probability theory and statistics, the empirical probability, relative frequency, or experimental probability of an event is the ratio of the number of outcomes in which a specified event occurs to the total number of trials, i.e., by means not of a theoretical sample space but of an actual experiment. More generally, empirical probability estimates probabilities from experience and observation. Given an event A in a sample space, the relative frequency of A is the ratio \tfrac m n, m being the number of outcomes in which the event A occurs, and n being the total number of outcomes of the experiment.