Inégalité triangulaireEn géométrie, l'inégalité triangulaire est le fait que, dans un triangle, la longueur d'un côté est inférieure à la somme des longueurs des deux autres côtés. Cette inégalité est relativement intuitive. Dans la vie ordinaire, comme dans la géométrie euclidienne, cela se traduit par le fait que la ligne droite est le plus court chemin : le plus court chemin d'un point A à un point B est d'y aller tout droit, sans passer par un troisième point C qui ne serait pas sur la ligne droite.
Norme (mathématiques)En géométrie, la norme est une extension de la valeur absolue des nombres aux vecteurs. Elle permet de mesurer la longueur commune à toutes les représentations d'un vecteur dans un espace affine, mais définit aussi une distance entre deux vecteurs invariante par translation et compatible avec la multiplication externe. La norme usuelle dans le plan ou l'espace est dite euclidienne car elle est associée à un produit scalaire, à la base de la géométrie euclidienne.
Principe d'incertitudeEn mécanique quantique, le principe d'incertitude ou, plus correctement, principe d'indétermination, aussi connu sous le nom de principe d'incertitude de Heisenberg, désigne toute inégalité mathématique affirmant qu'il existe une limite fondamentale à la précision avec laquelle il est possible de connaître simultanément deux propriétés physiques d'une même particule ; ces deux variables dites complémentaires peuvent être sa position (x) et sa quantité de mouvement (p).
Inégalité de HölderEn analyse, l’inégalité de Hölder, ainsi nommée en l'honneur de Otto Hölder, est une inégalité fondamentale relative aux espaces de fonctions , comme les espaces de suites . C'est une généralisation de l'inégalité de Cauchy-Schwarz. Il existe une formulation de l'inégalité utilisée en mathématiques discrètes. Plus généralement, pour et défini par , si et alors et . De plus, lorsque et sont finis, il y a égalité si et seulement si et sont colinéaires presque partout (p.p.), c'est-à-dire s’il existe et non simultanément nuls tels que p.
Espace vectoriel norméUn espace vectoriel normé (EVN) est un espace vectoriel muni d'une norme. Cette structure mathématique développe des propriétés géométriques de distance compatible avec les opérations de l'algèbre linéaire. Développée notamment par David Hilbert et Stefan Banach, cette notion est fondamentale en analyse et plus particulièrement en analyse fonctionnelle, avec l'utilisation d'espaces de Banach tels que les espaces L. Norme (mathématiques) Soit K un corps commutatif muni d'une valeur absolue, et non discret (par exemple le corps des réels ou des complexes).
Inégalité de MinkowskiEn mathématiques, l'inégalité de Minkowski, ainsi nommée en l'honneur de Hermann Minkowski, est l'inégalité triangulaire pour la norme des espaces L pour p ≥ 1, établissant ainsi que ce sont des espaces vectoriels normés. Elle concerne en particulier la norme des espaces de suites l. Soient un espace mesuré, et deux fonctions . Alors c'est-à-dire étant un espace vectoriel, . Si , l'inégalité est vérifiée. Sinon, en appliquant successivement l'inégalité triangulaire dans et l'inégalité de Hölder (avec ), il vient: d'où l'inégalité annoncée.
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
Entropie (thermodynamique)L'entropie est une grandeur physique qui caractérise le degré de désorganisation d'un système. Introduite en 1865 par Rudolf Clausius, elle est nommée à partir du grec , littéralement « action de se retourner » pris au sens de « action de se transformer ». En thermodynamique, l'entropie est une fonction d'état extensive (c'est-à-dire, proportionnelle à la quantité de matière dans le système considéré). Elle est généralement notée , et dans le Système international d'unités elle s'exprime en joules par kelvin ().
Norme d'opérateurEn mathématiques, et plus particulièrement en analyse fonctionnelle, une norme d'opérateur ou norme subordonnée est une norme définie sur l'espace des opérateurs bornés entre deux espaces vectoriels normés. Entre deux tels espaces, les opérateurs bornés ne sont autres que les applications linéaires continues. Sur un corps K « valué » (au sens : muni d'une valeur absolue) et non discret (typiquement : K = R ou C), soient E et F deux espaces vectoriels normés respectivement munis des normes ‖ ‖ et ‖ ‖.
Cohérence (physique)La cohérence en physique est l'ensemble des propriétés de corrélation d'un système ondulatoire. Son sens initial était la mesure de la capacité d'onde(s) à donner naissances à des interférences — du fait de l'existence d'une relation de phase définie — mais il s'est élargi. On peut parler de cohérence entre 2 ondes, entre les valeurs d'une même onde à deux instants différents (cohérence temporelle) ou entre les valeurs d'une même onde à deux endroits différents (cohérence spatiale).
Entropie de RényiL'entropie de Rényi, due à Alfréd Rényi, est une fonction mathématique qui correspond à la quantité d'information contenue dans la probabilité de collision d'une variable aléatoire. Étant donnés une variable aléatoire discrète à valeurs possibles , ainsi qu'un paramètre réel strictement positif et différent de 1, l' entropie de Rényi d'ordre de est définie par la formule : L'entropie de Rényi généralise d'autres acceptions de la notion d'entropie, qui correspondent chacune à des valeurs particulières de .
Information mutuelleDans la théorie des probabilités et la théorie de l'information, l'information mutuelle de deux variables aléatoires est une quantité mesurant la dépendance statistique de ces variables. Elle se mesure souvent en bit. L'information mutuelle d'un couple de variables représente leur degré de dépendance au sens probabiliste. Ce concept de dépendance logique ne doit pas être confondu avec celui de causalité physique, bien qu'en pratique l'un implique souvent l'autre.
Inégalité de Gibbsvignette|Willard Gibbs. En théorie de l'information, l'inégalité de Gibbs, nommée en l'honneur de Willard illard Gibbs.Gibbs, porte sur l'entropie d'une distribution de probabilités. Elle sert à prouver de nombreux résultats en théorie de l'information. Soient deux distributions de probabilités et , alors Le cas d'égalité se produit si et seulement si pour tout . D'après l'inégalité de Jensen, puisque le logarithme est concave, Cela équivaut à et montre donc l'inégalité.
Inégalité (mathématiques)En mathématiques, une inégalité est une formule reliant deux expressions numériques avec un symbole de comparaison. Une inégalité stricte compare nécessairement deux valeurs différentes tandis qu’une inégalité large reste valable en cas d’égalité. Contrairement à une interprétation étymologique, la négation d’une égalité (avec le symbole ≠) n’est pas considérée comme une inégalité et se traite différemment. Les inégalités permettent d’encadrer ou de distinguer des valeurs réelles, de préciser une approximation, de justifier le comportement asymptotique d’une série ou d’une intégrale.
Espace vectoriel quotientEn algèbre linéaire, l'espace vectoriel quotient E/F d'un espace vectoriel E par un sous-espace vectoriel F est la structure naturelle d'espace vectoriel sur l'ensemble quotient de E par la relation d'équivalence définie de la manière suivante : v est en relation avec w si et seulement si v – w appartient à F. C'est donc l'ensemble des classes [v] = v + F, où v parcourt E, muni des lois suivantes : somme vectorielle : [v] + [w] = [v + w] ; multiplication par un scalaire : λ [v] = [λ v].
Pair-aidanceLa pair-aidance est une trajectoire de rétablissement en santé, qui repose sur une entraide entre personnes étant ou ayant été atteintes d'une maladie somatique ou psychique. Cette pratique est de plus en plus recommandée dans le cadre de l'autonomisation des patients en santé mentale, d'une amélioration du respect des droits de l'homme en santé mentale ainsi que d'une condition pour accomplir l'idée de rétablissement en santé mentale (officiellement depuis 2005 au Québec, en lien avec plusieurs universités).
Coherence lengthIn physics, coherence length is the propagation distance over which a coherent wave (e.g. an electromagnetic wave) maintains a specified degree of coherence. Wave interference is strong when the paths taken by all of the interfering waves differ by less than the coherence length. A wave with a longer coherence length is closer to a perfect sinusoidal wave. Coherence length is important in holography and telecommunications engineering. This article focuses on the coherence of classical electromagnetic fields.
Inégalité de Bienaymé-TchebychevEn théorie des probabilités, l'inégalité de Bienaymé-Tchebychev, est une inégalité de concentration permettant de montrer qu'une variable aléatoire prendra avec une faible probabilité une valeur relativement lointaine de son espérance. Ce résultat s'applique dans des cas très divers, nécessitant la connaissance de peu de propriétés (seules l'espérance et la variance doivent être connues), et permet de démontrer la loi faible des grands nombres.
PresentThe present is the period of time that is occurring now. The present is contrasted with the past, the period of time that has already occurred, and the future, the period of time that has yet to occur. It is sometimes represented as a hyperplane in space-time, typically called "now", although modern physics demonstrates that such a hyperplane cannot be defined uniquely for observers in relative motion. The present may also be viewed as a duration.
Entropie de HartleyLa fonction de Hartley ou entropie de Hartley est une mesure de l'incertitude, introduite par Ralph Hartley en 1928. Si on choisit un échantillon d'un ensemble fini A de façon aléatoire et uniforme, l'information fournie une fois que la sortie est connue est l'entropie de Hartley. Si la base du logarithme est 2, alors l'incertitude se mesure en bits. S'il s'agit du logarithme naturel, alors l'unité est le nat. Hartley quant à lui utilisait le logarithme en base 10, et cette unité d'information est parfois appelée (symbole : hart) en son honneur, ou encore decit.