Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.
Schéma (géométrie algébrique)En mathématiques, les schémas sont les objets de base de la géométrie algébrique, généralisant la notion de variété algébrique de plusieurs façons, telles que la prise en compte des multiplicités, l'unicité des points génériques et le fait d'autoriser des équations à coefficients dans un anneau commutatif quelconque.
Hilbert schemeIn algebraic geometry, a branch of mathematics, a Hilbert scheme is a scheme that is the parameter space for the closed subschemes of some projective space (or a more general projective scheme), refining the Chow variety. The Hilbert scheme is a disjoint union of projective subschemes corresponding to Hilbert polynomials. The basic theory of Hilbert schemes was developed by . Hironaka's example shows that non-projective varieties need not have Hilbert schemes.
Error correction codeIn computing, telecommunication, information theory, and coding theory, forward error correction (FEC) or channel coding is a technique used for controlling errors in data transmission over unreliable or noisy communication channels. The central idea is that the sender encodes the message in a redundant way, most often by using an error correction code or error correcting code (ECC). The redundancy allows the receiver not only to detect errors that may occur anywhere in the message, but often to correct a limited number of errors.
Group schemeIn mathematics, a group scheme is a type of object from algebraic geometry equipped with a composition law. Group schemes arise naturally as symmetries of schemes, and they generalize algebraic groups, in the sense that all algebraic groups have group scheme structure, but group schemes are not necessarily connected, smooth, or defined over a field. This extra generality allows one to study richer infinitesimal structures, and this can help one to understand and answer questions of arithmetic significance.
Block codeIn coding theory, block codes are a large and important family of error-correcting codes that encode data in blocks. There is a vast number of examples for block codes, many of which have a wide range of practical applications. The abstract definition of block codes is conceptually useful because it allows coding theorists, mathematicians, and computer scientists to study the limitations of all block codes in a unified way.
Formal schemeIn mathematics, specifically in algebraic geometry, a formal scheme is a type of space which includes data about its surroundings. Unlike an ordinary scheme, a formal scheme includes infinitesimal data that, in effect, points in a direction off of the scheme. For this reason, formal schemes frequently appear in topics such as deformation theory. But the concept is also used to prove a theorem such as the theorem on formal functions, which is used to deduce theorems of interest for usual schemes.
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
Indice de réfractionvignette|Image des fronts d'onde émis par une source ponctuelle mettant en évidence le phénomène de réfraction. La zone inférieure située sous la ligne grise a un plus grand indice de réfraction et donc une vitesse de propagation proportionnellement inférieure à celle de la zone supérieure (pour une raison de clarté, la réflexion partielle n'est pas montrée).
Informationvignette|redresse=0.6|Pictogramme représentant une information. L’information est un de la discipline des sciences de l'information et de la communication (SIC). Au sens étymologique, l'« information » est ce qui donne une forme à l'esprit. Elle vient du verbe latin « informare », qui signifie « donner forme à » ou « se former une idée de ». L'information désigne à la fois le message à communiquer et les symboles utilisés pour l'écrire. Elle utilise un code de signes porteurs de sens tels qu'un alphabet de lettres, une base de chiffres, des idéogrammes ou pictogrammes.
Fiber product of schemesIn mathematics, specifically in algebraic geometry, the fiber product of schemes is a fundamental construction. It has many interpretations and special cases. For example, the fiber product describes how an algebraic variety over one field determines a variety over a bigger field, or the pullback of a family of varieties, or a fiber of a family of varieties. Base change is a closely related notion. The of schemes is a broad setting for algebraic geometry.
Codes de parité à faible densitéDans la théorie de l'information, un contrôle de parité de faible densité LDPC est un code linéaire correcteur d'erreur, permettant la transmission d'information sur un canal de transmission bruité. LDPC est construit en utilisant un graphe biparti clairsemé. Les codes LDPC ont une capacité approchant la limite théorique. À l'aide de techniques itératives de propagation d'information sur la donnée transmise et à décoder, les codes LDPC peuvent être décodés en un temps proportionnel à leur longueur de bloc.
Canal de communication (théorie de l'information)vignette En théorie de l'information, un canal de communication ou canal de transmission est un support (physique ou non) permettant la transmission d'une certaine quantité d'information, depuis une source (ou émetteur) vers un destinataire (ou récepteur). Souvent, le canal altère l'information transmise, par exemple en ajoutant un bruit aléatoire. La quantité d'information qu'un canal de communication peut transporter est limitée : on parle de capacité du canal.
Biréfringencedroite|vignette|400px|Le texte apparait en double après avoir traversé le cristal de calcite. C'est la double réfraction, un phénomène caractéristique des milieux biréfringents. La biréfringence est la propriété physique d'un matériau dans lequel la lumière se propage de façon anisotrope. Dans un milieu biréfringent, l'indice de réfraction n'est pas unique, il dépend de la direction de polarisation de l'onde lumineuse. Un effet spectaculaire de la biréfringence est la double réfraction par laquelle un rayon lumineux pénétrant dans le cristal est divisé en deux.
Théorie des codesEn théorie de l'information, la théorie des codes traite des codes et de leurs propriétés et de leurs aptitudes à servir sur différents canaux de communication. On distingue deux modèles de communication : avec et sans bruit. Sans bruit, le codage de source suffit à la communication. Avec bruit, la communication est possible avec les codes correcteurs. En définissant l'information de façon mathématique, l'étape fondatrice de la théorie des codes a été franchie par Claude Shannon.
Informatique théoriquevignette|Une représentation artistique d'une machine de Turing. Les machines de Turing sont un modèle de calcul. L'informatique théorique est l'étude des fondements logiques et mathématiques de l'informatique. C'est une branche de la science informatique et la science formelle. Plus généralement, le terme est utilisé pour désigner des domaines ou sous-domaines de recherche centrés sur des vérités universelles (axiomes) en rapport avec l'informatique.
Capacité d'un canalLa capacité d'un canal, en génie électrique, en informatique et en théorie de l'information, est la limite supérieure étroite du débit auquel l'information peut être transmise de manière fiable sur un canal de communication. Suivant les termes du théorème de codage du canal bruyant, la capacité d'un canal donné est le débit d'information le plus élevé (en unités d'information par unité de temps) qui peut être atteint avec une probabilité d'erreur arbitrairement faible. La théorie de l'information, développée par Claude E.
QubitEn informatique quantique, un qubit ou qu-bit (quantum + bit ; prononcé ), parfois écrit qbit, est un système quantique à deux niveaux, qui représente la plus petite unité de stockage d'information quantique. Ces deux niveaux, notés et selon le formalisme de Dirac, représentent chacun un état de base du qubit et en font donc l'analogue quantique du bit. Grâce à la propriété de superposition quantique, un qubit stocke une information qualitativement différente de celle d'un bit.
Code quantiqueLes codes quantiques sont l'équivalent quantique des codes correcteurs. La théorie des codes quantiques est donc une branche de l'information quantique qui s'applique à protéger l'information quantique des effets de la décohérence. La correction d'erreur quantique est un élément essentiel du calcul tolérant aux fautes qui doit gérer non seulement les erreurs dans l'information stockée, mais aussi dans l'application des portes quantiques, la préparation de nouveaux états ainsi que dans les opérations de mesure.
PhotoélasticimétrieLa photoélasticimétrie est une méthode expérimentale permettant de visualiser les contraintes existant à l'intérieur d'un solide grâce à sa photoélasticité. C'est une méthode principalement optique se basant sur la biréfringence acquise par les matériaux soumis à des contraintes. On l'utilise souvent dans les cas où les méthodes mathématiques et informatiques deviennent trop lourdes à mettre en œuvre. La photoélasticimétrie fut développée au début du par Ernest George Coker et de l'université de Londres.