Tensor densityIn differential geometry, a tensor density or relative tensor is a generalization of the tensor field concept. A tensor density transforms as a tensor field when passing from one coordinate system to another (see tensor field), except that it is additionally multiplied or weighted by a power W of the Jacobian determinant of the coordinate transition function or its absolute value. A tensor density with a single index is called a vector density.
TenseurEn mathématiques, plus précisément en algèbre multilinéaire et en géométrie différentielle, un tenseur est un objet très général, dont la valeur s'exprime dans un espace vectoriel. On peut l'utiliser entre autres pour représenter des applications multilinéaires ou des multivecteurs.
Tenseur de torsionEn géométrie différentielle, la torsion constitue, avec la courbure, une mesure de la façon dont une base mobile évolue le long des courbes, et le tenseur de torsion en donne l'expression générale dans le cadre des variétés, c'est-à-dire des « espaces courbes » de toutes dimensions. La torsion se manifeste en géométrie différentielle classique comme une valeur numérique associée à chaque point d'une courbe de l'espace euclidien.
Connexion de KoszulEn géométrie différentielle, une connexion (de Koszul) est un opérateur sur les sections d'un fibré vectoriel. Cette notion a été introduite par Jean-Louis Koszul en 1950 et formalise le transport parallèle de vecteurs le long d'une courbe en termes d'équation différentielle ordinaire. Les connexions sont des objets localement définis auxquels sont associées les notions de courbure et de torsion. L'un des exemples les plus simples de connexions de Koszul sans torsion est la connexion de Levi-Civita naturellement définie sur le fibré tangent de toute variété riemannienne.
Connexion (mathématiques)En géométrie différentielle, la connexion est un outil pour réaliser le transport parallèle. Il existe plusieurs présentations qui dépendent de l'utilisation faite. Cette notion a été développée au début des années 1920 par Élie Cartan et Hermann Weyl (avec comme cas particulier celle de connexion affine), puis reformulée en 1951 par Charles Ehresmann et Jean-Louis Koszul. Connexion de Koszul La connexion de Koszul est un opérateur sur des espaces de sections.
Contorsion tensorThe contorsion tensor in differential geometry is the difference between a connection with and without torsion in it. It commonly appears in the study of spin connections. Thus, for example, a vielbein together with a spin connection, when subject to the condition of vanishing torsion, gives a description of Einstein gravity. For supersymmetry, the same constraint, of vanishing torsion, gives (the field equations of) 11-dimensional supergravity.
Forme de connexionEn géométrie différentielle, une 1-forme de connexion est une forme différentielle sur un -fibré principal qui vérifie certains axiomes. La donnée d'une forme de connexion permet de parler, entre autres, de courbure, de torsion, de dérivée covariante, de relevé horizontal, de transport parallèle, d'holonomie et de théorie de jauge. La notion de forme de connexion est intimement reliée à la notion de connexion d'Ehresmann. Soient : un groupe de Lie ; l'élément identité de ; l'algèbre de Lie de ; la représentation adjointe de sur ; une variété différentielle ; un -fibré principal sur .
Produit tensorielEn mathématiques, le produit tensoriel est un moyen commode de coder les objets multilinéaires. Il est utilisé en algèbre, en géométrie différentielle, en géométrie riemannienne, en analyse fonctionnelle et en physique (mécanique des solides, relativité générale et mécanique quantique). Théorème et définition. Soient et deux espaces vectoriels sur un corps commutatif .
Connexion de Levi-CivitaEn géométrie riemannienne, la connexion de Levi-Civita est une connexion de Koszul naturellement définie sur toute variété riemannienne ou par extension sur toute variété pseudo-riemannienne. Ses propriétés caractérisent la variété riemannienne. Notamment, les géodésiques, courbes minimisant localement la distance riemannienne, sont exactement les courbes pour lesquelles le vecteur vitesse est parallèle. De plus, la courbure de la variété se définit à partir de cette connexion ; des conditions sur la courbure imposent des contraintes topologiques sur la variété.
Sous-espace vectorielEn algèbre linéaire, un sous-espace vectoriel d'un espace vectoriel E, est une partie non vide F, de E, stable par combinaisons linéaires. Cette stabilité s'exprime par : la somme de deux vecteurs de F appartient à F ; le produit d'un vecteur de F par un scalaire appartient à F. Muni des lois induites, F est alors un espace vectoriel. L'intersection d'une famille non vide de sous-espaces de E est un sous-espace de E. La réunion d'une famille non vide de sous-espaces n'en est généralement pas un ; le sous-espace engendré par cette réunion est la somme de cette famille.
Mixed tensorIn tensor analysis, a mixed tensor is a tensor which is neither strictly covariant nor strictly contravariant; at least one of the indices of a mixed tensor will be a subscript (covariant) and at least one of the indices will be a superscript (contravariant). A mixed tensor of type or valence , also written "type (M, N)", with both M > 0 and N > 0, is a tensor which has M contravariant indices and N covariant indices. Such a tensor can be defined as a linear function which maps an (M + N)-tuple of M one-forms and N vectors to a scalar.
Champ tensorielEn mathématiques, en physique et en ingénierie, un champ tensoriel est un concept très général de quantité géométrique variable. Il est utilisé en géométrie différentielle et dans la théorie des variétés, en géométrie algébrique, en relativité générale, dans l'analyse des contraintes et de la déformation dans les matériaux, et en de nombreuses applications dans les sciences physiques et dans le génie. C'est une généralisation de l'idée de champ vectoriel, lui-même conçu comme un « vecteur qui varie de point en point », à celle, plus riche, de « tenseur qui varie de point en point ».
Réseau de neurones récurrentsUn réseau de neurones récurrents (RNN pour recurrent neural network en anglais) est un réseau de neurones artificiels présentant des connexions récurrentes. Un réseau de neurones récurrents est constitué d'unités (neurones) interconnectées interagissant non-linéairement et pour lequel il existe au moins un cycle dans la structure. Les unités sont reliées par des arcs (synapses) qui possèdent un poids. La sortie d'un neurone est une combinaison non linéaire de ses entrées.
Contraction tensorielleEn algèbre multilinéaire, la contraction est un procédé de calcul sur les tenseurs faisant intervenir la dualité. En coordonnées elle se représente de façon très simple en utilisant les notations d'Einstein et consiste à faire une somme sur un indice muet. Il est possible de contracter un tenseur unique de rang p en un tenseur de rang p-2, par exemple en calculant la trace d'une matrice. Il est possible également de contracter deux tenseurs, ce qui généralise la notion de produit matriciel.
Tenseur symétriqueUn tenseur d'ordre 2 est dit symétrique si la forme bilinéaire associée est symétrique. Un tenseur d'ordre 2 étant défini par rapport à un certain espace vectoriel, on peut y choisir des vecteurs de base et le tenseur est alors représenté par une matrice de composantes . Une définition équivalente à la précédente consiste à dire que la matrice est symétrique, c'est-à-dire que : pour tout couple d'indices i et j, car cette propriété reste inchangée si l'on change de base.
Kernel (linear algebra)In mathematics, the kernel of a linear map, also known as the null space or nullspace, is the linear subspace of the domain of the map which is mapped to the zero vector. That is, given a linear map L : V → W between two vector spaces V and W, the kernel of L is the vector space of all elements v of V such that L(v) = 0, where 0 denotes the zero vector in W, or more symbolically: The kernel of L is a linear subspace of the domain V.
Types of artificial neural networksThere are many types of artificial neural networks (ANN). Artificial neural networks are computational models inspired by biological neural networks, and are used to approximate functions that are generally unknown. Particularly, they are inspired by the behaviour of neurons and the electrical signals they convey between input (such as from the eyes or nerve endings in the hand), processing, and output from the brain (such as reacting to light, touch, or heat). The way neurons semantically communicate is an area of ongoing research.
Ordre totalEn mathématiques, on appelle relation d'ordre total sur un ensemble E toute relation d'ordre ≤ pour laquelle deux éléments de E sont toujours comparables, c'est-à-dire que On dit alors que E est totalement ordonné par ≤. Une relation binaire ≤ sur un ensemble E est un ordre total si (pour tous éléments x, y et z de E) : x ≤ x (réflexivité) ; si x ≤ y et y ≤ x, alors x = y (antisymétrie) ; si x ≤ y et y ≤ z, alors x ≤ z (transitivité) ; x ≤ y ou y ≤ x (totalité). Les trois premières propriétés sont celles faisant de ≤ une relation d'ordre.
Tenseur (mathématiques)Les tenseurs sont des objets mathématiques issus de l'algèbre multilinéaire permettant de généraliser les scalaires et les vecteurs. On les rencontre notamment en analyse vectorielle et en géométrie différentielle fréquemment utilisés au sein de champs de tenseurs. Ils sont aussi utilisés en mécanique des milieux continus. Le présent article ne se consacre qu'aux tenseurs dans des espaces vectoriels de dimension finie, bien que des généralisations en dimension infinie et même pour des modules existent.
Ordre lexicographiqueEn mathématiques, un ordre lexicographique est un ordre que l'on définit sur les suites finies d'éléments d'un ensemble ordonné (ou, de façon équivalente, les mots construits sur un ensemble ordonné). Sa définition est une généralisation de l'ordre du dictionnaire : l'ensemble ordonné est l'alphabet, les mots sont bien des suites finies de lettres de l'alphabet. La principale propriété de l'ordre lexicographique est de conserver la totalité de l'ordre initial.