Matrice symétriquevignette|Matrice 5x5 symétrique. Les coefficients égaux sont représentés par la même couleur. En algèbre linéaire et multilinéaire, une matrice symétrique est une matrice carrée qui est égale à sa propre transposée, c'est-à-dire telle que a = a pour tous i et j compris entre 1 et n, où les a sont les coefficients de la matrice et n est son ordre. Les coefficients d'une matrice symétrique sont symétriques par rapport à la diagonale principale (du coin en haut à gauche jusqu'à celui en bas à droite).
Matrice antisymétriqueEn mathématiques, et plus précisément en algèbre linéaire, une matrice antisymétrique est une matrice carrée opposée à sa transposée. Une matrice carrée A à coefficients dans un anneau quelconque est dite antisymétrique si sa transposée est égale à son opposée, c'est-à-dire si elle satisfait à l'équation : A = –A ou encore, en l'écrivant avec des coefficients sous la forme A = (ai,j), si : pour tout i et j, aj,i = –ai,j Les matrices suivantes sont antisymétriques : Le cas où la matrice est à coefficients dans un anneau de caractéristique 2 est très particulier.
Matrice (mathématiques)thumb|upright=1.5 En mathématiques, les matrices sont des tableaux d'éléments (nombres, caractères) qui servent à interpréter en termes calculatoires, et donc opérationnels, les résultats théoriques de l'algèbre linéaire et même de l'algèbre bilinéaire. Toutes les disciplines étudiant des phénomènes linéaires utilisent les matrices. Quant aux phénomènes non linéaires, on en donne souvent des approximations linéaires, comme en optique géométrique avec les approximations de Gauss.
Valeur propre, vecteur propre et espace propreEn mathématiques, et plus particulièrement en algèbre linéaire, le concept de vecteur propre est une notion algébrique s'appliquant à une application linéaire d'un espace dans lui-même. Il correspond à l'étude des axes privilégiés, selon lesquels l'application se comporte comme une dilatation, multipliant les vecteurs par une même constante. Ce rapport de dilatation est appelé valeur propre, les vecteurs auxquels il s'applique s'appellent vecteurs propres, réunis en un espace propre.
Système intégrableEn mécanique hamiltonienne, un système intégrable au sens de Liouville est un système qui possède un nombre suffisant de indépendantes. Lorsque le mouvement est borné, la dynamique est alors périodique ou quasi périodique. Soit un système à N degrés de liberté qui est décrit à l'instant par : les N coordonnées généralisées les N moments conjugués . À chaque instant, les 2N coordonnées définissent un point dans l'espace des phases Γ = R2N. L'évolution dynamique du système sous le flot hamiltonien se traduit par une courbe continue appelée orbite dans cet espace des phases.
Algèbre de LieEn mathématiques, une algèbre de Lie, nommée en l'honneur du mathématicien Sophus Lie, est un espace vectoriel qui est muni d'un crochet de Lie, c'est-à-dire d'une loi de composition interne bilinéaire, alternée, et qui vérifie la relation de Jacobi. Une algèbre de Lie est un cas particulier d'algèbre sur un corps. Soit K un corps commutatif. Une algèbre de Lie sur K est un espace vectoriel sur K muni d'une application bilinéaire de dans qui vérifie les propriétés suivantes : Le produit est appelé crochet de Lie (ou simplement crochet) de et .
Représentation d'algèbre de LieEn mathématiques, une représentation d'une algèbre de Lie est une façon d'écrire cette algèbre comme une algèbre de matrices, ou plus généralement d'endomorphismes d'un espace vectoriel, avec le crochet de Lie donné par le commutateur. Algèbre de Lie Soit K un corps commutatif de caractéristique différente de 2. Une algèbre de Lie sur K est un espace vectoriel muni d'une application bilinéaire de dans qui vérifie les propriétés suivantes : Tout espace vectoriel peut être muni d'une structure d'algèbre de Lie, en posant .
Matrice inversibleEn mathématiques et plus particulièrement en algèbre linéaire, une matrice inversible (ou régulière ou encore non singulière) est une matrice carrée A pour laquelle il existe une matrice B de même taille n avec laquelle les produits AB et BA sont égaux à la matrice identité. Dans ce cas la matrice B est unique, appelée matrice inverse de A et notée B = A. Cette définition correspond à celle d’élément inversible pour la multiplication dans l’anneau des matrices carrées associé.
Matrice diagonaleEn algèbre linéaire, une matrice diagonale est une matrice carrée dont les coefficients en dehors de la diagonale principale sont nuls. Les coefficients de la diagonale peuvent être ou ne pas être nuls. Une matrice diagonale est une matrice qui correspond à la représentation d'un endomorphisme diagonalisable dans une base de vecteurs propres. La matrice d'un endomorphisme diagonalisable est semblable à une matrice diagonale. Toute matrice diagonale est symétrique, normale et triangulaire.
Produit matricielLe produit matriciel désigne la multiplication de matrices, initialement appelé la « composition des tableaux ». Il s'agit de la façon la plus fréquente de multiplier des matrices entre elles. En algèbre linéaire, une matrice A de dimensions m lignes et n colonnes (matrice m×n) représente une application linéaire ƒ d'un espace de dimension n vers un espace de dimension m. Une matrice colonne V de n lignes est une matrice n×1, et représente un vecteur v d'un espace vectoriel de dimension n. Le produit A×V représente ƒ(v).
Matrices de PauliLes matrices de Pauli, développées par Wolfgang Pauli, forment, au facteur i près, une base de l'algèbre de Lie du groupe SU(2). Elles sont définies comme l'ensemble de matrices complexes de dimensions suivantes : (où i est l’unité imaginaire des nombres complexes). Ces matrices sont utilisées en mécanique quantique pour représenter le spin des particules, notamment dès 1927 dans l'étude non-relativiste du spin de l'électron : l'équation de Pauli.
Skew-Hermitian matrixNOTOC In linear algebra, a square matrix with complex entries is said to be skew-Hermitian or anti-Hermitian if its conjugate transpose is the negative of the original matrix. That is, the matrix is skew-Hermitian if it satisfies the relation where denotes the conjugate transpose of the matrix . In component form, this means that for all indices and , where is the element in the -th row and -th column of , and the overline denotes complex conjugation.
Variété de PoissonEn géométrie, une structure de Poisson sur une variété différentielle est un crochet de Lie (appelé crochet de Poisson dans ce cas) sur l'algèbre des fonctions lisses de à valeurs réelles, vérifiant formule de Leibniz En d'autres termes, une structure de Poisson est structure d'algèbre de Lie sur l'espace vectoriel des fonctions lisses sur de sorte que est un champ de vecteurs pour toute fonction lisse , appelé champ de vecteurs hamiltonien associé à . Soit une variété différentielle.
Décomposition d'une matrice en éléments propresEn algèbre linéaire, la décomposition d'une matrice en éléments propres est la factorisation de la matrice en une forme canonique où les coefficients matriciels sont obtenus à partir des valeurs propres et des vecteurs propres. Un vecteur non nul v à N lignes est un vecteur propre d'une matrice carrée A à N lignes et N colonnes si et seulement si il existe un scalaire λ tel que : où λ est appelé valeur propre associée à v. Cette dernière équation est appelée « équation aux valeurs propres ».
Definite matrixIn mathematics, a symmetric matrix with real entries is positive-definite if the real number is positive for every nonzero real column vector where is the transpose of . More generally, a Hermitian matrix (that is, a complex matrix equal to its conjugate transpose) is positive-definite if the real number is positive for every nonzero complex column vector where denotes the conjugate transpose of Positive semi-definite matrices are defined similarly, except that the scalars and are required to be positive or zero (that is, nonnegative).
Higher-dimensional gamma matricesIn mathematical physics, higher-dimensional gamma matrices generalize to arbitrary dimension the four-dimensional Gamma matrices of Dirac, which are a mainstay of relativistic quantum mechanics. They are utilized in relativistically invariant wave equations for fermions (such as spinors) in arbitrary space-time dimensions, notably in string theory and supergravity. The Weyl–Brauer matrices provide an explicit construction of higher-dimensional gamma matrices for Weyl spinors.
Matrice de ToeplitzEn algèbre linéaire, une matrice de Toeplitz (d'après Otto Toeplitz) ou matrice à diagonales constantes est une matrice dont les coefficients sur une diagonale descendant de gauche à droite sont les mêmes. Par exemple, la matrice suivante est une matrice de Toeplitz : Toute matrice A à n lignes et n colonnes de la forme est une matrice de Toeplitz. Si l'élément situé à l’intersection des ligne i et colonne j de A est noté Ai,j, alors on a : En général, une équation matricielle correspond à un système de n équations linéaires à résoudre.
Forme bilinéaireEn mathématiques, plus précisément en algèbre linéaire, une forme bilinéaire est une application qui à un couple de vecteurs associe un scalaire, et qui a la particularité d'être linéaire en ses deux arguments. Autrement dit, étant donné un espace vectoriel V sur un corps commutatif K, il s'agit d'une application f : V × V → K telle que, pour tous et tous , Les formes bilinéaires sont naturellement introduites pour les produits scalaires.
Matrice orthogonaleUne matrice carrée A (n lignes, n colonnes) à coefficients réels est dite orthogonale si A A = I, où A est la matrice transposée de A et I est la matrice identité. Des exemples de matrices orthogonales sont les matrices de rotation, comme la matrice de rotation plane d'angle θ ou les matrices de permutation, comme Une matrice réelle A est orthogonale si et seulement si elle est inversible et son inverse est égale à sa transposée : A = A. Une matrice carrée est orthogonale si et seulement si ses vecteurs colonnes sont orthogonaux deux à deux et de norme 1.
Matrix decompositionIn the mathematical discipline of linear algebra, a matrix decomposition or matrix factorization is a factorization of a matrix into a product of matrices. There are many different matrix decompositions; each finds use among a particular class of problems. In numerical analysis, different decompositions are used to implement efficient matrix algorithms. For instance, when solving a system of linear equations , the matrix A can be decomposed via the LU decomposition.