Matrice (mathématiques)thumb|upright=1.5 En mathématiques, les matrices sont des tableaux d'éléments (nombres, caractères) qui servent à interpréter en termes calculatoires, et donc opérationnels, les résultats théoriques de l'algèbre linéaire et même de l'algèbre bilinéaire. Toutes les disciplines étudiant des phénomènes linéaires utilisent les matrices. Quant aux phénomènes non linéaires, on en donne souvent des approximations linéaires, comme en optique géométrique avec les approximations de Gauss.
Décomposition d'une matrice en éléments propresEn algèbre linéaire, la décomposition d'une matrice en éléments propres est la factorisation de la matrice en une forme canonique où les coefficients matriciels sont obtenus à partir des valeurs propres et des vecteurs propres. Un vecteur non nul v à N lignes est un vecteur propre d'une matrice carrée A à N lignes et N colonnes si et seulement si il existe un scalaire λ tel que : où λ est appelé valeur propre associée à v. Cette dernière équation est appelée « équation aux valeurs propres ».
Exponentielle d'une matriceEn mathématiques, et plus particulièrement en analyse, l'exponentielle d'une matrice est une fonction généralisant la fonction exponentielle aux matrices et aux endomorphismes par le calcul fonctionnel. Elle fait en particulier le pont entre un groupe de Lie et son algèbre de Lie. Pour n = 1, on retrouve la définition de l'exponentielle complexe. Sauf indication contraire, X, Y désignent des matrices n × n complexes (à coefficients complexes).
Work–life interfaceWork–life interface is the intersection of work and personal life. There are many aspects of one's personal life that can intersect with work, including family, leisure, and health. Work–life interface is bidirectional; for instance, work can interfere with private life, and private life can interfere with work. This interface can be adverse in nature (e.g., work–life conflict) or can be beneficial (e.g., work–life enrichment) in nature. Recent research has shown that the work–life interface has become more boundary-less, especially for technology-enabled workers.
Agrandissement et réductionEn géométrie, l’agrandissement et la réduction sont les deux cas de transformations géométriques d'une figure en multipliant ses dimensions par un nombre appelé rapport : ce nombre est supérieur à 1 dans le cas d’un agrandissement, inférieur dans le cas d’une réduction. La figure obtenue est ainsi semblable à l’ancienne, et si les deux apparaissent dans le même plan, elles s’obtiennent chacune par une homothétie sur la figure de l’autre. C’est le cas par exemple d’une configuration de Thalès.
Sous-espace de KrylovEn algèbre linéaire, le sous-espace de Krylov d'ordre r associé à une matrice de taille et un vecteur b de dimension n est le sous-espace vectoriel linéaire engendré par les vecteurs images de b par les r premières puissances de A (à partir de ), c'est-à-dire Le concept porte le nom du mathématicien appliqué et ingénieur naval russe Alexei Krylov, qui a publié un article à ce sujet en 1931. Les vecteurs sont linéairement indépendants tant que , et . Ainsi, désigne la dimension maximale d'un sous-espace de Krylov.
Matrice de SylvesterEn algèbre linéaire, la matrice de Sylvester de deux polynômes apporte des informations d'ordre arithmétique sur ces polynômes. Elle tient son nom de James Joseph Sylvester. Elle sert à la définition du résultant de deux polynômes. Soient p et q deux polynômes non nuls, de degrés respectifs m et n La matrice de Sylvester associée à p et q est la matrice carrée définie ainsi : la première ligne est formée des coefficients de p, suivis de zéros la seconde ligne s'obtient à partir de la première par permutation circulaire vers la droite ; les n – 2 lignes suivantes s'obtiennent en répétant la même opération ; la ligne n + 1 est formée des coefficients de q, suivis de zéros les m – 1 lignes suivantes sont formées par des permutations circulaires.
Matrice d'une application linéaireEn algèbre linéaire, la matrice d'une application linéaire est une matrice de scalaires qui permet de représenter une application linéaire entre deux espaces vectoriels de dimensions finies, étant donné le choix d'une base pour chacun d'eux. Soient : E et F deux espaces vectoriels sur un corps commutatif K, de dimensions respectives n et m ; B = (e, ... , e) une base de E, C une base de F ; φ une application de E dans F.
Déterminant (mathématiques)vignette|L'aire du parallélogramme est la valeur absolue du déterminant de la matrice formée par les vecteurs correspondants aux côtés du parallélogramme. En mathématiques, le déterminant est une valeur qu'on peut associer aux matrices ou aux applications linéaires en dimension finie. Sur les exemples les plus simples, ceux de la géométrie euclidienne en dimension 2 ou 3, il s'interprète en termes d'aires ou de volumes, et son signe est relié à la notion d'orientation.
Analytic function of a matrixIn mathematics, every analytic function can be used for defining a matrix function that maps square matrices with complex entries to square matrices of the same size. This is used for defining the exponential of a matrix, which is involved in the closed-form solution of systems of linear differential equations. There are several techniques for lifting a real function to a square matrix function such that interesting properties are maintained. All of the following techniques yield the same matrix function, but the domains on which the function is defined may differ.
Exponentielle de base aEn analyse réelle, l'exponentielle de base est la fonction notée exp qui, à tout réel x, associe le réel a. Elle n'a de sens que pour un réel a strictement positif. Elle étend à l'ensemble des réels la fonction, définie sur l'ensemble des entiers naturels, qui à l'entier n associe a. C'est donc la version continue d'une suite géométrique. Elle s'exprime à l'aide des fonctions usuelles exponentielle et logarithme népérien sous la forme Elle peut être définie comme la seule fonction continue sur R, prenant la valeur a en 1 et transformant une somme en produit.
Arnoldi iterationIn numerical linear algebra, the Arnoldi iteration is an eigenvalue algorithm and an important example of an iterative method. Arnoldi finds an approximation to the eigenvalues and eigenvectors of general (possibly non-Hermitian) matrices by constructing an orthonormal basis of the Krylov subspace, which makes it particularly useful when dealing with large sparse matrices. The Arnoldi method belongs to a class of linear algebra algorithms that give a partial result after a small number of iterations, in contrast to so-called direct methods which must complete to give any useful results (see for example, Householder transformation).
Matrice antisymétriqueEn mathématiques, et plus précisément en algèbre linéaire, une matrice antisymétrique est une matrice carrée opposée à sa transposée. Une matrice carrée A à coefficients dans un anneau quelconque est dite antisymétrique si sa transposée est égale à son opposée, c'est-à-dire si elle satisfait à l'équation : A = –A ou encore, en l'écrivant avec des coefficients sous la forme A = (ai,j), si : pour tout i et j, aj,i = –ai,j Les matrices suivantes sont antisymétriques : Le cas où la matrice est à coefficients dans un anneau de caractéristique 2 est très particulier.
Jordan matrixIn the mathematical discipline of matrix theory, a Jordan matrix, named after Camille Jordan, is a block diagonal matrix over a ring R (whose identities are the zero 0 and one 1), where each block along the diagonal, called a Jordan block, has the following form: Every Jordan block is specified by its dimension n and its eigenvalue , and is denoted as Jλ,n. It is an matrix of zeroes everywhere except for the diagonal, which is filled with and for the superdiagonal, which is composed of ones.
Convergence uniformeLa convergence uniforme d'une suite de fonctions est une forme de convergence plus exigeante que la convergence simple. La convergence devient uniforme quand toutes les suites avancent vers leur limite respective avec une sorte de « mouvement d'ensemble ». Dans le cas de fonctions numériques d'une variable, la notion prend une forme d'« évidence » géométrique : le graphe de la fonction f se « rapproche » de celui de la limite. Soient X un ensemble, (Y, d) un espace métrique, et A un sous-ensemble de X.
Matrice inversibleEn mathématiques et plus particulièrement en algèbre linéaire, une matrice inversible (ou régulière ou encore non singulière) est une matrice carrée A pour laquelle il existe une matrice B de même taille n avec laquelle les produits AB et BA sont égaux à la matrice identité. Dans ce cas la matrice B est unique, appelée matrice inverse de A et notée B = A. Cette définition correspond à celle d’élément inversible pour la multiplication dans l’anneau des matrices carrées associé.
Méthode du gradient biconjuguéEn mathématiques, plus spécifiquement en analyse numérique, la méthode du gradient biconjugué est un algorithme permettant de résoudre un système d'équations linéaires Contrairement à la méthode du gradient conjugué, cet algorithme ne nécessite pas que la matrice soit auto-adjointe, en revanche, la méthode requiert des multiplications par la matrice adjointe . Choisir , , un préconditionneur régulier (on utilise fréquemment ) et ; for do ( et sont le résidus); .
TravailAu sens économique usuel, le travail est l'activité rémunérée qui permet la production de biens et services. Avec le capital, c'est un facteur de production de l'économie. Il est essentiellement fourni par des employés en échange d'un salaire et contribue à l'activité économique. Le processus d'entrée et de sortie de l'emploi se fait par le marché du travail. Le travail non rémunéré joue un rôle non négligeable dans la production nationale.
Rang (algèbre linéaire)En algèbre linéaire : le rang d'une famille de vecteurs est la dimension du sous-espace vectoriel engendré par cette famille. Par exemple, pour une famille de vecteurs linéairement indépendants, son rang est le nombre de vecteurs ; le rang d'une application linéaire de dans est la dimension de son , qui est un sous-espace vectoriel de . Le théorème du rang relie la dimension de , la dimension du noyau de et le rang de ; le rang d'une matrice est le rang de l'application linéaire qu'elle représente, ou encore le rang de la famille de ses vecteurs colonnes ; le rang d'un système d'équations linéaires est le nombre d'équations que compte tout système échelonné équivalent.
Matrice hessienneEn mathématiques, la matrice hessienne (ou simplement le hessien ou la hessienne) d'une fonction numérique est la matrice carrée, notée , de ses dérivées partielles secondes. Etant donnée une fonction à valeurs réelles dont toutes les dérivées partielles secondes existent, le coefficient d'indice de la matrice hessienne vaut . Autrement dit, On appelle discriminant hessien (ou simplement hessien) le déterminant de cette matrice. Le terme « hessien » a été introduit par James Joseph Sylvester, en hommage au mathématicien allemand Ludwig Otto Hesse.