Coefficient de PoissonMis en évidence (analytiquement) par Siméon Denis Poisson, le coefficient de Poisson (aussi appelé coefficient principal de Poisson) permet de caractériser la contraction de la matière perpendiculairement à la direction de l'effort appliqué. thumb|upright=1.4|Illustration du coefficient de Poisson. Dans le cas le plus général le coefficient de Poisson dépend de la direction de l'allongement, mais : dans le cas important des matériaux isotropes il en est indépendant ; dans le cas d'un matériau on définit trois coefficients de Poisson (dont deux liés par une relation) ; dans le cas d'un matériau orthotrope on définit deux coefficients de Poisson (liés par une relation) pour chacune des trois directions principales.
Écart typethumb|Exemple de deux échantillons ayant la même moyenne (100) mais des écarts types différents illustrant l'écart type comme mesure de la dispersion autour de la moyenne. La population rouge a un écart type (SD = standard deviation) de 10 et la population bleue a un écart type de 50. En mathématiques, l’écart type (aussi orthographié écart-type) est une mesure de la dispersion des valeurs d'un échantillon statistique ou d'une distribution de probabilité.
Fatigue (matériau)vignette|Photomicrographie de la progression des fissures dans un matériau dues à la fatigue. Image tirée de . La fatigue est l'endommagement local d'une pièce sous l'effet d'efforts variables : forces appliquées, vibrations, rafales de vent Alors que la pièce est conçue pour résister à des efforts donnés, la variation de l'effort, même à des niveaux bien plus faibles que ceux pouvant provoquer sa rupture, peut à la longue provoquer sa rupture. Les essais de fatigue permettent de déterminer la résistance des matériaux à de telles faibles charges répétées.
Valeur absolue des écartsEn statistique, la déviation absolue moyenne (ou simplement déviation moyenne) d'un ensemble est la moyenne (ou valeur prévue) des déviations absolues par rapport à un point central d'une série statistique. C'est une statistique sommaire de dispersion ou de variabilité statistique, et elle peut être associée à toute mesure à une tendance centrale (moyenne, médiane, mode...). La déviation absolue d'un élément a d'un ensemble de données x par rapport à un réel est a – x.
Deviation (statistics)In mathematics and statistics, deviation is a measure of difference between the observed value of a variable and some other value, often that variable's mean. The sign of the deviation reports the direction of that difference (the deviation is positive when the observed value exceeds the reference value). The magnitude of the value indicates the size of the difference. Errors and residuals A deviation that is a difference between an observed value and the true value of a quantity of interest (where true value denotes the Expected Value, such as the population mean) is an error.
Median absolute deviationIn statistics, the median absolute deviation (MAD) is a robust measure of the variability of a univariate sample of quantitative data. It can also refer to the population parameter that is estimated by the MAD calculated from a sample. For a univariate data set X1, X2, ..., Xn, the MAD is defined as the median of the absolute deviations from the data's median : that is, starting with the residuals (deviations) from the data's median, the MAD is the median of their absolute values. Consider the data (1, 1, 2, 2, 4, 6, 9).
Stress–strain analysisStress–strain analysis (or stress analysis) is an engineering discipline that uses many methods to determine the stresses and strains in materials and structures subjected to forces. In continuum mechanics, stress is a physical quantity that expresses the internal forces that neighboring particles of a continuous material exert on each other, while strain is the measure of the deformation of the material. In simple terms we can define stress as the force of resistance per unit area, offered by a body against deformation.
Statistique de testEn statistique, une statistique de test - aussi appelée variable de décision - est une variable aléatoire construite à partir d'un échantillon statistique permettant de formuler une règle de décision pour un test statistique. Cette statistique n'est pas unique, ce qui permet de construire différentes règles de décision et de les comparer à l'aide de la notion de puissance statistique. Il est impératif de connaitre sa loi de probabilité lorsque l'hypothèse nulle est vraie. Sa loi sous l'hypothèse alternative est souvent inconnue.
Erreur typeLerreur type d'une statistique (souvent une estimation d'un paramètre) est l'écart type de sa distribution d'échantillonnage ou l'estimation de son écart type. Si le paramètre ou la statistique est la moyenne, on parle d'erreur type de la moyenne. La distribution d'échantillonnage est générée par tirage répété et enregistrements des moyennes obtenues. Cela forme une distribution de moyennes différentes, et cette distribution a sa propre moyenne et variance.
Test du χ²En statistique, le test du khi carré, aussi dit du khi-deux, d’après sa désignation symbolique , est un test statistique où la statistique de test suit une loi du sous l'hypothèse nulle. Par exemple, il permet de tester l'adéquation d'une série de données à une famille de lois de probabilité ou de tester l'indépendance entre deux variables aléatoires. Ce test a été proposé par le statisticien Karl Pearson en 1900.
Test du χ² de PearsonEn statistique, le test du χ2 de Pearson ou test du χ2 d'indépendance est un test statistique qui s'applique sur des données catégorielles pour évaluer la probabilité de retrouver la différence de répartition observée entre les catégories si celles-ci étaient indépendantes dans le processus de répartition sous-jacent. Il convient aux données non-appariées prises sur de grands échantillons (n>30). Il est le test du χ2 le plus communément utilisé (comparativement aux autres tests du χ2 tels que le test du χ2 de Yates, le test du rapport de vraisemblance ou le test du porte-manteau.
One- and two-tailed testsIn statistical significance testing, a one-tailed test and a two-tailed test are alternative ways of computing the statistical significance of a parameter inferred from a data set, in terms of a test statistic. A two-tailed test is appropriate if the estimated value is greater or less than a certain range of values, for example, whether a test taker may score above or below a specific range of scores. This method is used for null hypothesis testing and if the estimated value exists in the critical areas, the alternative hypothesis is accepted over the null hypothesis.
Matériau compositevignette|Multicouche, un exemple de matériau composite. Un matériau composite est un assemblage ou un mélange hétérogène d'au moins deux composants, non miscibles mais ayant une forte capacité d'interpénétration et d'adhésion, dont les propriétés mécaniques se complètent. Le nouveau matériau ainsi constitué possède des propriétés avantageuses que les composants seuls ne possèdent pas. Bien que le terme composite soit moderne, de tels matériaux ont été inventés et abondamment utilisés bien avant l'Antiquité, comme les torchis pour la construction de bâtiments.
Unbiased estimation of standard deviationIn statistics and in particular statistical theory, unbiased estimation of a standard deviation is the calculation from a statistical sample of an estimated value of the standard deviation (a measure of statistical dispersion) of a population of values, in such a way that the expected value of the calculation equals the true value. Except in some important situations, outlined later, the task has little relevance to applications of statistics since its need is avoided by standard procedures, such as the use of significance tests and confidence intervals, or by using Bayesian analysis.
Cylinder stressIn mechanics, a cylinder stress is a stress distribution with rotational symmetry; that is, which remains unchanged if the stressed object is rotated about some fixed axis. Cylinder stress patterns include: circumferential stress, or hoop stress, a normal stress in the tangential (azimuth) direction. axial stress, a normal stress parallel to the axis of cylindrical symmetry. radial stress, a normal stress in directions coplanar with but perpendicular to the symmetry axis.
Test du rapport de vraisemblanceEn statistiques, le test du rapport de vraisemblance est un test statistique qui permet de tester un modèle paramétrique contraint contre un non contraint. Si on appelle le vecteur des paramètres estimés par la méthode du maximum de vraisemblance, on considère un test du type : contre On définit alors l'estimateur du maximum de vraisemblance et l'estimateur du maximum de vraisemblance sous .
Contrainte de cisaillementvignette|Une force est appliquée à la partie supérieure d'un carré, dont la base est bloquée. La déformation en résultant transforme le carré en parallélogramme. Une contrainte de cisaillement τ (lettre grecque « tau ») est une contrainte mécanique appliquée parallèlement à la section transversale d'un élément allongé, par opposition aux contraintes normales qui sont appliquées perpendiculairement à cette surface (donc longitudinalement, c.-à-d. selon l'axe principal de la pièce). C'est le rapport d'une force à une surface.
Qualité de l'ajustementThe goodness of fit of a statistical model describes how well it fits a set of observations. Measures of goodness of fit typically summarize the discrepancy between observed values and the values expected under the model in question. Such measures can be used in statistical hypothesis testing, e.g. to test for normality of residuals, to test whether two samples are drawn from identical distributions (see Kolmogorov–Smirnov test), or whether outcome frequencies follow a specified distribution (see Pearson's chi-square test).
Coefficient de variationvignette|CV (coefficient de variation) = l'écart-type sur la moyenne En théorie des probabilités et statistiques, le coefficient de variation également nommé écart type relatif, est une mesure de dispersion relative. Le RSD (relative standard deviation en anglais) est défini comme la valeur absolue du coefficient de variation et est souvent exprimé en pourcentage. Le coefficient de variation est défini comme le rapport entre l'écart-type et la moyenne : L'écart-type seul ne permet le plus souvent pas de juger de la dispersion des valeurs autour de la moyenne.
G-testIn statistics, G-tests are likelihood-ratio or maximum likelihood statistical significance tests that are increasingly being used in situations where chi-squared tests were previously recommended. The general formula for G is where is the observed count in a cell, is the expected count under the null hypothesis, denotes the natural logarithm, and the sum is taken over all non-empty cells. Furthermore, the total observed count should be equal to the total expected count:where is the total number of observations.