Surapprentissagevignette|300x300px|La ligne verte représente un modèle surappris et la ligne noire représente un modèle régulier. La ligne verte classifie trop parfaitement les données d'entrainement, elle généralise mal et donnera de mauvaises prévisions futures avec de nouvelles données. Le modèle vert est donc finalement moins bon que le noir. En statistique, le surapprentissage, ou sur-ajustement, ou encore surinterprétation (en anglais « overfitting »), est une analyse statistique qui correspond trop précisément à une collection particulière d'un ensemble de données.
Identités logarithmiquesCet article dresse une liste d'identités utiles lorsqu'on travaille avec les logarithmes. Ces identités sont toutes valables à condition que les réels utilisés (, , et ) soient strictement positifs. En outre, les bases des logarithmes doivent être différentes de 1. Pour toute base , on a : Par définition des logarithmes, on a : Ces trois identités permettent d'utiliser des tables de logarithme et des règles à calcul ; connaissant le logarithme de deux nombres, il est possible de les multiplier et diviser rapidement, ou aussi bien calculer des puissances ou des racines de ceux-ci.
Dérivée logarithmiqueEn mathématiques et plus particulièrement en analyse et en analyse complexe, la dérivée logarithmique d'une fonction f dérivable ne s'annulant pas est la fonction : où f est la dérivée de f. Lorsque la fonction f est à valeurs réelles strictement positives, la dérivée logarithmique coïncide avec la dérivée de la composée de f par la fonction logarithme ln, comme le montre la formule de la dérivée d'une composée de fonctions.
Elastic net regularizationIn statistics and, in particular, in the fitting of linear or logistic regression models, the elastic net is a regularized regression method that linearly combines the L1 and L2 penalties of the lasso and ridge methods. The elastic net method overcomes the limitations of the LASSO (least absolute shrinkage and selection operator) method which uses a penalty function based on Use of this penalty function has several limitations. For example, in the "large p, small n" case (high-dimensional data with few examples), the LASSO selects at most n variables before it saturates.
Fonction objectifvignette|comparaison de certains substituts de la fonction de perte Le terme fonction objectif ou fonction économique, est utilisé en optimisation mathématique et en recherche opérationnelle pour désigner une fonction qui sert de critère pour déterminer la meilleure solution à un problème d'optimisation. Elle associe une valeur à une instance d'un problème d'optimisation. Le but du problème d'optimisation est alors de minimiser ou de maximiser cette fonction jusqu'à l'optimum, par différents procédés comme l'algorithme du simplexe.