Hypothèse nulleEn statistiques et en économétrie, l'hypothèse nulle (symbole international : ) est une hypothèse postulant l'égalité entre des paramètres statistiques (généralement, la moyenne ou la variance) de deux échantillons dont elle fait l’hypothèse qu'ils sont pris sur des populations équivalentes. Elle est toujours testée contre une hypothèse alternative qui postule soit la différence des données (test bilatéral), soit une inégalité (plus petit que ou plus grand que) entre les données (test unilatéral).
Modèle mentalEn psychologie cognitive, un modèle mental est une représentation permettant de simuler mentalement le déroulement d'un phénomène pour anticiper les résultats d'une action. La notion de modèle mental est également largement employée en ergonomie cognitive et interaction homme-machine. Le terme de modèle mental provient de Kenneth Craik dans son livre The Nature of Explanation publié en 1943. John Bowlby s'en inspire dans ses travaux sur la théorie de l’attachement.
Moteur de workflowUn moteur de workflow est un dispositif logiciel permettant d'exécuter des instances de workflow (l'enchaînement des activités décrit par la définition de processus de workflow). La WfMC introduit une nuance avec un système de gestion de workflow qui est un logiciel pouvant être constitué d'un ou plusieurs moteurs de workflow et dont le but est de créer, de gérer et d'exécuter des instances de workflow.
Biais (statistique)En statistique ou en épidémiologie, un biais est une démarche ou un procédé qui engendre des erreurs dans les résultats d'une étude. Formellement, le biais de l'estimateur d'un paramètre est la différence entre la valeur de l'espérance de cet estimateur (qui est une variable aléatoire) et la valeur qu'il est censé estimer (définie et fixe). biais effet-centre biais de vérification (work-up biais) biais d'autosélection, estimé à 27 % des travaux d'écologie entre 1960 et 1984 par le professeur de biologie américain Stuart H.
Gestion des donnéesLa gestion des données est une discipline de gestion qui tend à valoriser les données en tant que ressources numériques. La gestion des données permet d'envisager le développement d'architectures, de réglementations, de pratiques et de procédures qui gèrent correctement les besoins des organismes sur le plan de tout le cycle de vie des données. Les données sont, avec les traitements, l'un des deux aspects des systèmes d'information traditionnellement identifiés, et l'un ne peut aller sans l'autre pour un management du système d'information cohérent.
Solid modelingSolid modeling (or solid modelling) is a consistent set of principles for mathematical and computer modeling of three-dimensional shapes (solids). Solid modeling is distinguished within the broader related areas of geometric modeling and computer graphics, such as 3D modeling, by its emphasis on physical fidelity. Together, the principles of geometric and solid modeling form the foundation of 3D-computer-aided design and in general support the creation, exchange, visualization, animation, interrogation, and annotation of digital models of physical objects.
Anchor modelingAnchor modeling is an agile database modeling technique suited for information that changes over time both in structure and content. It provides a graphical notation used for conceptual modeling similar to that of entity-relationship modeling, with extensions for working with temporal data. The modeling technique involves four modeling constructs: the anchor, attribute, tie and knot, each capturing different aspects of the domain being modeled. The resulting models can be translated to physical database designs using formalized rules.
Test statistiqueEn statistiques, un test, ou test d'hypothèse, est une procédure de décision entre deux hypothèses. Il s'agit d'une démarche consistant à rejeter ou à ne pas rejeter une hypothèse statistique, appelée hypothèse nulle, en fonction d'un échantillon de données. Il s'agit de statistique inférentielle : à partir de calculs réalisés sur des données observées, on émet des conclusions sur la population, en leur rattachant des risques d'être erronées. Hypothèse nulle L'hypothèse nulle notée H est celle que l'on considère vraie a priori.
Modèle (économie)Un modèle est, en économie, une représentation simplifiée de la réalité économique ou d'une partie de celle-ci. Un modèle économique se base sur des hypothèses économiques et a recours au langage mathématique. L'économie se fonde sur les modèles pour estimer l'évolution d'un système économique, comme la croissance, le commerce international, etc. La science économique vise à expliquer les mécanismes à l’œuvre dans un système économique, ou dans une partie de ce système.
Recherche scientifiquevignette|Une laborantine du Laboratoire fédéral d'essai des matériaux et de recherche (EMPA) à Saint-Gall, en 1964. La recherche scientifique est, en premier lieu, l’ensemble des actions entreprises en vue de produire et de développer les connaissances scientifiques. Par extension métonymique, on utilise également ce terme dans le cadre social, économique, institutionnel et juridique de ces actions. thumb|Allégorie de la Recherche, bronze par , 1896, Thomas Jefferson Building.
Three-schema approachThe three-schema approach, or three-schema concept, in software engineering is an approach to building information systems and systems information management that originated in the 1970s. It proposes three different views in systems development, with conceptual modelling being considered the key to achieving data integration.
Unbiased estimation of standard deviationIn statistics and in particular statistical theory, unbiased estimation of a standard deviation is the calculation from a statistical sample of an estimated value of the standard deviation (a measure of statistical dispersion) of a population of values, in such a way that the expected value of the calculation equals the true value. Except in some important situations, outlined later, the task has little relevance to applications of statistics since its need is avoided by standard procedures, such as the use of significance tests and confidence intervals, or by using Bayesian analysis.