Millennium RunThe Millennium Run, or Millennium Simulation (referring to its size) is a computer N-body simulation used to investigate how the distribution of matter in the Universe has evolved over time, in particular, how the observed population of galaxies was formed. It is used by scientists working in physical cosmology to compare observations with theoretical predictions. A basic scientific method for testing theories in cosmology is to evaluate their consequences for the observable parts of the universe.
Parameter spaceThe parameter space is the space of possible parameter values that define a particular mathematical model, often a subset of finite-dimensional Euclidean space. Often the parameters are inputs of a function, in which case the technical term for the parameter space is domain of a function. The ranges of values of the parameters may form the axes of a plot, and particular outcomes of the model may be plotted against these axes to illustrate how different regions of the parameter space produce different types of behavior in the model.
Univers de de SitterEn cosmologie, l'univers de de Sitter () est un modèle cosmologique dans lequel la seule contribution à la densité d'énergie provient de la constante cosmologique. C'est une solution exacte des équations de la relativité générale correspondant physiquement à un univers homogène, isotrope, vide de matière mais rempli d'une constante cosmologique positive et notée ici . C'est un espace de courbure positive (valant ) bien que sa courbure spatiale puisse être quelconque. Il porte le nom du physicien Willem de Sitter.
Statistique (indicateur)Une statistique est, au premier abord, le résultat d'une suite d'opérations appliquées à un ensemble de nombres appelé échantillon. D'une façon générale, c'est le résultat de l'application d'une méthode statistique à un ensemble de données. Dans le calcul de la moyenne arithmétique, par exemple, l'algorithme consiste à calculer la somme de toutes les valeurs des données et à diviser par le nombre de données. La moyenne est ainsi une statistique.
IllustrisIllustris est un projet de simulation numérique astrophysique géré par une équipe internationale de chercheurs. L'objectif est d'étudier les processus de formation des galaxies et de l'évolution de l'univers avec un modèle physique complet. Le modèle d'Illustris présente un morceau de l'univers sous la forme d'un cube dont chaque côté mesure 350 millions d'années-lumière. Il contient 41 416 galaxies, chacune très détaillée. Le modèle contient 12 milliards d'éléments visuels, à partir desquels des images peuvent être générées pour être comparées aux données réelles de l'univers.
Cosmologie observationnelleLa cosmologie observationnelle est une sous-branche de l'astrophysique qui étudie la cosmologie à l'aide d'observations. Elle vise à mesurer les grandeurs physiques liées aux paramètres cosmologiques. Bien que ses origines remontent aux premières observations du cosmos, la cosmologie observationnelle devient un domaine scientifique spécifique à partir des années 1920. Elle a pour principaux objets d'analyse les frontières observationnelles de l'Univers, de l'infiniment petit jusqu'à l'infiniment grand, ainsi que la structure et la dynamique de ce dernier.
Probabilité a posterioriDans le théorème de Bayes, la probabilité a posteriori désigne la probabilité recalculée ou remesurée qu'un évènement ait lieu en prenant en considération une nouvelle information. Autrement dit, la probabilité a posteriori est la probabilité qu'un évènement A ait lieu étant donné que l'évènement B a eu lieu. Elle s'oppose à la probabilité a priori dans l'inférence bayésienne. La loi a priori qu'un évènement ait lieu avec vraisemblance est .
Big BounceLe Big Bounce (Grand Rebond, en anglais) ou Univers phénix est un modèle cosmologique théorique hypothétique spéculatif controversé non démontré du destin de l'Univers, à base d'un modèle cyclique de succession de Big Bang (Grand Boum) et de Big Crunch (grand effondrement terminal). D’après la théorie du Big Bang, l'Univers serait né il y a 13,8 milliards d'années par une singularité des lois universelles de la relativité générale, avec l'explosion d'un atome primitif pour créer l'espace-temps, la matière, l’énergie et l'expansion de l'Univers de la relativité générale, à partir d'un pré-Big Bang du chaos primitif originel.
Lentille gravitationnelleEn astrophysique, une lentille gravitationnelle, ou mirage gravitationnel, est produit par la présence d'un corps céleste très massif (tel, par exemple, un amas de galaxies) se situant entre un observateur et une source « lumineuse » lointaine. La lentille gravitationnelle, imprimant un fort champ gravitationnel autour d'elle, a comme effet de faire dévier les rayons lumineux qui passent près d'elle, déformant ainsi les images que reçoit un observateur placé sur la ligne de visée.
Bessel's correctionIn statistics, Bessel's correction is the use of n − 1 instead of n in the formula for the sample variance and sample standard deviation, where n is the number of observations in a sample. This method corrects the bias in the estimation of the population variance. It also partially corrects the bias in the estimation of the population standard deviation. However, the correction often increases the mean squared error in these estimations. This technique is named after Friedrich Bessel.
Fonction de vraisemblancevignette|Exemple d'une fonction de vraisemblance pour le paramètre d'une Loi de Poisson En théorie des probabilités et en statistique, la fonction de vraisemblance (ou plus simplement vraisemblance) est une fonction des paramètres d'un modèle statistique calculée à partir de données observées. Les fonctions de vraisemblance jouent un rôle clé dans l'inférence statistique fréquentiste, en particulier pour les méthodes statistiques d'estimation de paramètres.
Méthode des différences finiesEn analyse numérique, la méthode des différences finies est une technique courante de recherche de solutions approchées d'équations aux dérivées partielles qui consiste à résoudre un système de relations (schéma numérique) liant les valeurs des fonctions inconnues en certains points suffisamment proches les uns des autres. Cette méthode apparaît comme étant la plus simple à mettre en œuvre car elle procède en deux étapes : d'une part la discrétisation par différences finies des opérateurs de dérivation/différentiation, d'autre part la convergence du schéma numérique ainsi obtenu lorsque la distance entre les points diminue.