Visual analyticsVisual analytics is an outgrowth of the fields of information visualization and scientific visualization that focuses on analytical reasoning facilitated by interactive visual interfaces. Visual analytics is "the science of analytical reasoning facilitated by interactive visual interfaces." It can attack certain problems whose size, complexity, and need for closely coupled human and machine analysis may make them otherwise intractable.
Analyse spatialevignette|200px|Carte de cas de choléra pendant l'épidémie de 1854 à Londres L'analyse spatiale est une approche géographique qui étudie les localisations et les interactions spatiales en tant que composantes actives des fonctionnements sociétaux. Elle part du postulat selon lequel l'espace est acteur organisé. C'est une science nomothétique donc elle vise à proposer une approche modélisée de l'espace géographique en mettant en évidence des formes récurrentes d'organisation spatiales et des théories, notamment à travers diverses notions-clés : distance, réseaux, structure, .
Big dataLe big data ( « grosses données » en anglais), les mégadonnées ou les données massives, désigne les ressources d’informations dont les caractéristiques en termes de volume, de vélocité et de variété imposent l’utilisation de technologies et de méthodes analytiques particulières pour créer de la valeur, et qui dépassent en général les capacités d'une seule et unique machine et nécessitent des traitements parallélisés. L’explosion quantitative (et souvent redondante) des données numériques permet une nouvelle approche pour analyser le monde.
R-arbreLes R-arbres sont des structures de données sous forme d'arbre utilisées comme méthodes d'exploration spatiale. Elles servent à indexer des informations multidimensionnelles (coordonnées géographiques, rectangles ou polygones). Inventés par Antonin Guttman en 1984, les R-arbres sont utilisés aussi bien dans des contextes théoriques qu'appliqués. Un cas d'utilisation typique des R-arbres est le stockage d'informations géographiques : par exemple l'emplacement des restaurants dans une ville, ou les polygones constitutifs des dessins d'une carte (routes, bâtiments, côtes, etc.
Réponse impulsionnellevignette|300px|right|Réponses impulsionnelles d'un système audio simple (de haut en bas) : impulsion originale à l'entrée, réponse après amplification des hautes fréquences et réponse après amplification des basses fréquences. En traitement du signal, la réponse impulsionnelle d'un processus est le signal de sortie qui est obtenu lorsque l'entrée reçoit une impulsion, c'est-à-dire une variation soudaine et brève du signal.
Réponse en fréquenceLa réponse en fréquence est la mesure de la réponse de tout système (mécanique, électrique, électronique, optique, etc.) à un signal de fréquence variable (mais d'amplitude constante) à son entrée. Dans la gamme des fréquences audibles, la réponse en fréquence intéresse habituellement les amplificateurs électroniques, les microphones et les haut-parleurs. La réponse du spectre radioélectrique peut faire référence aux mesures de câbles coaxiaux, aux câbles de catégorie 6 et aux dispositifs de mélangeur vidéo sans fil.
Uncertain geographic context problemThe uncertain geographic context problem (UGCoP) is a source of statistical bias that can significantly impact the results of spatial analysis when dealing with aggregate data. The UGCoP is very closely related to the Modifiable areal unit problem (MAUP), and like the MAUP, arises from how we divide the land into areal units. It is caused by the difficulty, or impossibility, of understanding how phenomena under investigation (such as people within a census tract) in different enumeration units interact between enumeration units, and outside of a study area over time.
Réponse indicielleEn automatique la réponse indicielle est la réponse d'un système dynamique à une fonction marche de Heaviside communément appelée échelon. Si le système est un système linéaire invariant (SLI) à temps continu ou discret, alors la réponse indicielle est définie par les relations respectives suivantes : Lorsque le système est asymptotiquement stable, la réponse indicielle converge vers une valeur limite (asymptote horizontale) appelée valeur stationnaire ou finale.
Constante de tempsEn physique, une constante de temps est une grandeur, homogène à un temps, caractérisant la rapidité de l'évolution d'une grandeur physique dans le temps , particulièrement lorsque cette évolution est exponentielle . La constante de temps est liée à l'étude de la réponse impulsionnelle d'un système. La durée nécessaire au retour à l'équilibre après la disparition d'une perturbation est appelée temps de relaxation.
Analyse des donnéesL’analyse des données (aussi appelée analyse exploratoire des données ou AED) est une famille de méthodes statistiques dont les principales caractéristiques sont d'être multidimensionnelles et descriptives. Dans l'acception française, la terminologie « analyse des données » désigne donc un sous-ensemble de ce qui est appelé plus généralement la statistique multivariée. Certaines méthodes, pour la plupart géométriques, aident à faire ressortir les relations pouvant exister entre les différentes données et à en tirer une information statistique qui permet de décrire de façon plus succincte les principales informations contenues dans ces données.
Visualisation de donnéesvignette|upright=2|Carte figurative des pertes successives en hommes de l'armée française dans la campagne de Russie 1812-1813, par Charles Minard, 1869. La visualisation des données (ou dataviz ou représentation graphique de données) est un ensemble de méthodes permettant de résumer de manière graphique des données statistiques qualitatives et surtout quantitatives afin de montrer les liens entre des ensembles de ces données. Cette fait partie de la science des données.
GéostatistiqueLa géostatistique est l'étude des variables régionalisées, à la frontière entre les mathématiques et les sciences de la Terre. Son principal domaine d'utilisation a historiquement été l'estimation des gisements miniers, mais son domaine d'application actuel est beaucoup plus large et tout phénomène spatialisé peut être étudié en utilisant la géostatistique. L'histoire de la géostatistique est liée à l'estimation des gisements exploités dans les mines. Dans les années 1950, un professeur de l'université du Witwatersrand en Afrique du Sud, Danie G.
Science des donnéesLa science des données est l'étude de l’extraction automatisée de connaissance à partir de grands ensembles de données. Plus précisément, la science des données est un domaine interdisciplinaire qui utilise des méthodes, des processus, des algorithmes et des systèmes scientifiques pour extraire des connaissances et des idées à partir de nombreuses données structurées ou non . Elle est souvent associée aux données massives et à l'analyse des données.
Mesh (objet)Un en ou maillage est un objet tridimensionnel constitué de sommets, d'arêtes et de faces organisés en polygones sous forme de fil de fer dans une infographie tridimensionnelle. Les faces se composent généralement de triangles, de quadrilatères ou d'autres polygones convexes simples, car cela simplifie le rendu. Les faces peuvent être combinées pour former des polygones concaves plus complexes, ou des polygones avec des trous. L'étude des en fait partie importante de l'infographie tridimensionnelle.
Exploration de donnéesL’exploration de données, connue aussi sous l'expression de fouille de données, forage de données, prospection de données, data mining, ou encore extraction de connaissances à partir de données, a pour objet l’extraction d'un savoir ou d'une connaissance à partir de grandes quantités de données, par des méthodes automatiques ou semi-automatiques.
Données ouvertesvignette|Autocollants utilisés par les militants des données ouvertes. Les données ouvertes (en anglais : open data) sont des données numériques dont l'accès et l'usage sont laissés libres aux usagers, qui peuvent être d'origine privée mais surtout publique, produites notamment par une collectivité ou un établissement public. Elles sont diffusées de manière structurée selon une méthode et une licence ouverte garantissant leur libre accès et leur réutilisation par tous, sans restriction technique, juridique ou financière.
Qualité des donnéesLa qualité des données, en informatique se réfère à la conformité des données aux usages prévus, dans les modes opératoires, les processus, les prises de décision, et la planification (J.M. Juran). De même, les données sont jugées de grande qualité si elles représentent correctement la réalité à laquelle elles se réfèrent. Ces deux points de vue peuvent souvent entrer en contradiction, y compris lorsqu'un même ensemble de données est utilisé avec un objectif commun.
GéoinformatiqueLa géoinformatique est un terme générique désignant l'ensemble des sciences liant la science de l'information avec les sciences terrestres et géographiques. Les sciences géoinformatiques se basent sur l'information géographique et la géodésie. La géoinformatique fait partie de la géomatique mais se concentre sur la dimension de stockage et de visualisation de l'information géographique. Cartographie en ligne Catégorie:Sciences de la Terre Catégorie:Information géographique Catégorie:Branche de la géographi
Statistical graphicsStatistical graphics, also known as statistical graphical techniques, are graphics used in the field of statistics for data visualization. Whereas statistics and data analysis procedures generally yield their output in numeric or tabular form, graphical techniques allow such results to be displayed in some sort of pictorial form. They include plots such as scatter plots, histograms, probability plots, spaghetti plots, residual plots, box plots, block plots and biplots. Exploratory data analysis (EDA) relies heavily on such techniques.
KrigeageLe krigeage est, en géostatistique, la méthode d’estimation linéaire garantissant le minimum de variance. Le krigeage réalise l'interpolation spatiale d'une variable régionalisée par calcul de l'espérance mathématique d'une variable aléatoire, utilisant l'interprétation et la modélisation du variogramme expérimental. C'est le meilleur estimateur linéaire non biaisé ; il se fonde sur une méthode objective. Il tient compte non seulement de la distance entre les données et le point d'estimation, mais également des distances entre les données deux à deux.