DaylightingDaylighting is the practice of placing windows, skylights, other openings, and reflective surfaces so that direct or indirect sunlight can provide effective internal lighting. Particular attention is given to daylighting while designing a building when the aim is to maximize visual comfort or to reduce energy use. Energy savings can be achieved from the reduced use of artificial (electric) lighting or from passive solar heating.
Conduit de lumièreLes conduits de lumière sont utilisés pour transporter et distribuer de la lumière naturelle sans transmission de chaleur dans des pièces sombres éloignées des ouvertures traditionnelles tout en réduisant au minimum la perte de lumière. Le concept d'apporter la lumière par réflexion a été inventé par les égyptiens, qui utilisaient des miroirs pour éclairer les pyramides. Le système du conduit de lumière tel que nous le connaissons, a été créé et développé en Australie en 1986 par la société Solatube.
Educational assessmentEducational assessment or educational evaluation is the systematic process of documenting and using empirical data on the knowledge, skill, attitudes, aptitude and beliefs to refine programs and improve student learning. Assessment data can be obtained from directly examining student work to assess the achievement of learning outcomes or can be based on data from which one can make inferences about learning. Assessment is often used interchangeably with test, but not limited to tests.
Verrière (architecture)vignette|La verrière du grand magasin Goum à Moscou date de 1893. En architecture, une verrière est un vitrage de grande dimension faisant office de toit ou de mur ou bien une grande ouverture parée de vitraux. Si le montage d’une verrière en position verticale semble relativement aisé comme dans le cas des vitraux qui ornent les grands édifices religieux d'Europe depuis le Moyen Âge, en revanche la position horizontale, c’est-à-dire en couverture, ne sera possible qu’avec une structure relativement légère et fine : ce qui porte l’origine des verrières à celle de l’acier, distingué du fer dès le pour la construction des structures.
Loi normaleEn théorie des probabilités et en statistique, les lois normales sont parmi les lois de probabilité les plus utilisées pour modéliser des phénomènes naturels issus de plusieurs événements aléatoires. Elles sont en lien avec de nombreux objets mathématiques dont le mouvement brownien, le bruit blanc gaussien ou d'autres lois de probabilité. Elles sont également appelées lois gaussiennes, lois de Gauss ou lois de Laplace-Gauss des noms de Laplace (1749-1827) et Gauss (1777-1855), deux mathématiciens, astronomes et physiciens qui l'ont étudiée.
Loi de Cauchy (probabilités)La loi de Cauchy, appelée aussi loi de Lorentz, est une loi de probabilité continue qui doit son nom au mathématicien Augustin Louis Cauchy. Une variable aléatoire X suit une loi de Cauchy si sa densité , dépendant des deux paramètres et ( > 0) est définie par : La fonction ainsi définie s'appelle une lorentzienne. Elle apparaît par exemple en spectroscopie pour modéliser des raies d'émission. Cette distribution est symétrique par rapport à (paramètre de position), le paramètre donnant une information sur l'étalement de la fonction (paramètre d'échelle).
Anidolic lightingAnidolic lighting systems use anidolic optical components to light rooms. Light redirected by these systems does not converge to a focal point or form an image, hence the name (from an, without, and eidolon, image). Anidolic lighting uses non-imaging mirrors, lenses, and light guides to capture exterior sunlight and direct it deeply into rooms, while also scattering rays to avoid glare. The human eye's response to light is non-linear, so a more even distribution of the same amount of light makes a room appear brighter.
Loi stableLa loi stable ou loi de Lévy tronquée, nommée d'après le mathématicien Paul Lévy, est une loi de probabilité utilisée en mathématiques, physique et analyse quantitative (finance de marché). On dit qu'une variable aléatoire réelle est de loi stable si elle vérifie l'une des 3 propriétés équivalentes suivantes : Pour tous réels strictement positifs et , il existe un réel strictement positif et un réel tels que les variables aléatoires et aient la même loi, où et sont des copies indépendantes de .
Évaluation formativeLes concepts d’évaluation formative et sommative ont été apportés par Michael Scriven en 1967, dans le contexte de l’évaluation de programmes éducatifs (curriculum evaluation). Pour Scriven, une évaluation formative devait permettre à un établissement scolaire d’estimer la capacité de ses programmes scolaires à atteindre leurs objectifs, de façon à guider les choix de l’école pour les améliorer progressivement, au contraire d’une évaluation sommative qui cherche à poser un jugement final sur les programmes : « marchent-ils » ou pas ? Et en conséquence, faut-il les maintenir, les étendre ou les abandonner ? Benjamin Bloom reprend dans les années suivantes cette distinction pour l’appliquer au processus d’apprentissage, notamment dans son ouvrage Handbook on formative and summative evaluation of student learning.
Loi de FisherEn théorie des probabilités et en statistiques, la loi de Fisher ou encore loi de Fisher-Snedecor ou encore loi F de Snedecor est une loi de probabilité continue. Elle tire son nom des statisticiens Ronald Aylmer Fisher et George Snedecor. La loi de Fisher survient très fréquemment en tant que loi de la statistique de test lorsque l'hypothèse nulle est vraie, dans des tests statistiques, comme les tests du ratio de vraisemblance, dans les tests de Chow utilisés en économétrie, ou encore dans l'analyse de la variance (ANOVA) via le test de Fisher.
Ratio distributionA ratio distribution (also known as a quotient distribution) is a probability distribution constructed as the distribution of the ratio of random variables having two other known distributions. Given two (usually independent) random variables X and Y, the distribution of the random variable Z that is formed as the ratio Z = X/Y is a ratio distribution. An example is the Cauchy distribution (also called the normal ratio distribution), which comes about as the ratio of two normally distributed variables with zero mean.
Loi du χ²En statistiques et en théorie des probabilités, la loi du centrée (prononcé « khi carré » ou « khi-deux ») avec k degrés de liberté est la loi de la somme de carrés de k lois normales centrées réduites indépendantes. La loi du est utilisée en inférence statistique et pour les tests statistiques notamment le test du χ2. La loi du χ2 non centrée généralise la loi du . Soient k variables aléatoires X, ... , X indépendantes suivant la loi normale centrée et réduite, c'est-à-dire la loi normale de moyenne 0 et d'écart-type 1.
ÉclairageLéclairage est l'ensemble des moyens qui permettent à l'homme de doter son environnement des conditions de luminosité qu'il estime nécessaires à son activité ou son agrément. L'éclairage associe une source lumineuse (naturelle ou artificielle, fixe ou mobile) et d'éventuels dispositifs de type batteries, luminaires ou miroir/puits de Lumière. Les sources artificielles étaient le feu, des lampes à graisse, puis des lampes à huile, des torches, des bougies, les lampes à pétrole puis le gaz, puis des lampes électriques d’abord à incandescence (traditionnelle ou halogène) puis fluorescentes et électroluminescentes.
Loi logistiqueEn probabilité et en statistiques, la loi logistique est une loi de probabilité absolument continue à support infini utilisé en régression logistique et pour les réseaux de neurones à propagation avant. Son nom de loi logistique est issu du fait que sa fonction de répartition est une fonction logistique. La loi logistique a deux paramètres μ et s > 0 et sa densité est Sa fonction de répartition est Son espérance et sa variance sont données par les formules suivantes : La loi logistique standard est la loi logistique de paramètres 0 et 1.
Performance engineeringPerformance engineering encompasses the techniques applied during a systems development life cycle to ensure the non-functional requirements for performance (such as throughput, latency, or memory usage) will be met. It may be alternatively referred to as systems performance engineering within systems engineering, and software performance engineering or application performance engineering within software engineering.
Loi de GumbelEn théorie des probabilités, la loi de Gumbel (ou distribution de Gumbel), du nom d'Émil Julius Gumbel, est une loi de probabilité continue. La loi de Gumbel est un cas particulier de la loi d'extremum généralisée au même titre que la loi de Weibull ou la loi de Fréchet. La loi de Gumbel est une approximation satisfaisante de la loi du maximum d'un échantillon de variables aléatoires indépendantes toutes de même loi, dès que cette loi appartient, précisément, au domaine d'attraction de la loi de Gumbel.
Simulation informatiquevignette|upright=1|Une simulation informatique, sur une étendue de , de l'évolution du typhon Mawar produite par le Modèle météorologique Weather Research and Forecasting La simulation informatique ou numérique est l'exécution d'un programme informatique sur un ordinateur ou réseau en vue de simuler un phénomène physique réel et complexe (par exemple : chute d’un corps sur un support mou, résistance d’une plateforme pétrolière à la houle, fatigue d’un matériau sous sollicitation vibratoire, usure d’un roulem
EvaluationIn common usage, evaluation is a systematic determination and assessment of a subject's merit, worth and significance, using criteria governed by a set of standards. It can assist an organization, program, design, project or any other intervention or initiative to assess any aim, realisable concept/proposal, or any alternative, to help in decision-making; or to ascertain the degree of achievement or value in regard to the aim and objectives and results of any such action that has been completed.
Performances (informatique)En informatique, les performances énoncent les indications chiffrées mesurant les possibilités maximales ou optimales d'un matériel, d'un logiciel, d'un système ou d'un procédé technique pour exécuter une tâche donnée. Selon le contexte, les performances incluent les mesures suivantes : Un faible temps de réponse pour effectuer une tâche donnée Un débit élevé (vitesse d'exécution d'une tâche) L'efficience : faible utilisation des ressources informatiques : processeur, mémoire, stockage, réseau, consommation électrique, etc.
Simulation de phénomènesLa simulation de phénomènes est un outil utilisé dans le domaine de la recherche et du développement. Elle permet d'étudier les réactions d'un système à différentes contraintes pour en déduire les résultats recherchés en se passant d'expérimentation. Les systèmes technologiques (infrastructures, véhicules, réseaux de communication, de transport ou d'énergie) sont soumis à différentes contraintes et actions. Le moyen le plus simple d'étudier leurs réactions serait d'expérimenter, c'est-à-dire d'exercer l'action souhaitée sur l'élément en cause pour observer ou mesurer le résultat.