Bioinformatique structuralevignette|262x262px| Structure tridimensionnelle d'une protéine La bioinformatique structurale est la branche de la bio-informatique liée à l'analyse et à la prédiction de la structure tridimensionnelle des macromolécules biologiques telles que les protéines, l'ARN et l'ADN. Elle traite des généralisations sur les structures tridimensionnelles des macromolécules, telles que les comparaisons des repliements globaux et des motifs locaux, les principes du repliement moléculaire, l'évolution, les interactions de liaison et les relations structure/fonction, en travaillant à la fois à partir de structures résolues expérimentalement et de modèles informatiques.
Structural alignmentStructural alignment attempts to establish homology between two or more polymer structures based on their shape and three-dimensional conformation. This process is usually applied to protein tertiary structures but can also be used for large RNA molecules. In contrast to simple structural superposition, where at least some equivalent residues of the two structures are known, structural alignment requires no a priori knowledge of equivalent positions.
Structural genomicsStructural genomics seeks to describe the 3-dimensional structure of every protein encoded by a given genome. This genome-based approach allows for a high-throughput method of structure determination by a combination of experimental and modeling approaches. The principal difference between structural genomics and traditional structural prediction is that structural genomics attempts to determine the structure of every protein encoded by the genome, rather than focusing on one particular protein.
Protein Data BankLa banque de données sur les protéines ou BDP du Research Collaboratory for Structural Bioinformatics, plus communément appelée Protein Data Bank ou PDB est une collection mondiale de données sur la structure tridimensionnelle (ou structure 3D) de macromolécules biologiques : protéines, essentiellement, et acides nucléiques. Ces structures sont essentiellement déterminées par cristallographie aux rayons X ou par spectroscopie RMN. Ces données expérimentales sont déposées dans la PDB par des biologistes et des biochimistes du monde entier et appartiennent au domaine public.
Théorie de la fonctionnelle de la densitéLa théorie de la fonctionnelle de la densité (DFT, sigle pour Density Functional Theory) est une méthode de calcul quantique permettant l'étude de la structure électronique, en principe de manière exacte. Au début du , il s'agit de l'une des méthodes les plus utilisées dans les calculs quantiques aussi bien en physique de la matière condensée qu'en chimie quantique en raison de son application possible à des systèmes de tailles très variées, allant de quelques atomes à plusieurs centaines.
Dynamique moléculaireLa dynamique moléculaire est une technique de simulation numérique permettant de modéliser l'évolution d'un système de particules au cours du temps. Elle est particulièrement utilisée en sciences des matériaux et pour l'étude des molécules organiques, des protéines, de la matière molle et des macromolécules. En pratique, la dynamique moléculaire consiste à simuler le mouvement d'un ensemble de quelques dizaines à quelques milliers de particules dans un certain environnement (température, pression, champ électromagnétique, conditions aux limites.
Modélisation moléculairethumb|Animation d'un modèle compact d'ADN en forme B|327x327px|alt=Modèle de l'ADN en forme B La modélisation moléculaire est un ensemble de techniques pour modéliser ou simuler le comportement de molécules. Elle est utilisée pour reconstruire la structure tridimensionnelle de molécules, en particulier en biologie structurale, à partir de données expérimentales comme la cristallographie aux rayons X. Elle permet aussi de simuler le comportement dynamique des molécules et leur mouvements internes.
Magnitude (sismologie)vignette|Sismogramme enregistré par un sismographe à l'Observatoire Weston dans le Massachusetts, aux États-Unis. En sismologie, la magnitude est la représentation logarithmique du moment sismique, qui est lui-même une mesure de l'énergie libérée par un séisme déduite de l'amplitude de certaines ondes sismiques à des distances spécifiques (mesure de l'amplitude sur un sismogramme de l'onde P ou S). Plus le séisme a libéré d'énergie, plus la magnitude est élevée : un accroissement de magnitude de 1 correspond à une multiplication par 30 de l'énergie et par 10 de l'amplitude du mouvement.
Optimisation de codeEn programmation informatique, l'optimisation de code est la pratique consistant à améliorer l'efficacité du code informatique d'un programme ou d'une bibliothèque logicielle. Ces améliorations permettent généralement au programme résultant de s'exécuter plus rapidement, de prendre moins de place en mémoire, de limiter sa consommation de ressources (par exemple les fichiers), ou de consommer moins d'énergie électrique. La règle numéro un de l'optimisation est qu'elle ne doit intervenir qu'une fois que le programme fonctionne et répond aux spécifications fonctionnelles.
Magnitude apparentevignette|Image de la nébuleuse de la Tarentule prise par le télescope VISTA de l'ESO. La nébuleuse a une magnitude apparente de 8 et est entourée d'objets célestes aux magnitudes diverses. La magnitude apparente est une mesure de l'irradiance d'un objet céleste observé depuis la Terre. Utilisée quasi exclusivement en astronomie, la magnitude correspondait historiquement à un classement des étoiles, les plus brillantes étant de « première magnitude », les deuxièmes et troisièmes magnitudes étant plus faibles, jusqu'à la sixième magnitude, étoiles à peine visibles à l'œil nu.
Magnitude (astronomie)vignette|Sources lumineuses de différentes magnitudes. En astronomie, la magnitude est une mesure sans unité de la luminosité d'un objet céleste dans une bande de longueurs d'onde définie, souvent dans le spectre visible ou infrarouge. Une détermination imprécise mais systématique de la grandeur des objets est introduite dès le par Hipparque. L'échelle est logarithmique et définie de telle sorte que chaque pas d'une grandeur change la luminosité d'un facteur 2,5.
Magnitude de momentL'échelle de magnitude de moment est une des échelles logarithmiques qui mesurent la magnitude d'un séisme, c'est-à-dire la « taille » d'un séisme proportionnelle à l'énergie sismique dégagée. Centrée sur les basses fréquences des ondes sismiques, elle quantifie précisément l'énergie émise par le séisme. Elle ne présente pas de saturation pour les plus grands événements, dont la magnitude peut être sous-évaluée par d'autres échelles, faussant ainsi les dispositifs d'alerte rapide essentiels pour la protection des populations.
Magnitude absolueEn astronomie, la magnitude absolue indique la luminosité intrinsèque d'un objet céleste, au contraire de la magnitude apparente qui dépend de la distance à l'astre et de l'extinction dans la ligne de visée. Pour un objet situé à l'extérieur du Système solaire, elle est définie par la magnitude apparente qu'aurait cet astre s'il était placé à une distance de référence fixée à 10 parsecs (environ 32,6 années-lumière) en l'absence d'extinction interstellaire.
Interprocedural optimizationInterprocedural optimization (IPO) is a collection of compiler techniques used in computer programming to improve performance in programs containing many frequently used functions of small or medium length. IPO differs from other compiler optimizations by analyzing the entire program as opposed to a single function or block of code. IPO seeks to reduce or eliminate duplicate calculations and inefficient use of memory and to simplify iterative sequences such as loops.
Optimizing compilerIn computing, an optimizing compiler is a compiler that tries to minimize or maximize some attributes of an executable computer program. Common requirements are to minimize a program's execution time, memory footprint, storage size, and power consumption (the last three being popular for portable computers). Compiler optimization is generally implemented using a sequence of optimizing transformations, algorithms which take a program and transform it to produce a semantically equivalent output program that uses fewer resources or executes faster.
Densité électroniqueright|thumb|300px|Carte de densité électronique dans le plan [1-10] du diamant. En mécanique quantique, et en particulier en chimie quantique, la densité électronique correspondant à une fonction d'onde N-électronique est la fonction monoélectronique donnée par : Dans le cas où est un déterminant de Slater constitué de N orbitales de spin : La densité électronique à deux électrons est donnée par : Ces quantités sont particulièrement importantes dans le contexte de la théorie de la fonctionnelle de la densité : Les coordonnées x utilisées ici sont les coordonnées spin-spatiales.
Hit to leadHit to lead (H2L) also known as lead generation is a stage in early drug discovery where small molecule hits from a high throughput screen (HTS) are evaluated and undergo limited optimization to identify promising lead compounds. These lead compounds undergo more extensive optimization in a subsequent step of drug discovery called lead optimization (LO).
Drug developmentDrug development is the process of bringing a new pharmaceutical drug to the market once a lead compound has been identified through the process of drug discovery. It includes preclinical research on microorganisms and animals, filing for regulatory status, such as via the United States Food and Drug Administration for an investigational new drug to initiate clinical trials on humans, and may include the step of obtaining regulatory approval with a new drug application to market the drug.
Immunologie des tumeursL’immunologie des tumeurs (appelée aussi immunologie anti-tumorale ou immuno-oncologie) et son but, l'immunothérapie des cancers, sont une branche de la biologie et de la médecine qui consiste à étudier les relations entre une tumeur et le système immunitaire de l'hôte, afin de concevoir des traitements anticancéreux capables d'exploiter la puissance potentielle d'une réaction immunitaire dirigée contre la tumeur.
Échelle de Richtervignette|droite|Représentation d'une onde sismique. Historiquement, l'échelle de Richter a été l'une des premières tentatives d'évaluer numériquement l'intensité des tremblements de terre, grâce à la magnitude de Richter qui mesure l'énergie sismique radiée (énergie des ondes sismiques) lors du séisme. Imprécise et dépassée, elle a depuis été remplacée par des échelles plus précises permettant de mesurer la magnitude des séismes. L'éponyme de l’échelle de Richter est le sismologue américain Charles Francis Richter (-) qui l'a proposée en .